Está en la página 1de 229

Capítulo 1.

PSICOLOGÍA DEL PENSAMIENTO: ESBOZO


HISTÓRICO

REFERENCIAS:

• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA,


I. (2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
NO ES MATERIA DE EXAMEN CAPÍTULO 1. PSICOLOGÍA DEL PENSAMIENTO: ESBOZO HISTÓRICO

RESUMEN
Este capítulo no es materia de examen.

1. LA PSICOLOGÍA DE LA CONSCIENCIA
La psicología científica desde sus comienzos hasta nuestros días se ha ido cuestionando y
replanteando su objeto de estudio y los métodos más adecuados que garantizaran su status
científico. Al encontrarse la psicología del pensamiento inmersa en el propio desarrollo de la
psicología como ciencia también se vio sometida a estos cambios, sufriendo no solo los cambios
metodológicos, sino incluso llegando a perder su legitimidad como objeto de estudio por ser el
pensamiento un proceso inobservable.

Cuando la psicología se instituyó como disciplina científica su fundador, Wundt, estableció que la
consciencia era su objeto de estudio y la introspección el método para analizar la propia experiencia
consciente de los sujetos. Wundt partía del supuesto de que la mente tenía actividad propia y
control sobre los acontecimientos y que ésta era producto de la síntesis de los elementos más
simples. Esta concepción holística de la mente se contraponía al método introspectivo que buscaba
la identificación de los elementos de la experiencia consciente. Esta crítica luego fue esgrimida por
la psicología de la Gestalt.

El estudio de la mente como actividad sintetizadora no entusiasmó a los discípulos de Wundt que
se inclinaron por una psicología más atomista. Para los estructuralistas todos los datos psicológicos
podían analizarse en elementos más simples. El pensamiento se identificaba con las ideas, las ideas
eran imágenes y las imágenes se reducían a las sensaciones. Para describir el pensamiento lo único
que hacía falta era analizar el contenido de consciencia en sus elementos constituyentes y descubrir
cómo se configuraba lo más complejo en términos de las leyes de la asociación. El pensamiento en
definitiva se reducía al análisis de las experiencias sensoriales más elementales por medio de la
introspección analítica, un método sumamente complejo y arduo.

Nos encontramos, por tanto, que la psicología incluso desde sus inicios se debatía los
planteamientos teóricos y metodológicos que la definían como ciencia. Si bien es cierto que la
psicología totalizadora de Wundt y la estructuralista de Titchener compartían el supuesto de que el
objeto de estudio de esta nueva ciencia era la mente entendida como experiencia consciente y el
método la introspección, también es verdad que no estaban de acuerdo con respecto a cómo se
debían definir ambos.

Otro discípulo de Wundt, Külpe establecía una vertiente distinta de la psicología conocida como
escuela de Wurzburgo, ampliando tanto su objeto de estudio como el tipo de tareas que podían
someterse al método de la introspección. A pesar de que la escuela de Wurzburgo no llegó a
constituirse en una alternativa teórica y metodológica propiamente dicha, de hecho, fue absorbida
por la psicología funcionalista, sus aportaciones sobre los procesos de pensamiento abrieron
nuevas perspectivas. Especialmente importantes fueron sus hallazgos sobre el pensamiento sin
imágenes, que ponía de manifiesto que el objeto de la psicología no tenía que reducirse al estudio
de la experiencia consciente, y la identificación del carácter directivo del pensamiento, que

XOSÉ VALES. CURSO 2019/2020 1


NO ES MATERIA DE EXAMEN CAPÍTULO 1. PSICOLOGÍA DEL PENSAMIENTO: ESBOZO HISTÓRICO

descartaba la explicación asociacionista ofrecida por los estructuralistas. Mientras que los
seguidores de la psicología totalizadora y estructuralista se enfrentaban duramente a las
innovaciones propuestas por la escuela de Wurzburgo, surgía en Norteamérica el funcionalismo
como una alternativa que replanteaba el objeto de la psicología y admitía una concepción ecléctica
con respecto a su metodología.

2. LA PSICOLOGÍA DE LAS FUNCIONES MENTALES


La psicología funcionalista seguía siendo una psicología de los procesos mentales, aunque
entendiendo que lo importante no era el análisis de los contenidos, sino el estudio de las
propiedades funcionales de dichos procesos. Su concepción era pragmática y buscaba una psicología
que fuera útil y que pudiera explicar el papel que desempeñan los procesos mentales en un
organismo encaminado a la adaptación al medio. En un principio, los funcionalistas otorgaron al
pensamiento un papel activo en la explicación del comportamiento adaptativo, pero a medida que
avanzaba la investigación el interés por la utilidad del comportamiento se fue desplazando de lo
mental a lo conductual. Ante un método introspectivo que cada vez se presentaba más polémico y
poco fiable, la psicología optó por un objeto de estudio que fuera públicamente observable y por un
método objetivo que pudiera cuantificarlo. Surge así el conductismo propuesto por Watson, en el
que se descarta abiertamente el estudio de los procesos mentales por no ser observables y la
introspección por no ser un método objetivo. De este modo, la psicología conductista redefine el
objeto de la psicología como el estudio objetivo de la conducta observable y toma prestado el
método de la observación objetiva de la investigación animal.

3. LA PSICOLOGÍA CONDUCTISTA: ABANDONO Y DESTIERRO DE LOS PROCESOS MENTALES


Una vez que se sentaron las bases de la nueva psicología conductista sobre un método objetivo, los
intereses de la investigación se centraron sobre la descripción, predicción y control de la conducta.
Pero también hubo otra generación de conductistas interesados por el desarrollo teórico y
metodológico de esta perspectiva. Dentro de este grupo se encuentran Hull y Tolman, quienes con
una concepción distinta conceden algún papel a los procesos mentales, enmarcados, claro está,
dentro de los principios conductistas. Ambos introducen entre la estimulación ambiental y la
respuesta del organismo procesos mediacionales que intervienen activamente en el
desencadenamiento de la conducta observable. Sin embargo, mientras que para Hull estos procesos
mediacionales eran variables intervinientes sometidas a las mismas restricciones que las variables
observables, para Tolman estos procesos eran constructos hipotéticos que incluso tenían
denominaciones mentalistas, como, por ejemplo, el concepto de «mapa mental».

Las polémicas que surgieron dentro del seno del conductismo formal no atrajeron demasiado
seguidores, y, por el contrario, provocó una postura más radical y en consonancia con el
conductismo de Watson. Skinner retoma nuevamente el objeto de estudio de la psicología
propuesto por Watson y rechaza abiertamente cualquier alusión a lo inobservable. El objeto de la
psicología es el estudio de la conducta como producto de las relaciones funcionales que se
establecen entre las variables ambientales y sus efectos en la conducta. La psicología experimental
de aquellos años se vio seriamente influida por esta postura radical del conductismo, pero no todos
desterraron en la misma medida una intervención de lo mental, aunque entendida bajo los mismos

XOSÉ VALES. CURSO 2019/2020 2


NO ES MATERIA DE EXAMEN CAPÍTULO 1. PSICOLOGÍA DEL PENSAMIENTO: ESBOZO HISTÓRICO

principios conductistas y esta postura preparó el camino para el desarrollo de una futura psicología
cognitiva que fuera mentalista y objetiva.

4. LA PSICOLOGÍA DE LA GESTALT: PROYECTO DESCRIPTIVO DEL PENSAMIENTO


Paralelamente a la psicología conductista de Watson surge en Alemania la psicología de la Gestalt
como alternativa crítica a la psicología totalizadora y a la estructuralista. La psicología de la Gestalt
sostiene que el objeto de la psicología no puede, ni debe ser el análisis de la experiencia consciente,
sino la descripción de esta experiencia entendida como un todo. La Gestalt critica duramente el
método introspectivo por perseguir el análisis de los componentes, dado que este análisis desvirtúa
la propia experiencia consciente. Al igual que la psicología totalizadora y la estructura lista, la
psicología de la Gestalt seguía entendiendo que el objeto de la psicología era la experiencia
consciente. Sin embargo, al igual que Titchener y contrariamente a Wundt, la experiencia consciente
no desempeñaba un papel activo en el desencadenamiento del comportamiento, sino que la
descripción de estos fenómenos conscientes tenía que complementarse con la explicación de los
procesos fisiológicos subyacentes. A pesar de que la Psicología de la Gestalt no encontró un
ambiente propicio para su desarrollo, muchos de los problemas que planteó en sus trabajos fueron
posteriormente retomados por la psicología norteamericana en el campo de la percepción y de la
solución de problemas.

5. LA PSICOLOGÍA COGNITIVA: EL PENSAMIENTO COMO PROCESAMIENTO DE INFORMACIÓN


Las investigaciones psicológicas de los años 50-60 del siglo veinte se aproximaban cada vez más al
estudio de los procesos mentales y los avances tecnológicos de esos años brindaron un punto de
partida teórico y metodológico para plantear el estudio objetivo de la mente. La Máquina de Turing,
la Teoría de la Información de Shannon y la Cibernética de Wiener ofrecieron a la psicología la
posibilidad de materializar y cuantificar los procesos mentales haciendo uso de la analogía
computacional. El objeto de la psicología volvía a ser el estudio de los procesos mentales, aunque
entendidos como cómputo mental. El organismo humano se convierte en un procesador activo de
la información y los procesos mentales vuelven a adquirir entidad y control sobre el
comportamiento. Los estímulos ambientales son ahora información que entra en el sistema para
que éste la procese y el producto de este procesamiento se manifiesta en el comportamiento. La
psicología cognitiva hereda el método objetivo del conductismo puesto que mantiene el método
experimental para controlar la manipulación objetiva de las variables independientes y la
cuantificación de las variables dependientes.

La psicología cognitiva da un vuelco definitivo al marco teórico en el que se sitúan sus


investigaciones. Cabe señalar que, si bien la psicología cognitiva regresa a sus orígenes al estudiar
los procesos mentales, su objeto de estudio no es exclusivamente la experiencia consciente, sino,
por el contrario, la mayoría de las veces son procesos a los que no se tiene acceso de forma
consciente y el método introspectivo se descarta como tal, aunque se plantea en algunos casos la
utilización de informes subjetivos bajo una perspectiva distinta y con el nombre de protocolos
verbales. Incluso se opina que la psicología cognitiva no es más que la evolución natural de una
psicología conductista centrada exclusivamente en la conducta hacia un conductismo mentalista,
valga la contrariedad de ambos términos. Pensamos que, si bien es cierto que los iniciadores del

XOSÉ VALES. CURSO 2019/2020 3


NO ES MATERIA DE EXAMEN CAPÍTULO 1. PSICOLOGÍA DEL PENSAMIENTO: ESBOZO HISTÓRICO

movimiento cognitivo en psicología tenían sus raíces en el conductismo, esta influencia repercutió
principalmente en el planteamiento metodológico de sus investigaciones que pretendían seguir
garantizando el rigor del método científico. Ahora bien, el marco teórico del cual se parte es muy
distinto puesto que los procesos mentales adquieren protagonismo y control sobre el
comportamiento.

XOSÉ VALES. CURSO 2019/2020 4


Capítulo 2. PSICOLOGÍA DEL
RAZONAMIENTO

REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES
CASANOVA, I. (2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID:
SANZ Y TORRES.
CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

1. INTRODUCCIÓN
El razonamiento es uno de los procesos cognitivos básicos por medio del cual utilizamos y aplicamos
nuestro conocimiento. Sin la posibilidad de hacer inferencias, dependeríamos de un conocimiento
muy específico y puntual para cada situación que afrontamos. P. ej., “Si un amigo dice que su hijo de
8 años es más alto que su sobrino de 9, pero más bajo que su hija de 7, podemos hacer varias
inferencias: sus hijos son más altos que su sobrino, su sobrino es el más bajo de los tres, sus hijos y
sus sobrinos son primos, su sobrino es muy bajito... todas ellas se pueden hacer sin conocer a los
niños y sin necesidad de que nuestro amigo las formule explícitamente. Podríamos decir que el
razonamiento permite “pasar de una información a otra”, dado que a partir del conocimiento sobre
uno o más enunciados podemos derivar otro enunciado o alcanzar una conclusión.”

Pero no todas las inferencias son iguales. En algunas se ha derivado la conclusión ceñida a la
información de los enunciados (ej., su hija de 7 años es la más alta de los tres niños) y en otras se ha
ido más allá de lo expresado en los enunciados (ej., inferir que su sobrino es muy bajito).

Las investigaciones sobre el razonamiento humano acudieron a la lógica en busca de un criterio para
evaluar el curso de estas inferencias e incluso identificar las propias leyes del razonamiento humano.
Se han diseñado tareas experimentales de acuerdo con la formalización y el concepto de análisis
lógico. Así, es habitual encontrar que estas tareas comprenden premisas y conclusiones que tienen
que ser evaluadas por los sujetos con respecto a su consecuencia lógica.

• El Razonamiento se refiere al proceso cognitivo básico por medio del cual utilizamos y
aplicamos nuestro conocimiento y que nos permite “pasar de una información a otra”, dado
que a partir del conocimiento sobre uno o más enunciados relacionados podemos derivar
otro enunciado o alcanzar una conclusión.
• Las Premisas son los enunciados a partir de los cuales razonamos.
• La Conclusión es el enunciado que se deriva de las premisas.
• El Argumento es el conjunto formado por las premisas y la conclusión.

Partiendo de las mismas premisas puede haber distintas conclusiones. Ej., “su hija es la más alta de
los tres” (inferencia deductiva) y “su sobrino es muy bajito” (inferencia inductiva). Asumiendo que
el contenido de las premisas sea verdadero:
• En la deducción hablamos de un argumento válido o inválido (las conclusiones se siguen
necesariamente de las premisas; las premisas llevan necesariamente a la conclusión).
• En la inducción de un argumento más o menos probable (las premisas sugieren o apoyan la
conclusión; es decir, la conclusión sólo se apoya con un nivel de probabilidad). Las leyes de
la lógica ofrecieron a la psicología un modelo normativo con el que evaluar el razonamiento
humano.

2. LÓGICA Y RAZONAMIENTO
Los estudios psicológicos sobre el razonamiento han seguido la distinción habitual de las dos ramas
de la lógica estandarizada sobre razonamiento deductivo e inductivo:

XOSÉ VALES. CURSO 2019/2020 1


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

• Deductivo: parte de unas premisas para alcanzar una conclusión que se siga necesariamente
de las mismas. Es un procesamiento “hacia abajo” (de lo general a lo particular).
• Inductivo: se alcanza una conclusión que se encuentra más o menos apoyada por las
premisas. Es un procesamiento “haca arriba” (de lo particular a lo general).

Esta metáfora direccional en la que el razonamiento asciende o desciende por una “escalera teórica”
ha sido empleada por Platón, Aristóteles, y en múltiples tratados de lógica (Tiles, 1987).

Sin embargo, Skyrms (1986) señala que es un error diferenciar entre deducción e inducción como
argumentos que proceden de lo general a lo específico (deducción) y de lo específico a lo general
(inducción). La diferenciación entre argumentos deductivos e inductivos no se debe determinar por
la generalidad o particularidad de sus premisas o conclusiones, sino por las definiciones de validez
deductiva y de fuerza inductiva.

Para distinguir ambos razonamientos es necesario recurrir a los conceptos de validez y de


probabilidad:
• Argumento Deductivo: es válido sólo si es imposible que su conclusión sea falsa mientras que
sus premisas son verdaderas (concepto de validez).
• Argumento Inductivo: es fuerte sólo si es improbable que su conclusión sea falsa cuando sus
premisas son verdaderas (concepto de probabilidad).

Inferencias (deductivas e inductivas): son la transición entre uno o más enunciados, en la que las
premisas aportan la información para poder alcanzar una conclusión.
• Conclusiones deductivas son tautológicas: sólo comprenden la información que viene
expresada en las premisas. En el razonamiento deductivo, la verdad de las premisas garantiza
la verdad de las conclusiones.
• Conclusiones inductivas son probabilísticas: van más allá de dicha información. En este
razonamiento las conclusiones son más o menos probables dependiendo del grado en que se
encuentren apoyadas por las premisas.

2.1. RAZONAMIENTO DEDUCTIVO


Desde sus inicios en la filosofía griega, la lógica perseguía la identificación de unas leyes de
razonamiento que fueran universales y por ello se centró en el análisis de la forma o estructura de
los argumentos. El estudio de la deducción se centra en el análisis de los principios del
razonamiento que permiten alcanzar un razonamiento formalmente válido independiente del
contenido.

Desde Aristóteles y durante los 2.000 años siguientes, la deducción era el estudio de las conexiones
entre proposiciones. Las proposiciones son enunciados en los que se afirma o se niega algo y en los
que se establece una relación entre sujeto y predicado (ej., todos los A son B). El análisis de la
deducción se centraba en el establecimiento de las conexiones encadenadas de un silogismo o grupo
de silogismos por medio de la cópula “es”. El silogismo es un argumento en el que la conclusión
establece una nueva conexión entre las proposiciones a través de un término medio que las

XOSÉ VALES. CURSO 2019/2020 2


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

relaciona (ej., en el argumento “todos los A son B, todos los B son C, luego todos los A son C” el
término medio B ha permitido una nueva conexión entre A y C).

Las proposiciones se convirtieron en la unidad básica de análisis y Frege, a finales de siglo XIX,
considera que las proposiciones pueden tratarse como funciones matemáticas, desarrollando un
marco de análisis más potente y flexible que la silogística aristotélica. Es a Principios del siglo XX,
cuando Whitehead y Russell (1910-1913) desarrollan formalmente el cálculo de predicados y
amplían el análisis de las proposiciones a otras formas relacionales distintas de la cópula “es”. Esta
nueva lógica matemática emplea símbolos por analogía con las matemáticas y analiza las relaciones
y funciones entre las proposiciones. De esta forma se logra el cálculo con una notación simbólica,
haciendo posible operar formalmente sin una contaminación de los contenidos.

La deducción se entiende como el proceso mediante el cual los enunciados se derivan de otros de
un modo puramente formal y esta derivación se realiza por la aplicación de las reglas de deducción.

De acuerdo con la notación simbólica:


• Las proposiciones se representan por letras,
generalmente p, q, r, s.
• Los operadores (términos de enlace) por
símbolos que determinan la forma de una
proposición lógica. La representación
simbólica de las proposiciones son variables
y la representación de los operadores son
constantes y se corresponden con los
términos “y”, “o”, “no”, “si...entonces” y “si y
sólo si”.

Los términos de enlace (operadores lógicos) conectan dos proposiciones, excepto el término “no”
que actúa sobre una. Si hay que representar la agrupación de proposiciones con más de un operador
lógico se utilizan los paréntesis con el fin de indicar el operador que domina. De no haber paréntesis
se entiende que el operador menos frecuente es el que se corresponde con la negación, seguido de
la conjunción y la disyunción que tienen la misma potencia y por último el condicional que es el más
fuerte.

Ejemplo 1. Si me pagan las horas extra entonces estoy contento y trabajo feliz
Representación simbólica p→ (q Λ r)

Como podemos observar que el condicional actúa como término de enlace entre la proposición «Si me pagan
las horas extra» (el antecedente) y «estoy contento y trabajo feliz» (el consecuente). Además, el
consecuente de este condicional se encuentra constituido por una conjunción. Su representación simbólica
sería p → (q /\ r), aunque en este caso no hacen falta los paréntesis porque el condicional tiene prioridad
sobre los otros operadores.

XOSÉ VALES. CURSO 2019/2020 3


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

Ejemplo 2. Si me pagan las horas extra entonces estoy contento y a la vez trabajo feliz
Representación simbólica (p →q) Λ r

Este ejemplo es una conjunción entre la proposición «Si me pagan las horas extra entonces estoy contento»
y «a la vez trabajo feliz». La primera proposición de esta conjunción, a su vez, está constituida por dos
proposiciones: «Si me pagan las horas extra» y «estoy contento» con el condicional como término de enlace.
La representación simbólica de este segundo ejemplo sería
(p → q) /\ r. En este caso los paréntesis son necesarios para indicar que la conjunción domina en esta
agrupación.

Las proposiciones formalizadas reciben el nombre de fórmulas lógicas y éstas se corresponden con
las premisas de un argumento. Las reglas de inferencia permiten dar el paso lógico que conduce de
las premisas a la conclusión (pasar de una proposición a otra). Cuando se dice que un argumento es
válido se entiende que la conclusión es una consecuencia lógica de las premisas en el que cada paso
se deduce por medio de una regla de inferencia.

REGLAS DE INFERENCIA (Suppes y Hill, 1968):


• Regla de simplificación (S): Si disponemos de un enunciado formado por dos miembros
unidos por una conjunción, podemos hacer de los miembros dos enunciados afirmados por
separado. Si las premisas son ciertas, entonces se puede concluir p y se puede concluir q.
• Ley de Adjunción (A): Si disponemos de dos enunciados afirmados como dos premisas
separadas, mediante la adjunción, podemos unirlos en una sola premisa utilizando el
operador (conjunción). Si ambas premisas son ciertas se pueden juntar en la conclusión y el
orden es indiferente.
• Doble Negación (DN): permite pasar de una premisa única a la conclusión con la doble
negación.
• Ley de Adición (LA): Dado un enunciado cualquiera, es posible expresarlo como una elección
(disyunción) acompañado por cualquier otro enunciado. Conviene aclarar que el significado
de la disyunción en lógica es incluyente en el sentido de que por lo menos un miembro de la
disyunción es cierto y pueden serlo ambos. Esta ley expresa que, si una premisa es cierta,
entonces la disyunción de esta premisa y otra cualquiera también lo es.
• Leyes Conmutativas: el orden de las premisas es una conjunción y en una disyunción no
altera su significado.
• Modus Tollendo Ponens (TP): Significa “Negando, afirmo”. Si hay dos premisas unidas por la
disyunción y se niega una de ellas, entonces se puede concluir la otra premisa.
• Modus Tollendo Tollens (TT): Significa "Negando, Niego". Si el primer enunciado se niega el
segundo también. Si hay dos premisas unidas por el condicional y se niega el consecuente,
entonces se puede concluir con la negación del antecedente.
• Modus Ponendo Ponens (PP): Significa "Afirmado, Afirmo". Si el primer caso se afirma el
segundo también. En el condicional la proposición p se denomina antecedente y la
proposición q consecuente. Esta regla dice que, si hay dos premisas unidas por el condicional
y se verifica el antecedente, entonces se puede concluir el consecuente.

XOSÉ VALES. CURSO 2019/2020 4


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

• Ley del Silogismo Disyuntivo (SD): Si hay


una premisa disyuntiva y dos premisas
condicionales cuyos antecedentes
coincidan con los miembros de la
disyunción, entonces se puede concluir
con una disyunción cuyos miembros son
los dos consecuentes de las premisas
condicionales.
• Ley del Silogismo Hipotético (SH): Dados
dos implicaciones, de las cuales, el
antecedente de la una sea el consecuente
de la otra (el mismo enunciado), podemos
construir una nueva implicación cuyo
antecedente sea el de aquella implicación
cuya consecuencia sea el antecedente de
la otra implicación, y cuyo consecuente
sea el de esta última, cuyo antecedente
era consecuencia del primero. Si hay dos
premisas condicionales y el antecedente
de la segunda coincide con el consecuente
de la primera, entonces se puede concluir
con otra proposición condicional cuyo
antecedente coincide con el antecedente
de la primera y el consecuente con el
consecuente de la segunda.
• Ley de las Proposiciones Bicondicionales
(LB): Ilustra cómo se pueden deducir dos
proposiciones condicionales de una
proposición bicondicional. Si hay una
premisa bicondicional, entonces se puede
concluir que el antecedente implica el
consecuente y que el consecuente implica
el antecedente o la conjunción de ambos
condicionales. También se puede concluir
con un bicondicional a partir de una
premisa en la que el antecedente implica el consecuente y otra premisa en la que el
consecuente implica el antecedente.
• Regla de Premisas: permite introducir una premisa en cualquier punto de la deducción.

Ejemplos de una deducción formal. El objetivo es ir acercándose paso a paso hacia una conclusión
válida.
Ejemplo 1. “Si sales a cazar, te pones ropa mimetizada. Si llevas ropa mimetizada, te pones la cartuchera.
Luego, si sales a cazar te pones la cartuchera. “

XOSÉ VALES. CURSO 2019/2020 5


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

La primera premisa “Si sales a cazar, entonces te pones ropa mimetizada” se simboliza como
A → B. La segunda premisa “Si llevas ropa mimetizada, entonces te pones la cartuchera” se simboliza como
B → C. La conclusión “si sales a cazar te pones la cartuchera” se simboliza como A → C

La deducción sería la siguiente:


(1) A→B Premisa
(2) B→C Premisa
(3) A→C Conclusión (SH 1,2)
Los dos primeros pasos son las premisas del argumento y el tercero es la
conclusión que se ha obtenido por regla del Silogismo Hipotético (SH).

Ejemplo 2. “Si eres socio de un club de futbol no tienes que comprar las entradas para los partidos. Manuel
va al partido del domingo y es socio del club. En consecuencia, no tiene que comprar la entrada.”
La primera premisa “si eres socio de un club de futbol, entonces no tienes que comprar las entradas para los
partidos” se simboliza como W → ¬ O. La segunda premisa “Manuel va al partido del domingo y es socio del
club de futbol” se simboliza como G ∧ W. La conclusión “no tiene que comprar la entrada” se simboliza
como ¬ O

La deducción sería la siguiente:


(1) W → ¬O Premisa
(2) W∧G Premisa
(3) W Regla de simplificación (S 2)
(4) ¬O Conclusión (PP 1,3)
Los dos primeros pasos son las premisas y en el tercero se deduce W por la
aplicación de la regla de simplificación en el paso 2. El cuarto paso, que es la
conclusión, se deduce aplicando el Modus ponendo ponens (PP) a los pasos 1 y 3.

Se puede saber si un razonamiento deductivo es válido


cuando a partir de premisas que son verdaderas se sigue
una conclusión verdadera por la aplicación de las reglas
de inferencia. Sin embargo, estas reglas no agotan el
número de inferencias válidas. Este método general se
conoce como tablas básicas de verdad, método
semántico o de teorías de modelos y es un método rápido
y mecánico para comprobar la validez de un argumento.
Se parte del supuesto de que cualquier proposición sólo
puede tener dos valores: verdadero o falso.
Como se puede ver, en las tablas de verdad se establecen
todas las combinaciones posibles de los valores de
verdad de las proposiciones (premisas y conclusiones) y
se busca alguna combinación en la que las premisas sean
verdaderas y la conclusión falsa. Si no la hay, el
razonamiento válido se encontraría en la línea en la que
las premisas y la conclusión sean todas verdaderas.

XOSÉ VALES. CURSO 2019/2020 6


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

Veamos a continuación un ejemplo de la aplicación del método de las tablas de verdad con un
argumento válido y otro no válido.

Se establecen todas las combinaciones posibles de los valores de verdad de las proposiciones, tanto
premisas como conclusiones y se busca alguna combinación en la que las premisas sean verdaderas
y la conclusión falsa. Si no la hay, el razonamiento válido se encontraría en la línea en la que las
premisas y la conclusión sean todas verdaderas.

Ejemplo de inferencia válida de modus tollendo tollens:


Las proposiciones son p y q, las premisas p → q , y ¬ q y la conclusión ¬p. Para construir la tabla
comenzamos por asignar los valores a las proposiciones:
• p y q. Dado que para cada una de ellas solo hay dos valores posibles (V o F) tendremos una
tabla 2 x 2, que se corresponde con el nº de combinaciones posibles de los valores de verdad.
El nº de posibles combinaciones de los valores de verdad dependerá del nº de proposiciones
(n) siendo la regla 2n, donde n es el número de proposiciones.

La tabla de la verdad para el modus tollens es la siguiente

Como puede verse por los valores de verdad de las premisas y la conclusión, no hay ningún caso en
el que siendo las premisas verdaderas se alcance una conclusión falsa y en la cuarta línea
encontramos el razonamiento válido.
A continuación, veremos un argumento inválido que se conoce como la falacia de afirmar el
consecuente:

XOSÉ VALES. CURSO 2019/2020 7


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

La tabla de verdad para este segundo argumento es la siguiente:

Como podemos ver en esta segunda tabla de verdad, la tercera línea indica que hay una
combinación posible en la que siendo verdaderas las premisas se puede obtener una conclusión
falsa. Por tanto, este argumento no es válido y se trata de es un error bastante frecuente del
razonamiento humano.

Para examinar la forma lógica de la propia proposición, se utiliza el cálculo de predicados donde se
analiza la estructura interna descomponiendo una proposición en términos (expresión con la que
se nombra un único objeto) y predicados (aquello que se dice de los términos). Para los predicados
se suelen utilizar las letras F, G, H, ... y para los términos las letras x,y,z, colocándose el predicado
delante del término que va entre paréntesis. “Ramona es una estibadora” Ramona es el término (x)
y “es una estibadora” es el predicado, se expresa “F(x)”.

En el cálculo de predicados también se distingue entre términos generales o específicos. La


cuantificación de la generalidad puede ser universal (Ɐ) (todo, cualquiera, para cada x, cada x, para
todo x) o existencial (Ǝ) (algún, algunos, algunas) donde existe al menos un objeto al que se le puede
aplicar el predicado.
SIMBOLO
cuantificador universal Ɐ
cuantificador existencial Ǝ

EJEMPLO de cálculo de predicados


Todas las psicólogas son personas educadas.
Ramona es psicóloga.
Por tanto, Ramona es una persona educada.
(1) (Ɐx) [F(x) → G(x)] Premisa
(2) F (y) Premisa
(3) F(y) → G(y) Especificar y para x
(4) G (y) Conclusión Modus Ponendo Ponens (PP 2,3)
Los dos primeros pasos son las premisas y en el tercero se especifica que Ramona es
psicóloga. El cuarto paso, que es la conclusión, se deduce aplicando el Modus ponendo
ponens (PP) a los pasos 2 y 3.

XOSÉ VALES. CURSO 2019/2020 8


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

2.2. EL RAZONAMIENTO INDUCTIVO


En la inducción hablamos de fuerza del argumento y esto no es una cuestión de grado. Este aspecto
se enmarca en el concepto de probabilidad que depende del apoyo empírico que aportan las
premisas para alcanzar la conclusión. Esto se ha planteado, desde su formulación, como “el
problema de la inducción” por David Hume (1740). El problema de la inducción es que asume la
regularidad de los fenómenos observados con el fin de poder explicar hechos ya conocidos o
intentar predecir hechos aún por conocer. Este argumento no puede verificarse porque no existe
garantía de que después de un nº x de observaciones la conclusión sea más precisa, puesto que se
desconoce el tamaño del universo de acontecimientos a observación.

Un argumento inductivo es fuerte si es improbable que su conclusión sea falsa si sus premisas son
verdaderas. La fuerza inductiva depende del grado de improbabilidad. El grado de fuerza inductiva
está determinado por la relación de apoyo que se estables entre premisas y conclusiones. La
probabilidad de las premisas y conclusiones se conoce como probabilidad epistémica porque
depende de nuestro conocimiento y puede variar de una persona a otra y a lo largo del tiempo en
la misma persona. Existe el riesgo de alcanzar una conclusión falsa, pero ofrecen la enorme ventaja
de permitir descubrir y predecir nueva información en función de la información conocida.

La lógica inductiva estudia las pruebas para medir la probabilidad inductiva de los argumentos y
estudia las reglas para construir argumentos inductivos fuertes. Sin embargo, no existe acuerdo
sobre la forma de medir la fuerza inductiva de un argumento, ni aceptación consensuada de las
reglas y ni siquiera una definición precisa sobre la probabilidad inductiva.

Otra cuestión es la justificación de la inducción. Este problema se centra en determinar por qué se
consideran válidos los juicios sobre casos futuros o desconocidos. Una solución es mostrar que la
validez del razonamiento inductivo se basa en la ley de uniformidad de la naturaleza por la que se
puede suponer que el futuro será semejante al pasado, pero esto no es cierto. Francis Bacon 1620,
rechazó la aplicación de un principio general y propuso unas tablas de investigación en las que la
inducción procedía por exclusión y desestimación. Por tanto, podemos comprobar que la inducción
es una tarea mucho más compleja que la deducción. Si se asume que la naturaleza es uniforme,
entonces el problema está en determinar cuáles son las regularidades que se pueden proyectar a
situaciones futuras. Para poder identificar las regularidades que son proyectables hace falta
determinar cuáles son los aspectos de la naturaleza que se suponen son uniformes. Esta encrucijada
se conoce como “el nuevo acertijo de la inducción” y el problema de la construcción de una lógica
inductiva todavía no está resuelto. El análisis de las causas y de los efectos es un aspecto importante
tanto del razonamiento científico como del cotidiano. Si se conocen las causas se tiene control sobre
los efectos, de forma que se puede producir la causa para obtener el efecto deseado o se elimina la
causa para prevenir el efecto no deseado. David Hume (1739/1888) propuso un conjunto de reglas
para determinar la relación causal y estas nociones fueron desarrolladas por John Stuart MILL
(1843). Los Métodos de Mill son procedimientos para determinar si una causa es suficiente o es
necesaria para producir un determinado efecto, siempre que se tenga información sobre la
presencia o la ausencia de otras causas y sobre la presencia o ausencia del efecto en estas
situaciones.

XOSÉ VALES. CURSO 2019/2020 9


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

Las causas son las condiciones que producen un efecto y que pueden ser suficientes, necesarias o
suficientes y necesarias. Por ejemplo: La presencia de oxígeno es una condición necesaria para la
combustión, pero no es suficiente. Si se quiere producir un efecto, hay que buscar las condiciones
que son suficientes (el oxígeno no serviría para producir el efecto de combustión) Cuando se busca
prevenir el efecto, entonces basta con identificar las condiciones necesarias. (Si se quiere prevenir
la combustión, se puede eliminar el oxígeno).

Los 6 principios por los que se rigen las condiciones necesarias y suficientes (Skyrms, 1986):
• Si A es una condición suficiente para B, entonces B es una condición necesaria para A.
Ejemplo: Si una buena nota es condición suficiente para el aprendizaje, entonces el
aprendizaje es condición necesaria para una buena nota.
• Si C es una condición necesaria para D, entonces D es una condición suficiente para C.
Ejemplo: Si el oxígeno es condición necesaria para la combustión, entonces la combustión es
condición suficiente para el oxígeno.
• Si A es una condición suficiente para B, entonces la ausencia de B es suficiente para la
ausencia de A. Ejemplo: Si una buena nota es suficiente para el aprendizaje, entonces la
ausencia de aprendizaje es condición suficiente para la ausencia de una buena nota.
• Si C es una condición necesaria para D, entonces la ausencia de D es condición necesaria
para la ausencia de C. Ejemplo: Si el oxígeno es condición necesaria para la combustión,
entonces la ausencia de combustión es una condición necesaria para la ausencia de oxígeno.
• Si A es una condición suficiente para B, entonces la ausencia de A es una condición
necesaria para la ausencia de B. Ejemplo: Si una buena nota es condición suficiente para el
aprendizaje, entonces la ausencia de una buena nota es condición necesaria para la ausencia
de aprendizaje.
• Si C es una condición necesaria para D, entonces la ausencia de C es una condición
suficiente para la ausencia de D. Ejemplo: Si el oxígeno es condición necesaria para la
combustión, entonces la ausencia de oxígeno es condición suficiente para la ausencia de
combustión.

Los métodos de Mill son unos procedimientos para descubrir y comprobar las condiciones que son
suficientes y/o necesarias para la ocurrencia de un efecto. John Stuart Mill (1843), propone cinco
métodos para guiar la búsqueda científica de las regularidades. En líneas generales su método
consiste en clasificar en unas tablas las observaciones sobre la presencia y ausencia de las supuestas
condiciones para la ocurrencia de un fenómeno con el fin de eliminar aquellas circunstancias que no
varían regularmente con el fenómeno observado. La propiedad o efecto que se analiza se llama
propiedad condicionada y las propiedades que son condiciones necesarias o suficientes de una
propiedad condicionada son propiedades condicionantes.

El método directo de concordancia identifica las condiciones necesarias y requiere la búsqueda de


la ocurrencia de la propiedad condicionada en un abanico de circunstancias. Se requiere la
construcción de una tabla en la que se recoge un número x de ocurrencias en las que las propiedades
condicionantes pueden estar presentes o ausentes cuando se produce la propiedad condicionada.
Teniendo este número variado de circunstancias diferentes en las que ocurra el fenómeno se irán

XOSÉ VALES. CURSO 2019/2020 10


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

eliminando aquellas propiedades condicionantes que se encuentren ausentes cuando el fenómeno


se encuentre presente. Así se identificará la propiedad condicionante que es condición necesaria del
fenómeno observado. El principio de eliminación enuncia que “cualquier propiedad que se
encuentre ausente cuando el efecto está presente no puede ser una condición necesaria”. En la
tabla se observa como la propiedad condicionante C es la condición necesaria, dado que D se elimina
en la primera ocurrencia, la B en la segunda y la propiedad A se elimina en la tercera ocurrencia.

El método Inverso de concordancia busca identificar la propiedad condicionante que se encuentre


ausente cuando también se encuentra ausente la propiedad condicionada. Se utiliza para identificar
las condiciones suficientes. Se busca en número determinado de ocurrencias las propiedades
condicionantes que se encuentran ausentes cuando la propiedad condicionada también lo está, y
se trata de ir eliminando aquellas propiedades condicionantes que se encuentren presentes cuando
el fenómeno está ausente. El principio de eliminación es: “una propiedad que se encuentre presente
cuando el efecto está ausente no puede ser una condición suficiente”. Seguidamente vemos que la
propiedad D es la condición suficiente, puesto que la A se ha eliminado en primera ocurrencia, B en
la 2ª y C en la tercera.

El Método de Diferencia se utiliza para identificar una condición suficiente en una ocurrencia en
particular. Para ello se busca que la propiedad condicionante y la propiedad condicionada se
encuentren presentes en una ocurrencia determinada (una ocurrencia particular viene señalada con
*). En la Tabla 2.6. se puede ver en el ejemplo 1 que la propiedad condicionante D es la condición
suficiente. Sin embargo, puede suceder, como en el ejemplo 2, que en la ocurrencia determinada
no se pueda identificar una única condición suficiente. En este caso se procede a la observación de
más ocurrencias de acuerdo con el principio de eliminación del método inverso de concordancia.

XOSÉ VALES. CURSO 2019/2020 11


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

Este método requiere como mínimo la observación de dos ocurrencias: una en la que el fenómeno
que se investiga aparezca y otra en la que falte. Como puede observarse en este segundo ejemplo,
la propiedad B sólo se elimina en la ocurrencia particular. S in embargo, en la ocurrencia 1 y de
acuerdo con el método inverso de concordancia se elimina la propiedad A y en la ocurrencia 2 la
propiedad D. De esta forma, la propiedad condicionante C se identifica como condición suficiente.

El Método Combinado se utiliza para identificar las condiciones que son tanto suficientes como
necesarias. Como tenemos el Método Directo de Concordancia para identificar las condiciones
necesarias y dos métodos para identificar las condiciones suficientes podemos combinar el primero
con uno de los segundos y obtenemos dos Métodos Combinados. El Doble Método de Concordancia
combina el Método Directo y el Inverso de Concordancia y el Método Conjunto combina el Método
Directo de Concordancia y el de Diferencia. En la Tabla 2.7. se presenta el Doble Método de
Concordancia y podemos ver que la propiedad condicionante C es la condición tanto suficiente como
necesaria. Se puede observar que en la ocurrencia 1 se han eliminado las propiedades B y D, en la
ocurrencia 2 la propiedad A, en la ocurrencia 3 las propiedades B y D y en la ocurrencia 4 la propiedad
A.

XOSÉ VALES. CURSO 2019/2020 12


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

En el Método Conjunto la propiedad condicionante C es la condición necesaria y suficiente. En la


ocurrencia particular se eliminan las propiedades B y D, y la propiedad A se elimina tanto en la
primera ocurrencia como en la segunda.

Hay que tener en cuenta que solo hay dos principios de eliminación:
• Una condición necesaria del efecto no puede estar ausente cuando el efecto está presente.
• Una condición suficiente del efecto no puede estar presente cuando el efecto está ausente.

Ejemplo práctico. Supongamos que un colectivo de personas en exclusión social ocupa un bloque
de viviendas vacías y que son propiedad de BANKIA. Este colectivo habilito el edifico para hospedar
a personas sin hogar. Supongamos que en el edificio ocupado hay un huésped con síntomas de
intoxicación y queremos averiguar cuál es el alimento que pudo ocasionar dicha intoxicación. Como
en el edificio ocupado hay muchos huéspedes, las comidas son tipo buffet libre dónde pueden elegir
entre varios platos, vamos a utilizar el Método Inverso de Concordancia para reducir la búsqueda a
dos platos principales y a dos postres. Recordemos que el Método Inverso de Concordancia
identifica la condición suficiente (causa) mediante la búsqueda en diferentes casos de la ausencia
tanto de las propiedades condicionantes (posibles causas) como de la propiedad condicionada
(efecto). El principio de eliminación que subyace en este método es: una propiedad que se
encuentre presente cuando el fenómeno está ausente no puede ser condición suficiente del
fenómeno.

Para aplicar el Método Inverso de Concordancia empezamos por seleccionar al azar los huéspedes
que comieron en el edificio ocupado y que no presenten síntomas. Se diseña una tabla y se les
pregunta lo que han comido, podemos ir eliminando las comidas que no son condición suficiente
para la intoxicación. El huésped 1 nos informa de que podemos eliminar la carne y flan pues fue lo
que comió. El huésped 2 nos da el dato de que se puede eliminar las natillas pues las probó, pero no
está intoxicado, y los huéspedes 3 y 4 no nos dan más información que la que sabemos ya. Lo que
encontramos es que todos no comieron pescado y es el único alimento seleccionado al azar que
éstos no han comido. Podemos identificar al pescado como condición suficiente de la intoxicación.
En caso de no encontrar la condición suficiente, entonces tendríamos que ampliar la lista de
alimentos y continuar con la recogida de información.

XOSÉ VALES. CURSO 2019/2020 13


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

Las inferencias inductivas se encuentran presentes en la categorización, en la comprobación de


hipótesis, en la generalización y especialización, en el razonamiento causal, en la detección de
contingencias, en el razonamiento probabilístico, en la solución de problemas, en la toma de
decisiones, en el razonamiento analógico y en el aprendizaje. Las investigaciones psicológicas se han
interesado en describir y explicar estos procesos inferenciales basándose en la lógica. Sin embargo,
los resultados experimentales obtenidos en las distintas tareas de razonamiento deductivo e
inductivo han puesto de manifiesto que existen unos sesgos o errores sistemáticos.

3. ERRORES Y SESGOS EN EL RAZONAMIENTO


El error es un término general para cualquier respuesta que se aparte de lo que dicta el modelo
normativo. El sesgo también es un error, pero este error se comete de forma sistemática. El sesgo
denota una tendencia persistente en la mayoría de los sujetos a dar la misma respuesta errónea...
En el razonamiento deductivo lo habitual es comparar el rendimiento humano con la teoría de la
lógica formal. La validez garantiza que no exista un estado posible de acontecimientos en los que
siendo verdaderas las premisas la conclusión sea falsa. En el razonamiento inductivo, el modelo
normativo habitual es el Teorema de Bayes que permite obtener la probabilidad de una conclusión
ante el conjunto de posibles conclusiones alternativas. Sin embargo, el razonamiento se desvía de
forma sistemática de estas predicciones.
Los errores de razonamiento se clasifican en formales e informales:
• Errores formales son aquellos que violan alguna de las reglas de inferencia. Por ejemplo, en
el tema sobre el razonamiento condicional veremos que se infiere equivocadamente el
antecedente por la falacia de la afirmación del consecuente.
• Errores informales no dependen del argumento, sino del contenido. Los errores son debidos
al uso o interpretación inadecuada del contenido del argumento. Por ejemplo, se puede
rechazar un argumento formalmente válido por no estar de acuerdo con el contenido de la
conclusión.

Los sesgos o falacias de razonamiento se refieren a unas tendencias que son sistemáticas en el
proceso de razonamiento. Estos hacen que los sujetos comentan errores al considerar factores que
son irrelevantes para inferir. Según Evans (1989), los sesgos de razonamiento se pueden clasificar
en tres:
• Sesgo en la selección de la información.
• Sesgo de confirmación.
• Sesgos de contenido y contexto.

XOSÉ VALES. CURSO 2019/2020 14


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

Estos tres sesgos se encuentran a menudo estrechamente relacionados, resultando difícil su


identificación. Ello se pone de manifiesto, por ejemplo, cuando admitimos que el sistema de
procesamiento se ve obligado a seleccionar la información y en este proceso pueden existir
determinados sesgos, y, por otra parte, también sobre esta información sesgada puede influir el
contenido y el contexto del problema de razonamiento y la tendencia hacia la confirmación de la
información presentada o de nuestras propias expectativas.

Trataremos el tema de los sesgos en función del carácter externo o interno de los factores que
inducen a error.
• Por factores externos entendemos aquellos aspectos de la información que son irrelevantes
para el razonamiento y que se encuentran vinculados con el impacto que ejerce la propia
presentación de esta información.
• Por factores internos se refiere a las propias restricciones o limitaciones estructurales del
sistema, a la tendencia que muestra el sistema a tener en cuenta su conocimiento particular
o su sistema de creencias en general, y a la tendencia hacia la confirmación, interactuando
con el propio conocimiento y el sistema de creencias.

3.1. FACTORES EXTERNOS


Si los humanos somos análogos a un sistema de procesamiento de la información, también hay que
considera que tenemos determinadas limitaciones cognitivas, tales como capacidad de memoria y
recursos de procesamiento limitado. Enfrentados a una situación concreta se encuentra con una
gran cantidad de información que no tiene capacidad para procesarla en su totalidad. Nos vemos
obligados a seleccionar aquello que sea relevante para resolver la situación. El sistema humano
alcanza unos niveles de eficacia muy buenos si lo comparamos con una máquina de procesamiento
pues ésta tiene capacidad mucho mayor. Sin embargo, la selección también nos puede conducir a
errores y cuando éstos son sistemáticos podemos clasificarlos como sesgos.
Cuando se dice que una información es saliente se está haciendo referencia a determinados
aspectos que sobresalen sobre los demás creando impacto sobre el sujeto, aunque no sean
importantes. Por ejemplo, en comunicación política es habitual ver al jefe del estado saludando a
niños, a deportistas de elite o a personas de reconocido prestigio. En este sentido, son los saludados
quienes captan la atención de los súbditos haciendo uso de la prominencia de la información cuando
presentan un régimen político (la monarquía) por medio de unas personas que generan simpatía en
todo el mundo y que son un referente para muchos, pero que nada tiene que ver con las
características del producto que pretenden vendernos (la monarquía).

También es habitual recurrir a los números o a la tradición para presentar el producto o una postura.
El mero hecho de que la mayoría consuma o asuma una postura, porque tradicionalmente se ha
consumido, influye sobre los sujetos, sin que éstos consideren la validez o fuerza de los argumentos.
Este impacto ejercido por la información irrelevante para el proceso de razonamiento puede estar
determinado por el interés emocional que tiene, por la concreción de los datos, por el carácter vívido
de la información, por la proximidad temporal y espacial entre los aspectos irrelevantes de la
información y el argumento o por su familiaridad.

XOSÉ VALES. CURSO 2019/2020 15


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

También nos encontramos influidos por la fuente de la que provenga la información. El error de
razonamiento conocido como “argumentum ad hominem1” pone de manifiesto la importancia que
se concede a la fuente de información independientemente de lo que sostenga. Se acepta o rechaza
determinada información en función de los méritos que otorgamos a la fuente. Se simpatiza con la
persona o institución que la sostiene.

También es frecuente recurrir a una autoridad en la materia para defender una postura sin más
evidencia que la persona en cuestión o acreditar o desacreditar la información de una fuente por la
simple asociación con otra, y en algunas ocasiones sin evidencia objetiva suficiente puede ser
apropiado confiar en esa fuente. Sin embargo, un argumento defendido por una fuente de
información con una credibilidad baja no hace que el argumento sea inválido y tampoco a la inversa.

Existen errores sistemáticos debido a la propia estructura sintáctica del problema. Por ejemplo, en
los problemas de silogismos categóricos se ha encontrado el efecto atmósfera y el sesgo de la figura
del silogismo. El efecto atmósfera manifiesta que la cantidad (universal o particular) o la polaridad
(afirmativa o negativa) de las premisas influyen sobre las condiciones que dan los sujetos. En relación
con el efecto de la figura se ha encontrado que el grado de dificultad y el tipo de conclusión
dependen de la posición del término medio en cada una de las premisas.

En el sesgo de emparejamiento se observa que las respuestas de los sujetos coinciden con los
enunciados del problema de la tarea de selección de Wason. Se presentan 4 tarjetas que contienen
el antecedente del condicional por una cara y el consecuente por la otra. La presentación de la tarea
va acompañada de un enunciado condicional en forma de regla y se pi-de a los sujetos que giren la
tarjeta o tarjetas necesarias para confirmar o falsar esa regla. Por ejemplo, “si hay un cuadrado azul
a la izquierda, entonces hay un círculo rojo a la derecha” y se pide a los sujetos que comprueben si
el condicional es verdadero o falso. La mayoría eligen las tarjetas que exhiben los dos términos del
enunciado: cuadrado azul y círculo rojo.

Wason (1966) interpretó estos resultados como un sesgo hacia la confirmación de aquello que venía
expresado por la regla. Sin embargo, Evans y Lynch (1973), sostienen que este sesgo está basado en
el emparejamiento y cuestionan que ésta sea una tendencia hacia la confirmación basándose en sus
resultados con la negación de los términos. El mismo problema con términos negativos sería “Si hay
un cuadrado azul a la izquierda, entonces no hay un círculo rojo a la derecha” (negación del
consecuente) o “Si no hay un cuadrado azul a la izquierda, entonces hay un círculo rojo a la derecha”
(negación del antecedente). En este caso se observa que los sujetos eligen los términos
mencionados en la regla y no persiguen la confirmación de esta. En el caso de la negación del
consecuente, la elección de los sujetos coincide con la falsación, y en el caso de la negación del

1Un Ad Hominem, también conocido como Argumentum Ad Hominem. Del latín: "argumento hacia la persona o "argumento en contra de la
persona. Consiste en: contestar a un argumento, explicación, opinión hacia un tópico en concreto, discusión o declaración atacando y/o apelando
a una característica (física, mental o de otra índole personal) o una creencia de la persona que hace dicha exposición en lugar de dirigirse
directamente hacia o en contra de su argumentación con otro argumento en un intercambio de ideas y/o información. El proceso de probar o
de refutar al utilizar un Ad Hominem se subvierte y el Argumentum Ad Hominem sólo sirve para cambiar el sujeto de la discusión en lugar de
probar o refutar un argumento. Sin un argumento previo no puede haber o no se puede dar un Argumentum Ad Hominem (Abrev. Ad Hominem)
puesto que no hay nada que probar o refutar por lo tanto el intercambio se convierte en un ataque o apelación a una característica o creencia
personal, frecuentemente a dos bandas.

XOSÉ VALES. CURSO 2019/2020 16


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

antecedente siguen eligiendo los mismos términos mencionados pero su elección no coincide con
las reglas de la lógica. Según Evans (1989) el sesgo de emparejamiento pone de manifiesto la
relevancia que adquieren los términos expresados en el condicional y las dificultades que tienen los
sujetos con la negación lógica y lingüística, mostrando preferencia hacia el procesamiento de
información positiva.

3.2. FACTORES INTERNOS


Tenemos que considerar primeramente una restricción estructural del propio sistema de
procesamiento de la información. Existe la limitación asociada con la cantidad de información con
la que puede trabajar el sistema. Cuando esta información es abundante, el sistema se sobrecarga
y la posibilidad de error es mayor (Hitch y Baddeley, 1976; Johnson-Laird, 1983).

La selección adecuada de la información dependerá de que ésta se encuentre disponible. La


disponibilidad hace referencia a la facilidad con la que se recupera determinada información. Esta
disponibilidad o accesibilidad de la información fue descrita por Tversky y Kahneman (1973) para
los juicios en los que se pide la estimación de frecuencias. En el proceso de organización y
recuperación de la información almacenada existen restricciones cognitivas que pueden dar lugar a
los sesgos. Por ejemplo, la facilidad de recuperación en función de cómo se ha organizado la
información, la familiaridad, las expectativas de los sujetos o la primacía o cercanía de la información
presentada.
Tversky y Kahneman (1982), describen varios experimentos. En uno se pedía a los sujetos que
emitieran juicio sobre la frecuencia de las palabras en inglés que empezaban por “k” y las palabras
que tenían esta letra en tercera posición. Los sujetos valoraban como más frecuentes las palabras
que empezaban con ella que las otras, aunque en realidad en inglés son más frecuentes éstas
últimas. Este resultado se debe a que nos es más fácil recuperar palabras por su letra inicial que por
las letras en otras posiciones (efecto de primacía).

En otro experimento, presentaron dos listas con la misma cantidad de nombres de personas famosas
y anónimas. Cuando se preguntaba sobre la frecuencia de los nombres, se encontró que juzgaban
como más frecuentes la de los nombres de los famosos. Estos nombres eran más fáciles de recordar
y al poder recuperar mayor número, consideraban que eran los más frecuentes. También se ha
encontrado que cuando se presenta una hipótesis irrelevante se induce a su consideración. Por
ejemplo, se describe un patrón de síntomas asociados al diagnóstico y a continuación se presenta
un caso en el que este patrón es irrelevante, los sujetos se dejarán influir por las expectativas que
ha generado la información presentada previamente (Chapman y Chapman, 1967).

Los errores de razonamiento también pueden deberse por el conocimiento propio o de sus
creencias, haciendo que se razone a favor de ellas. Se le da más importancia a la evidencia que vaya
en consonancia con nuestras creencias y se suele ignorar o minimizar aquello que las contradice.
También existe la tendencia a buscar explicaciones y aceptarlas muy fácilmente cuando éstas están
en consonancia con nuestras creencias, sin la consideración objetiva de los datos que las apoyan.
Además, se pueden alcanzar conclusiones precipitadas siempre que encaje con nuestro sistema de
creencias.

XOSÉ VALES. CURSO 2019/2020 17


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

El sesgo conocido como de confirmación manifiesta la tendencia hacia la búsqueda de información


que sea consistente con nuestro sistema de creencias, expectativas o hipótesis y a descartar aquella
información que pueda falsarlas. En el razonamiento probabilístico se encuentra cuando los sujetos
tienen que evaluar el diagnóstico de una enfermedad en función de los resultados positivos de una
prueba. Los sujetos se basan en la diagnosticidad de la prueba para la primera enfermedad
hipotética, sin considerar cuál es la probabilidad de que los resultados también sean positivos para
el diagnóstico de otras enfermedades alternativas.

También se encuentra este sesgo en tareas de inducción en las que el sujeto tiene que descubrir una
regla. Por ejemplo, en la de “Tarea 2 4 6” (Wason, 1960) donde se pide que descubra cuál es la regla
de la serie. El experimentador tiene en mente una regla general como “cualquier serie de números
ascendentes”. Es habitual observar que los sujetos se empeñan en ir comprobando reglas, como los
múltiplos de 2. Y ante las respuestas de los sujetos el experimentador dirá siempre “SÍ” puesto que
cumplen la regla general, peor la del sujeto no es la del experimentador. Los sujetos solo generan
reglas con series positivas de acuerdo con la regla y no generan alguna que pueda falsar sus
hipótesis.

El Problema de los Taxis (Kahneman y Tversky, 1972)

En este problema se pide a los sujetos que juzguen cuál de las dos compañías de taxis pudo
haber estado involucrada en un accidente ante la siguiente situación:

“En una gran ciudad hay dos compañías de taxis con distintos colores: taxis azules y taxis
verdes. Un 85% son taxis azules y un 15% son taxis verdes. Hubo un accidente y el taxi se
dio a la fuga. Un testigo asegura que el coche era un taxi verde. En una prueba de
memoria se encuentra que el testigo puede recordar correctamente el color de los coches
en un 80% de los casos y que se equivoca en el 20%”

En esta tarea la mayoría de los sujetos consideraban que el responsable del accidente había
sido un taxi verde. Sin embargo, con los datos presentados la probabilidad es mayor para
el taxi azul:
0,85 x 0,20 = 0,17 azul. Existe un 85% de estos, por el 20% que pudiera ser si se ha
equivocado el amigo, nos daría 17%

0,80 x 0,15 = 0,12 verde. En este caso el 80% de las veces no se equivoca, pero solo hay un
15% de taxis verdes, y así sería probable que el 12% de posibilidades fuera el taxi verde.

A pesar de haber presentado la información relevante, los sujetos se fían más del testigo
que de los datos. Se topa también con la relevancia. No solo debe estar disponible la
información sino ser relevante para la situación. El rendimiento mejora en las tareas
cuando establecen relaciones causales. Por ejemplo, si se dijera que el número de taxis es
igual y que el 85% de los taxis que tienen accidentes son azules, entonces los sujetos se
fijan en las probabilidades a priori a la hora de dar sus respuestas (Tversky y Kahneman,
1980).
XOSÉ VALES. CURSO 2019/2020 18
CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

En general, se persiguen las estrategias que


confirman y no la falsación e incluso se
Ejemplo muestra una persistencia inadecuada al
seguir defendiendo el argumento en el que se
Para ver el efecto del contenido vamos a poner un cree a pesar de la evidencia contraria al
ejemplo con un silogismo categórico, que primero mismo (Nisbett y Ross, 1980). Evans (1989)
ilustrará el efecto atmósfera anteriormente indica que ello puede deberse a una
comentado al tratar los sesgos debidos a la propia restricción propia del sistema que se centra
estructura sintáctica del problema. Recordemos
que el efecto atmósfera pone de manifiesto que
en procesar información positiva y no a una
cuando las premisas contienen al menos una tendencia hacia la confirmación. Por ello,
premisa particular, la conclusión es también cree que este sesgo de confirmación pone de
particular y en el caso contrario universal, y manifiesto las dificultades para procesar
cuando es negativa la conclusión es negativa y en información negativa. Muestra la
el caso contrario afirmativa. De acuerdo con este
predilección del sistema por lo positivo (o por
efecto, encontraríamos que en el siguiente
ejemplo los sujetos aceptarían como válido el lo que considera beneficioso) y además el
argumento por la atmósfera universal de las que se persista sobre la hipótesis en
premisas. particular buscando activamente la
información positiva. No obstante, Mynatt,
Todos los A son B Doherty y Tweney, (1977), nos indican que
Todos los C son B
___________________
algunos sujetos muestran cierta sensibilidad
todos los C son A ante la información que desmiente sus
hipótesis cuando ésta se presenta
Los sujetos, sin embargo, rechazarían la validez de expresamente.
este mismo argumento si se dotara con el
siguiente contenido:
También se encuentra que cuando se
Todos los futbolistas son seres vivos. presentan reglas de contenido, los sujetos
Todas las astronautas son seres vivos. intentan verificar las hipótesis si se
______________________________________ encuentran en consonancia con su sistema
Todas las astronautas son futbolistas de creencias y tienden a desconfirmarlas
cuando piensan que pueden no cumplirse en
Claramente vemos, como el contenido ha
facilitado el rendimiento de los sujetos y decimos
todos los casos. El contenido y el contexto de
que esta conclusión no es válida, eliminando así el los problemas influyen igualmente:
sesgo que produce la propia estructura formal del • Contenido abstracto. En condicional
argumento. Cuando la conclusión del argumento sería “Si p, entonces q” = >> “Si A, entonces
se encuentra a favor o en contra del sistema de 7”
creencias de los sujetos, éstos lo consideran válido
o no, respectivamente. Entre el sesgo de
• Contenido conocido, pero arbitrario:
confirmación y el de creencias previas existe una “Si eres un número de la Guardia Civil,
estrecha relación, aunque es una dirección entonces pertenece a la sociedad de votantes
distinta. El de confirmación pone de manifiesto la de VOX” (Lleva términos de uso cotidiano,
búsqueda de evidencia para confirmar hipótesis, pero que no tienen relación directa con los
el de creencias previas, evalúa la evidencia
conocimientos o sistemas de creencias de los
sesgándola hacia la conclusión que sea
congruente con estas creencias. sujetos).

XOSÉ VALES. CURSO 2019/2020 19


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

• Contenido familiar: “Si eres futbolista profesional, entonces conoces los principios del juego
del fútbol”.

Por contexto se entiende el marco o el escenario en el que se sitúa el problema de razonamiento.


El contexto se hace explícito en el diseño de las tareas experimentales mediante el uso de
instrucciones o descripciones verbales o escritas que acompañan al problema.

El contenido familiar puede en casos facilitar el rendimiento y en otros sesgar sus respuestas. En las
tareas de silogismos categóricos es habitual presentar un argumento deductivo y pedir a los sujetos
que juzguen su validez (viene determinada la validez por la estructura sintáctica no por contenido)
La verdad de la conclusión se juzga en función de la verdad supuesta de las premisas. Sin embargo,
cuando las conclusiones entran en conflicto con las creencias, se aceptan como válidos argumentos
que no lo son, pero cuyas conclusiones están en consonancia con el sistema de creencias y se
rechazan otros que siendo válidos muestran una conclusión discordante (Evans, Barston y Pollard,
1983).

Según el modelo del escrutinio selectivo los sujetos parecen examinar la conclusión y si ésta es
plausible, entonces tienden a aceptarla sin analizar la validez del argumento:

Todos los animales son seres vivos


Todas las perras son seres vivos
_______________________________
Todas las perras son animales

En este caso la conclusión es plausible y parece que entonces no nos molestamos en comprobar si
sigue de las premisas o no, aceptándola sin más. No obstante, el mero hecho de razonar sobre
contenidos conocidos no produce en todos los casos los efectos de facilitación esperados. Esto ha
provocado el que los factores de contenido se asocien al contexto, entendiéndose éste vinculado
con los aspectos pragmáticos del razonamiento. Los efectos de facilitación vendrían explicados por
la vinculación que los sujetos hacen entre el problema y los objetivos o metas hacia las que
encaminan el razonamiento.

Por ejemplo, en el condicional se proponen unos esquemas de razonamiento para situaciones de


regulación, tales como permisos (Cheng y Holyoak,1985) como “Si recoges las cacas del perro
cuando lo sacas a pasear, entonces irás al fútbol”, el sujeto entenderá el contexto y lo vinculará con
metas u objetivos anteriores que pondrán en marcha un conjunto de inferencias correctas.

La probabilidad epistémica dependerá del conocimiento sobre la naturaleza de los objetos sobre los
que se razona. Por ejemplo, se hacen generalizaciones a partir de pequeñas muestras de casos si
conocen o creen conocer la variabilidad de la muestra. Se acepta generalizar cuando dicha muestra
es pequeña si los objetos presentan variabilidad baja y no están dispuestos a aceptar una basada en

XOSÉ VALES. CURSO 2019/2020 20


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

pocas observaciones en un dominio de mucha variabilidad. Supone que según el mayor


conocimiento se irán evitando generalizaciones falaces o falsas.

También se ha encontrado que el contenido puede inducir a sesgos cuando es representativo del
dominio, pero irrelevante estadísticamente. Los juicios por representatividad pueden inducir a
sesgos al basarse en la similitud entre conocimiento del sujeto y aquello sobre lo que está
razonando. Es el conocido “problema de los dos hospitales” de Kahneman y Tversky, 1972 Lo
expondrán en su capítulo, pero adelanto que este ejemplo pone de manifiesto que cuanto mayor
sea el número de observaciones más probable es que el resultado se aproxime al resultado real y
cuanto menor sea es más probable obtener resultados extremos.

Para resumir, hay que indicar que los sesgos son una consecuencia directa de las restricciones o
limitaciones propias del sistema que, por otra parte, es un sistema eficaz y adaptado al medio en el
que se encuentra inmerso. Simon (1989) nos indica que en pocas ocasiones el sistema de
procesamiento cuenta con la estrategia exacta para resolver el problema que tiene delante y debe
aproximarse a la solución por medio del “principio de la racionalidad restringida”. Todo ello hace
que el marco teórico del razonamiento humano se encuentre latente el debate sobre racionalidad
o irracionalidad del pensamiento.

4. EL CONCEPTO DE RACIONALIDAD
Cuando la psicología se plantea estudiar experimentalmente el razonamiento consideró que la
lógica era el marco de referencia para explicarlo. Sin embargo, los resultados de las investigaciones
manifestaron que los sujetos no siempre se ajustaban al criterio del razonamiento lógico,
conduciendo ello a un resultado incómodo para la psicología: si los sujetos no razonan con lógica,
entonces son irracionales.

4.1. COMPETENCIA SINTÁCTICA RESTRINGIDA


Cuando se defiende la racionalidad se suele aludir a la propuesta de Chomsky (1965) entre
competencia y actuación lingüística. Se parte, por analogía con los órganos físicos como el corazón,
de que existe en el ser humano una dotación genética especialmente dispuesta para el desarrollo y
maduración de unos órganos mentales. Chomsky defiende que uno de estos órganos era la facultad
para el lenguaje y esta se traduce en un conjunto de reglas que es universal y específico de la especie
humana. Este conjunto de reglas abstractas (gramática universal) es la competencia lingüística y
cuando ésta se manifiesta externamente es actuación lingüística.

La actuación lingüística explica que el sujeto tenga la facultad para el lenguaje que se actualizará en
algo concreto como el español, inglés, alemán, … o que algunas veces se equivoque en sus
locuciones sin que ello obligue a cuestionar su competencia lingüística. Así algunos defienden que
existe una competencia o capacidad racional que puede sufrir distorsiones cuando esta capacidad
se traducía a una actuación concreta.

Desde la perspectiva de los modelos computacionales, la psicología del pensamiento se entendería


como el estudio de las estructuras simbólicas (susceptibles éstas de interpretación en función de

XOSÉ VALES. CURSO 2019/2020 21


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

conceptos de uso común) y de los procedimientos para su manipulación sirviendo la lógica como
modelo normativo.

Los resultados experimentales descubren ilusiones cognitivas o comprueban la formación en lógica


de los sujetos, asignando falacias dónde no las hay (Cohen, 1981). Otros enfoques sostienen que en
la explicación de los sesgos se haya subestimado el papel de la lógica (Henle, 1986). El problema
principal radica en que las distintas posturas teóricas se han adoptado en la explicación de los
errores. Desde un enfoque sintáctico se entiende que los errores como la existencia de
determinadas condiciones que conducen a error.

Según el enfoque sintáctico, los errores de razonamiento ocurren en la comprensión de las premisas
y las respuestas sesgadas pueden explicarse en función de la interpretación que hacen los sujetos.
Henle (1962) sostiene que cuando los sujetos aceptan realizar una tarea lógica se pueden cometer
errores en la interpretación del argumento (las premisas y la conclusión) u omitir o añadir una
premisa al argumento. Por ejemplo, los sujetos pueden cometer errores en la interpretación de los
cuantificadores de un silogismo categórico, tales como, interpretar «algunos X son Y» como
«algunos X no son Y» y «algunos X no son Y» como «algunos X son Y». También se ha sugerido que
algunos sujetos pueden hacer conversiones de las premisas, tales como, convertir «algunos X no son
Y» en «algunos Y no son X» o «todos los X son Y» en «todos los Y son X».

Revlin y Leirer (1978), basándose en el modelo de conversión, sostiene que el contenido familiar
bloquea la conversión ilícita en la codificación de las premisas. El sesgo del sistema de creencias
puede explicarse considerando que las premisas de los argumentos válidos son más susceptibles
para la conversión que las premisas de argumentos inválidos. No obstante, este sesgo fue explicado
por Henle como el fracaso en la aceptación de la tarea lógica, donde los sujetos no entienden las
instrucciones o no saben lo que tienen que hacer y, por ello, hacen algo distinto de lo pretendido a
analizar, que es el razonamiento.

En líneas generales, la perspectiva sintáctica asume que existen dos componentes fundamentales
en el razonamiento:
• Un componente deductivo que comprende reglas sintácticas libres de contenido.
• Un componente de interpretación que establece la correspondencia entre los enunciados
del lenguaje y el conjunto de reglas sintácticas.

Este conjunto de reglas sintácticas no tiene que ser equivalentes a las reglas lógicas, sino que
comprendería el repertorio de reglas de inferencia que utilicen los sujetos de forma natural. Así si
el contenido y contexto influyen al interpretar, la actuación de los sujetos se explicaría por su
adherencia a las reglas sintácticas aplicadas a dicha interpretación. El contenido determinaría la
interpretación y el control del conocimiento que ha de recuperarse de la MLP, sin que ello implique
la alteración del conjunto de reglas sintácticas del sistema. Si el tipo de contenido cambia las
respuestas, es debido a la utilización de un conjunto distinto de proposiciones, no de reglas.

XOSÉ VALES. CURSO 2019/2020 22


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

La tarea de Wason ha sido base de numerosos trabajos. Sólo el 4% de los sujetos fueron capaces de
responder correctamente a la tarea, en estudios posteriores el porcentaje ha variado entre el 6 y el
33%. El contenido del material presentado incide sobre el rendimiento, facilitándolo cuando es
contenido concreto. No obstante, no todos los contenidos concretos producen facilitación y algunos
autores indican que si existe experiencia previa se da mayormente esta facilitación.

Otra perspectiva alternativa enfatiza el papel de la experiencia y el contexto lingüístico en la


determinación del rendimiento y cuestiona a los marcos teóricos de las reglas desvinculadas del
contenido. Se cree por tanto que los contenidos abstractos serían los adecuados para estudiar el
sistema deductivo, pero la alta tasa de errores encontrada oscurece la viabilidad de una
competencia lógica.

La teoría de los esquemas de razonamiento pragmático (Cheng y Holyoak, 1985) propone que los
sujetos cuentan con reglas de razonamiento que son específicas del dominio. Estos tienen un nivel
medio de abstracción de forma que los esquemas se aplicarían a un conjunto de acontecimientos,
tales como las situaciones de regulación (permiso, contratos sociales, advertencias, etc).

En el caso que se comentó anteriormente de “Si recoges las cacas de perro cuando lo sacas a pasear,
entonces irás al fútbol”,” el sujeto entenderá el contexto de este problema y lo vinculará con metas
u objetivos anteriores que permitirán poner en marcha un conjunto de inferencias correctas y
organizadas en un esquema. Estos esquemas de razonamiento estrechamente vinculados con el
contenido y el contexto darían lugar a inferencias que coinciden con las estipuladas por la lógica. La
racionalidad bajo esta perspectiva no vendría explicada por la posesión de un conjunto de reglas
lógicas propiamente dicho, sino por unas reglas de razonamiento apropiadas para alcanzar los
objetivos que se propone el sujeto y para los que hace falta considerar el contenido y el contexto.
Sin embargo, no es una teoría que pueda generalizar el razonamiento más que a unas pocas
situaciones concretas. Se requieren más estudios.

La polémica suscitada sobre la racionalidad es un tema difícil de abordar, pues supone que hay que
distinguir entre estructura lógica y contenido (no lógico) y entre comprensión y reglas sintácticas.
Smedslund, 1970, 1990, nos indica que las explicaciones del modelo son circulares pues sólo se
puede deducir la naturaleza de la interpretación de una regla si se asume que se razona de forma
lógica y sólo se puede descubrir que se razona lógicamente si sabemos que ha interpretado la
premisa. La teoría de la competencia lógica supone un sistema lógico hipotético, pero al igual que
en las teorías de la competencia lingüística, el modelo de competencia no constituye el que sea una
teoría que pueda verificarse de forma empírica. La tarea experimental no garantiza que los sujetos
comprendan los requisitos de la validez deductiva, ni que la comprensión de las premisas enunciadas
coincida con la del experimentador.

4.2. COMPETENCIA SEMÁNTICA RESTRINGIDA


Estas perspectivas defienden la representación semántica de las premisas y el procedimiento de
comprobación semántica del argumento. Según Erickson (1974), los sujetos representan cada

XOSÉ VALES. CURSO 2019/2020 23


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

premisa como una combinación de diagramas de Euler y para evaluar o producir una conclusión se
han de combinar dichas representaciones de premisas en una sola representación del silogismo.

Una teoría más actual al respecto es la de los Modelos Mentales de Johnson-Laird (1983; 2006;
Johnson-Laird y Byrne, 1991 ). Esta se enmarca en el enfoque que explica el razonamiento por el
conocimiento tácito que tienen los sujetos sobre los principios semánticos fundamentales que
subyacen en los procesos de inferencia. La validez se entiende como posibles interpretaciones del
argumento. Los sujetos construyen modelos mentales que constituyen la representación de las
situaciones descritas por las premisas generado combinaciones de éstas en búsqueda de
contraejemplos para las posibles conclusiones. El procedimiento básico viene explicado por esta
búsqueda de contraejemplos alternativos que puedan falsar el modelo mental en cuestión. Si estos
no se encuentran entonces es válido. La dificultad de los problemas se explica en función de la
cantidad de procesamiento y los errores se explican por las limitaciones de la memoria de trabajo al
no poder considerar todas las combinaciones posibles de las representaciones relevantes. Parece
entonces que se razona por un procedimiento semántico adecuado, pero limitado por la capacidad
de la memoria de trabajo. Según estos autores, la racionalidad viene reflejada en el metaprincipio
semántico de validez: “Una inferencia es válida sólo si su conclusión no puede ser falsada por un
modelo de las premisas”.

Sin embargo también se ha señalado que el enfoque semántico es un procedimiento tan formal
como el sintáctico (Lowe, 1993) y que la teoría de los modelos mentales se puede entender como
un modelo mental lógico en el que se describe el procedimiento formal para la búsqueda semántica
e contraejemplos (Oaksford y Chater, 1993). El procedimiento semántico (método de la Tª de los
modelos) analiza el significado de los operadores lógicos y el sintáctico (método de la Tª de la
demostración) utiliza las reglas de inferencia para delimitar este significado, pero ninguno de los dos
considera el contenido del argumento.

4.3. COMPETENCIAS EN LA SATISFACCIÓN DE RESTRICCIONES


Los modelos conexionistas ofrecen perspectiva alternativa, donde la representación del
conocimiento se encuentra distribuida y ponderada diferencialmente en patrones de activación que
forman parte del sistema dinámico con procesamiento en paralelo. Sigue la idea del cómputo mental
inherente a los modelos computacionales, pero sin apelar a la hipótesis de que el sistema sea un
manipulador de símbolos. Según éstos, el sistema está compuesto por redes de activación, cada una
de las cuales comprende un conjunto amplio de unidades de procesamiento, similares a las
neuronas, unidas a su vez por conexiones con pesos diferenciados. Este enfoque propone
axiomatizar el sistema físico, para luego investigar analíticamente su comportamiento en
contraposición a la axiomatización del comportamiento para luego diseñar un sistema físico por las
técnicas de la síntesis lógica (Rosenblatt, 1962).

Desde esta perspectiva, el pensamiento se concibe como comportamiento que emerge del patrón
de regularidades observadas de nuestra experiencia. El sistema en sí mismo no tiene reglas que
dirijan el funcionamiento, pero el enfoque simbólico asume que los estados mentales sí se forman

XOSÉ VALES. CURSO 2019/2020 24


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

por representaciones y reglas, a lo que esta perspectiva conexionista responde con la explicación de
que solo hay activación y fuerza de conexión para explicar el comportamiento.

Bajo el enfoque conexionista se diluye la diferenciación entre contenido y reglas. En el modelo


conexionista el conocimiento del sujeto viene representado por los patrones de activación en los
que el conocimiento está distribuido y ponderado con pesos diferentes y al razonar el sistema busca
el emparejamiento que viole el menos número de restricciones o limitaciones. Al entrar
información, se activará el conocimiento relevante para la red y se generará la mejor interpretación
posible que alcance el sistema. Se busca el ajuste óptimo entre ambos patrones, y las restricciones
cognitivas se determinarán por la base de conocimientos que se encuentre representada y activada.

Oaksford y Chater (1993) apuntan una interpretación alternativa a la Teoría de los Modelos
Mentales basada en los procesos de recuperación de memoria en el marco de los modelos
conexionistas. Aquí se explicaría la búsqueda de contraejemplos, por la bondad de ajuste entre el
patrón de activación generado por el argumento y el conocimiento representado por el sistema.

Algunas propuestas consideran la coexistencia de los dos sistemas de razonamiento. La


consideración de la coexistencia de los procesos duales no es nueva en la psicología cognitiva y su
ámbito de estudio comprende varios procesos, tales como, el aprendizaje, la atención, el
razonamiento, la toma de decisiones y la cognición social. En la Tabla 2.10 se presentan algunas de
estas propuestas y las denominaciones que se han dado a ambos procesos según los autores y el
campo estudiado.

En línea generales, en estas propuestas se contrastan los procesos rápidos, inconscientes y


automáticos frente a los procesos que son lentos, conscientes y controlados. Stanovich (2004)
distingue entre un Sistema1 (rápido e implícito – más antiguo y computacionalmente más rápido y

XOSÉ VALES. CURSO 2019/2020 25


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

potente) y otro Sistema2 (procesamiento explícito con respuestas que pueden satisfacer criterios
normativos – moderno, lento y con mayores demandas).

Sloman (1996) propone que hay un razonamiento reflectante (sistema conexionista) cuyo cómputo
refleja estructuras de semejanza y relaciones de contigüidad y un razonamiento deliberado (sistema
de representación simbólica basado en reglas). El sistema conexionista permite que los procesos de
razonamiento sean rápidos y económicos y no hace falta un proceso de análisis puesto que su
resultado ya forma parte de la propia representación. La desventaja de este tipo de razonamiento
es que depende de la experiencia anterior y del
contexto. El sistema basado en reglas requiere
procesos más lentos y costosos, aunque su
aplicación es más general y no depende del
contexto. Ambos sistemas de razonamiento
servirían para funciones distintas. El sistema
conexionista aprovecha los recursos de
procesamiento al obtener sus inferencias
aprovechando el conocimiento que se
encuentra representado y que puede
generalizarse a contextos semejantes. El
sistema basado en reglas utilizaría sus recursos
de procesamiento para aquellas situaciones
novedosas y en las que sea necesaria la
precisión de las inferencias.

Evans y Over (1996; 1997; Evans, 2003), proponen distinguir entre dos nociones de racionalidad:
• La racionalidad1 o personal (comportamiento eficaz y fiable para la obtención de metas).
• La racionalidad2 o impersonal (comportamiento basado en una razón que se encuentra
fundamentada en teoría normativa).

Se trata de una propuesta descriptiva de razonamiento, pero no una propuesta psicológica. La


distinción psicológica la hacen entre el tipo de procesamiento: implícito (conexionista en el que se
representa el conocimiento tácito dependiente de la experiencia) y explícito (limitado por la
capacidad de memoria de trabajo, por un procesamiento secuencial y costoso y por depender
también del sistema implícito).

Cabe señalar que ya Evans en 1984 propone una distinción entre procesos heurísticos y analíticos.
Con esta distinción intentaba delimitar dos tipos de funciones en el razonamiento:
• Los procesos heurísticos tendrían como función la selección de la información relevante.
• Los procesos analíticos operarían sobre la información que ha sido seleccionada.

Esta distinción puede considerarse como un intento de preservar la noción de competencia lógica
en los procesos analíticos. De acuerdo con su nueva formulación, el componente heurístico se
caracteriza por el procesamiento implícito y el componente analítico por el explícito. La

XOSÉ VALES. CURSO 2019/2020 26


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

racionalidad2 sigue garantizando que los sujetos tengan competencia tanto deductiva como
inductiva, pero limitada. La polémica entonces se centra en determinar si esta competencia se ajusta
a un modelo de reglas de inferencia, que podría coexistir con restricciones de tipo pragmático
(Braine y O'Brien, 1991; Cheng y Holyoak, 1985; Rips, 1994), o con la teoría de los modelos mentales
(Johnson-Laird, 1983; Johnson-Laird y Byrne, 1991). Reconociendo que no resulta fácil discernir
entre ambos enfoques, puesto que ambos parten de supuestos demasiado imprecisos como para
permitir una contrastación experimental que claramente apoye o refute los aspectos teóricos
esenciales que defienden, Evans se inclina por la teoría de los modelos mentales. Sostiene Evans
que esta teoría puede constituir una teoría del razonamiento en general, tanto deductivo como
inductivo, y que el metaprincipio semántico de validez tiene mayor realidad psicológica.

Ahora bien, cabe señalar que estas dos propuestas de compromiso no son una panacea, sino que
conllevan varios problemas. A continuación, algunas de las críticas de las que ha sido objeto y
algunos de los problemas que plantea en su formulación la propuesta de Evans. Considérese que la
mayoría de estas críticas y los problemas que vienen señalados se aplicarían igualmente a la
propuesta de Sloman, que comparte con Evans un sistema de procesamiento conexionista y otro
sistema analítico, pero basado en reglas.

Por una parte, se sostiene que la teoría de los modelos mentales no está exenta de problemas como
para que claramente se pueda optar por ella y que tanto esta teoría como la basada en reglas
podrían ser valiosas para explicar el razonamiento de distintos sujetos o del mismo sujeto en
distintas situaciones (George, 1997). Por otro lado, también se critica la distinción entre los dos tipos
de racionalidades considerando que la racionalidad 2 no aporta, ni ha aportado buenos modelos de
razonamiento (Gigerenzer, 1996). Esta última postura se encuentra más cercana al concepto de
racionalidad1 y propone seguir investigando los procesos de razonamiento en su interacción con el
mundo real, puesto que los resultados experimentales subrayan que el razonamiento no ocurre
aisladamente, sino que depende del contenido, el contexto y las metas del sujeto. También se
defiende que no hay dos tipos de racionalidad, sino un solo sistema de razonamiento que puede
ajustarse al modelo normativo si las circunstancias pragmáticas son adecuadas (Noveck, 1997;
Sperber, Cara y Girotto, 1995).

Un problema general de importancia es la falta de especificación de ambos sistemas:


• Como ya se ha señalado anteriormente, sigue existiendo polémica con respecto al modelo
normativo del sistema explícito (racionalidad2).
• Tampoco hay una especificación del procesamiento implícito, ni un criterio para establecer
el grado de eficacia que se espera del sistema implícito (racionalidad 1; por ejemplo, si el
sistema no alcance las metas, ¿se podría decir que es irracional?).
• La limitación entre ambos sistemas es difusa: puede haber metas que el sistema explícito se
proponga alcanzar y puede haber inferencias conforme a un modelo normativo que sean
implícitas.
• No se concreta la interacción entre ambos sistemas, ni se determinan las circunstancias que
ponen en marcha un sistema frente a otro.

XOSÉ VALES. CURSO 2019/2020 27


CAPÍTULO 2. PSICOLOGÍA DEL RAZONAMIENTO

• Considerando lo dicho anteriormente, seguimos con una concepción circular del


razonamiento: si los sujetos resuelven correctamente la tarea de acuerdo con el modelo
normativo elegido, entonces es razonamiento explícito o es razonamiento implícito si
consideremos que el sujeto tiene experiencia con el problema como para que se haya
automatizado lo que en su día fue razonamiento explícito. Si se equivoca, pero hay metas
personales que pueden dar cuenta de sus respuestas, entonces es razonamiento implícito o
tal vez, es razonamiento explícito, pero con problemas en la memoria de trabajo. En
definitiva, seguimos con los mismos problemas encontrados por Henle al proponer una teoría
de razonamiento en la que se integran los procesos de inferencia y los de interpretación y
para la que hace falta una especificación más concreta de los dos procesos y sobre todo de la
interacción entre ambos. Ahora bien, cabe señalar que la tesis de la coexistencia de ambos
procesos reconoce e integra la naturaleza convincente y el atractivo intuitivo de los principios
de la racionalidad a la vez que admite su violación sistemática (Osherson, 1990).

Versión web Autoevaluación

XOSÉ VALES. CURSO 2019/2020 28


Capítulo 3. INDUCCIÓN CATEGÓRICA

REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA,
I. (2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
• Aclaraciones ED (Alf)
CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

1. INTRODUCCIÓN
La “inducción categórica” constituye uno de los procesos básicos del funcionamiento cognitivo por
medio del cual las personas reconocen y clasifican su entorno de clases. Estas categorías se
consideran los cimientos o estructuras a partir de las cuales vamos a poder seguir clasificando,
interpretando, generando inferencias y comunicándonos con todos aquellos que compartan una
estructuración categórica en común.

Entre las varias funciones de la inducción categórica, hay dos que son fundamentales para las
diferentes perspectivas teóricas que existen sobre el tema:
• El ahorro cognitivo que supone la agrupación de las experiencias particulares en clases.
• La posibilidad que ofrece la pertenencia categórica de inferir más información que la que
haya sido presentada en una situación determinada.

Los sujetos extraen aquello que puede ser común a un conjunto de objetos o situaciones. Por
ejemplo, todas nuestras experiencias con los partidos políticos conservadores (Partido Popular, Cs,
VOX, Falange Española, …) agrupando las experiencias bajo la categoría de “partido político
conservador”. La categorización dentro del paradigma de la inferencia inductiva es lo que permite
agrupar las experiencias particulares en una clase general. Además, permite aplicar a un nuevo
ejemplar de la categoría, información conocida sobre lo que previamente ya ha sido agrupado.
Encontrándonos con un nuevo ejemplar categorizado como “partido político conservador”,
podemos generarle unas expectativas sobre este objeto, sin necesidad de comprobarlo, como por
ejemplo que pretendan privatizar la sanidad pública, la educación pública, restringir el derecho al
aborto, o etc.

2. LA ESTRUCTURACIÓN CONCEPTUAL
En la inducción categórica se resalta el papel que desempeña el conocimiento que se tiene sobre
las propiedades de los ejemplares, de modo que la descripción de estas propiedades permite
averiguar cómo los ejemplares se agrupan en clases. De esta forma encontramos que las categorías
se han definido por sus propiedades y sus reglas de formación se refieren a las relaciones que se
establecen entre estas propiedades.

2.1. ENFOQUE DE LAS PROPIEDADES DEFINITORIAS


El enfoque tradicional en el estudio de la organización categórica considera que ésta se define por
un conjunto de propiedades que son individualmente necesarias y en su conjunto suficientes. Cabe
señalar que se ha optado por considerar concepto y categoría como sinónimos. Una propiedad es
necesaria si está presente en cada uno de los ejemplares (tener alas si es un ave), y un conjunto de
propiedades es suficiente si cada ejemplar que presente dicho conjunto pertenece al concepto o
categoría en cuestión. Un ejemplar pertenece a una categoría si presenta este conjunto de
propiedades y su pertenencia será de todo o nada.
Un ejemplo clásico es el concepto de “soltero”. Está formado por tres propiedades: ser varón, adulto
y no estar casado (cuando se habla de una propiedad estamos haciendo referencia a un predicado,
“ser varón”; al hablar de atributo nos referimos al término genérico de esa propiedad, “sexo” y al
hablar del valor hacemos referencia a la especificación de ese atributo, en este caso “varón”).

XOSÉ VALES. CURSO 2019/2020 1


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

Desde este enfoque se entiende que cada una de estas propiedades es por sí sola necesaria, aunque
no suficiente Un niño no es un soltero, aunque sea varón y no esté casado. Ahora bien,
conjuntamente estas tres propiedades indicadas, sí son suficientes para ser soltero. Estas
propiedades se denominan definitorias porque constituyen colectivamente una definición del
concepto y de acuerdo con este enfoque, que se conoce como enfoque clásico, un objeto es
miembro de una categoría si y sólo si presenta el conjunto de propiedades que lo definen.

Las principales teorías psicológicas hasta principios de los 70 compartían los supuestos del enfoque
clásico (Bourne, Ekstrand y Dominowski, 1971; Bruner, Goodnow y Austin, 1956). Pronto
aparecieron resultados experimentales que subrayaban la falta de especificación de las propiedades
definitorias de algunos conceptos. No había una definición consensuada que agrupara al conjunto
de propiedades individualmente necesarias y conjuntamente suficientes para los conceptos
“naturales”, además muchas veces no podían establecer los límites entre un concepto y otro tan
claramente como cabría esperar; los conceptos no se ajustaban fácilmente a una representación por
definiciones. El problema de este enfoque es que es demasiado restrictivo como para poder incluir
a las excepciones y a los ejemplares con demarcaciones imprecisas. Si este problema se intenta
resolver con una definición más general, entonces la categoría pierde poder discriminatorio,
convirtiéndose posiblemente en un cajón de sastre donde todo cabe.

En investigaciones de Rosch (1975, 1978), se encuentra que algunos ejemplares e consideraban más
típicos o más representativos del concepto que otros: “Petirrojo”, era miembro más típico de
categoría “ave”, que una “Gallina”, poniendo de manifiesto que no todos los ejemplares de una
categoría eran iguales, aunque la igualdad era lo esperado de acuerdo con las propiedades
definitorias. Además, estos efectos de tipicidad permitían predecir el comportamiento en una
amplia variedad de tareas.

2.2. ENFOQUE DE LAS PROPIEDADES PROBABILÍSTICAS


Las deficiencias del enfoque clásico dan lugar a una nueva perspectiva sobre la reestructuración
conceptual denominada “enfoque probabilístico”. Esta nueva perspectiva asume que los conceptos
no están constituidos por propiedades definitorias, sino que las propiedades más comunes o típicas
de un concepto ocurren sólo en determinados ejemplares. El conjunto de estas propiedades recibe
el nombre de prototipo y describe sólo a los mejores ejemplares del concepto, p. ej., Messi es un
prototipo de Futbolista. El contenido del concepto es su prototipo, que es la tendencia central de
las propiedades de sus ejemplares, reflejando la estructura redundante de la categoría como un
todo (Posner y Keele, 1968). Otros enfoques probabilísticos también incluyen la varianza entre estas
propiedades (Fried y Holyoak, 1984), o consideran que se representan las frecuencias de estas
propiedades o una combinación de estas (Reitman y Bower, 1973).

Este enfoque ofrece una explicación de la estructura conceptual en niveles jerárquicos:


• Nivel supraordenado. Grado más alto de generalidad, en las que sus ejemplares se parecen
poco entre sí. p. ej., la categoría futbolista y sus ejemplares, nada que ver un futbolista de
Champions League, con una futbolista de la primera división femenina.

XOSÉ VALES. CURSO 2019/2020 2


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

• Nivel básico. Las categorías de nivel básico reflejan la estructura correlacional del medio y
corresponden estrechamente a los objetos del mundo. Estas desempeñan un papel central
en el sistema cognitivo porque sus ejemplares corresponden a los objetos de nuestra
experiencia cotidiana. Las personas extraen los prototipos (p. ej. Messi) de una categoría a
partir de los ejemplares de esa categoría, p. ej., jugadores del FC Barcelona.
• Nivel subordinado: es el más concreto en las que sus ejemplares tienen un alto grado de
parecido entre sí, p. ej., Piqué, Arthur, Frenkie de Jong, Sergio Busquets, etc…

Malt y Smith (1984) presentan los resultados de puntuaciones de tipicidad que se obtuvo cuando
los sujetos evaluaban en una escala de 1 a 7 varios ejemplares de los conceptos fruta y ave. Como
se puede ver en ambos listados, existen variaciones importantes en las puntuaciones de tipicidad
de los distintos ejemplares. Por ejemplo, los resultados mostraron que la manzana se considera la
fruta más típica, mientras que la calabaza es la menos típica. En la categoría de aves también
podemos observar variaciones similares y en las investigaciones sobre este tema son abundantes
los resultados semejantes a éstos.

Resultados de este tipo fueron los que cuestionaron la adecuación del enfoque clásico al poner de
manifiesto que no todos los ejemplares eran equivalentes en cuanto a su pertenencia categórica.
Los datos del estudio de Malt y Smith (1984) también ponen de manifiesto que los efectos de
tipicidad parecen deberse a las propiedades no necesarias, cuestionando también en este punto la
viabilidad del enfoque clásico de la categorización. En la Tabla 3.2. se presentan diez ejemplos en
orden decreciente de tipicidad con algunas de las propiedades que dieron los sujetos para los
ejemplares que se les presentaron. A cada propiedad se le asigna una puntuación que es igual al
número de ejemplares que presenta esa propiedad. Según Rosch y Mervis (1975), la suma de estas
puntuaciones constituye su puntuación de parecido familiar.

XOSÉ VALES. CURSO 2019/2020 3


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

El parecido familiar es una medida directa de la frecuencia de las propiedades del concepto siendo
los ejemplares con las puntuaciones más altas en parecido familiar, los que comparten el mayor
número de propiedades con los de su categoría, y el menor con los miembros de otras. El parecido
familiar es una medida indirecta de la semejanza de un ejemplar con respecto a los otros miembros
de la categoría. El parecido familiar también se encuentra correlacionando con la tipicidad, los más
típicos presentan las puntuaciones más altas. El orden de los ejemplares parece deberse a las
propiedades no necesarias, pues la propiedad necesaria “tener plumas”, contribuye de la misma
forma en cada uno de los ejemplares.

La tipicidad de un ejemplar es una medida de la semejanza entre dicho ejemplar y su prototipo. Los
miembros se relacionan por su parecido familiar y no por un conjunto de propiedades definitorias.
Por parecido familiar se entiende la semejanza media de un ejemplar con respecto a otros miembros
de la categoría y la desemejanza media con respecto a los miembros de otras categorías de
contraste. Así, la estructura interna del concepto no es homogénea, ya que los miembros se ordenan
según la graduación de tipicidad. El parecido familiar es la base de la graduación de tipicidad y una
categoría se define por el parecido familiar entre sus miembros.

Sin embargo, también tiene este enfoque críticas. Los resultados sobre los efectos de tipicidad
dependen del criterio de semejanza, de las categorías particulares que se han elegido y de los
ejemplares que se han puesto a prueba. P. ej., dos ejemplares de dos categorías diferentes, tales
como una naranja y una pelota de tenis, son más semejantes entre sí con respecto a la forma que
dos ejemplares de una misma categoría, tales como una naranja y un plátano.

Roth y Shoben (1983), encontraron que el prototipo puede ser muy diferente en función del
contexto. El prototipo de aves varía en función de los siguientes contextos: “El pájaro voló sobre el
mar (Gaviota)” o “el cazador disparó a ese pájaro (una perdiz)”. Así, aunque la propuesta de unas
propiedades prototípicas es sumamente útil y descriptiva de la categorización humana, no es

XOSÉ VALES. CURSO 2019/2020 4


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

suficientemente flexible como para explicar la sensibilidad que muestran los sujetos a la variabilidad
tanto de los ejemplares como de las propiedades constituyentes de la categoría.

Una postura conciliadora es la de los Modelos mixtos al proponer que los sujetos cuentan con
ambos tipos de propiedades, pues en determinados casos recurren a las propiedades definitorias o
diagnósticas (Smith y Medin, 1981). Teniendo en cuenta las prototípicas que son más accesibles,
éstas se utilizan para la categorización y se recurre a las diagnósticas sólo en casos especiales, como
cuando hay que arbitrar en categoriza dudosa. De este modo se entiende que el prototipo puede
considerarse como un heurístico por medio del cual se utilizan las propiedades no necesarias y se
recurre a las propiedades diagnósticas sólo en casos muy determinados, como p. ej., cuando se ha
de categorizar una ballena como un mamífero. Algunos autores como Armstrong, Gleitman y
Gleitman (1983), sostienen que las propiedades diagnósticas no tienen que ser necesariamente
definiciones, es decir, no tienen que ser fijas e inamovibles.

2.3. ENFOQUE DE LOS EJEMPLARES


Parece natural pensar que un concepto es una versión resumida de las propiedades de los
ejemplares, también se ha propuesto que un concepto está constituido por el conjunto de sus
ejemplares una abstracción, pero se propone que un concepto está constituido por el conjunto de
sus ejemplares (Brooks,1978). La tipicidad de un ejemplar se determina por su semejanza con los
otros ejemplares y la categorización consiste en evaluar si un objeto presenta algún nivel crítico de
semejanza con los mejores ejemplares.

Este enfoque parece contradecir la idea de ahorro cognitivo. No obstante, se indica que aún en el
supuesto de que el sistema pudiera almacenar todos los ejemplares, en la categorización sólo se
seleccionan algunos, los más típicos. La idea central de este enfoque es que no es necesario asumir
un único prototipo con el que se comparen los ejemplares, sino que la categorización será en función
de la semejanza entre el ejemplar y todos los miembros de la categoría.

Una de las ventajas del enfoque de los ejemplares es que no asume una única representación del
concepto. Se pueden utilizar varias representaciones dependiendo del criterio de semejanza y de
los ejemplares representados. Esto permite, por una parte, explicar los resultados obtenidos con los
prototipos al considerar que esta representación mantiene el criterio de mayor semejanza dentro
de un conjunto de ejemplares, y, por otro lado, también puede dar cuenta de la sensibilidad que
muestran los sujetos ante otro tipo de información, como p. ej., las correlaciones entre propiedades,
el rango de la propiedad y el contexto. Al no asumir una representación abstracta del concepto, sino
unas representaciones concretas de los ejemplares, se dota a la categorización de una enorme
flexibilidad utilizando y relacionando toda la información representada según los objetivos
planteados en cada situación.

Barsalou (1983,1985) pone de manifiesto que la categorización también ha de ser flexible para
explicar la agrupación temporal de unas propiedades. Algunos conceptos se generan sólo en un
contexto muy determinado. P. ej., si se pide a un sujeto que enumere aquellos objetos de su casa
que salvaría de un incendio, seguramente salvaría las cosas más valiosas que pudiera transportar:

XOSÉ VALES. CURSO 2019/2020 5


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

joyas, dinero, documentos, etc., que en este contexto formarían temporalmente una nueva
categoría. Estos conceptos, que Barsalou denomina “dirigidos por metas” también pueden
presentar efectos de tipicidad, aunque la base de estos efectos es cualitativamente distinta. En este
caso el parecido familiar no predice la tipicidad, sino que esta se encuentra determinada por el peso
de las propiedades en el contexto en el que ocurren.

Los resultados de estos estudios ponen de manifiesto que la inducción categórica es un proceso
muy flexible en el que es necesario explicar tanto la estabilidad como inestabilidad de las categorías.
Las críticas se centran en la necesidad de contemplar las generalizaciones que se producen durante
el aprendizaje y la necesidad de especificar el criterio de coherencia interna que limite el ámbito de
la categorización1. También se han propuesto modelos mixtos en los que el enfoque de los
ejemplares se complementa con algún nivel de abstracción que se corresponde con el prototipo
(Medin, Altom y Murphy, 1984; Smith y Minda, 2000) o modelos que dan cuenta de cómo puede
surgir la abstracción a partir de la representación de los ejemplares (Nosofsky, 1986; Kruschke,
1992). El problema que aquí se plantea es poder identificar cuáles son las restricciones que se
imponen sobre este proceso como para permitir que el sistema manifieste en todo momento un
comportamiento coherente a la hora de categorizar el mundo, en el sentido amplio del término
(físico, socioeconómico, cultural, histórico, etc.).

3. LA COMBINACIÓN DE CONCEPTOS
Hasta ahora hemos tratado el proceso de categorización como si sólo estuviera centrado en
conceptos individuales y, sin embargo, nuestra experiencia cotidiana pone de manifiesto que la
información conceptual también se combina para producir otros conceptos, como, por ejemplo,
sofá cama (dos sustantivos), sangre azul (sustantivo y adjetivo) y mujer muy alta (sustantivo,
adverbio y adjetivo). Esta capacidad para la formación, en principio infinita, de conceptos complejos
a partir de una base conceptual finita se conoce como la composicionalidad del pensamiento.

3.1. MODELO DE MODIFICACIÓN SELECTIVA


Osherson y Smith (1981), abordaron la problemática del cómputo de la tipicidad de los conceptos
compuestos a partir de los conceptos prototípicos que lo constituyen. Los partidarios de la Teoría
del prototipo asumían que ésta podía formalizarse por medio de la teoría de los conjuntos difusos
(Zadeh, 1965) y para la explicación de la combinación conceptual se basaban en que el juicio de
tipicidad sobre un concepto compuesto no podía ser mayor que la tipicidad de sus conceptos
simples. Esta teoría asume que el significado de un concepto representado por una palabra se
corresponde con el conjunto de ejemplares denotados por esa palabra. El significado del concepto
“sofá” se refiere al conjunto de todos los sofás y el concepto “cama” se refiere al conjunto de todas
las camas. El resultado de la combinación de ambos conceptos es la intersección de ambos
conjuntos. Esta teoría también permite calcular el grado de pertenencia categórica de un ejemplar

1 “Las críticas al enfoque de los ejemplares que vienen recogidas en esta página se refieren a la falta de estabilidad y límites de la categoría.

Recuerde que en este enfoque no hay una representación abstracta de la categoría, sino que la categoría se formará en el momento mismo de
la recuperación de la representación de los ejemplares particulares. Por eso se dice que este enfoque no explica las generalizaciones que, por
ejemplo, se producen en el aprendizaje. Además, como no hay límites establecidos cualquier categoría es posible en función de los objetivos que
tengamos y parece que no hay criterios para delimitar la pertenencia de los ejemplares a una categoría. Por eso se dice que este enfoque adolece
de unos límites o restricciones que puedan explicar un patrón de comportamiento estable y coherente en el proceso de categorización”. ED

XOSÉ VALES. CURSO 2019/2020 6


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

por medio de la función CA : U -> [0,1] la cual expresa


el grado en un intervalo de entre 0 y 1, en que un
ejemplar X de un Universo de discurso (U) pertenece
al conjunto difuso A. Para el caso de la conjunción de
dos conjuntos A y B, CAꓥB´ , se establece que el valor
de la pertenencia categórica de un concepto
compuesto X es el mínimo de sus valores de
pertenencia a sus dos conjuntos constituyentes: CAꓥB
(x) = valor mínimo de [CA (x), CB (x)]. P. ej., podríamos
haber obtenido el valor de pertenencia de 0,75 en el
conjunto de “sofá” y un valor de pertenencia de 0,40
en el conjunto de “cama”. Aplicando la regla
obtendríamos para el concepto compuesto un valor
de pertenencia categórica de 0,40 (valor mínimo de
(0,75.0,40) = 0,40]

Sin embargo, Osherson y Smith, encuentran que las


predicciones de la teoría de los conjuntos difusos no
se cumplían en los juicios de tipicidad sobre la
conjunción de conceptos y proponen un modelo que
denominan Modelo de modificación selectiva para
poder explicar el proceso de combinación conceptual dentro del marco teórico de los prototipos
(Smith, Osherson, Rips y Keane, 1988). Su desarrollo fue debido a querer explicar algunos resultados
experimentales sobre los juicios de tipicidad de conceptos compuestos por la combinación
sustantivo-adjetivo. En concreto, se encontró que los sujetos consideraban que la tipicidad de un
concepto compuesto era mayor que la de algunos de los conceptos simples que lo constituían. P.
ej., Si se pedía a un sujeto que evaluara la tipicidad de un ejemplar particular de “sangre roja” se
encontraba que la tipicidad de este ejemplar era mayor para el concepto compuesto «sangre roja»
que para el concepto simple «sangre». También se encontró que estos juicios de tipicidad eran
mayores cuando los conceptos compuestos reunían conjunciones incompatibles como «sangre
azul», en las que los adjetivos denotan un valor poco frecuente. P. ej., el grado de tipicidad de un
ejemplar de «Sangre azul» para el concepto «sangre azul» frente al concepto simple «sangre» era
mayor que la tipicidad de un ejemplar de «Sangre roja» para el concepto «sangre roja» frente al
concepto simple (sangre). Además, cuando se pedía que se evaluara la tipicidad de un ejemplar
compuesto que no pertenecía a esa categoría, por ejemplo, un ejemplar como «sangre roja» para
el concepto «sangre azul», se encontraba que la tipicidad era menor para el caso del concepto
compuesto (sangre azul) que para el concepto simple (sangre). Estos resultados se conocen como
el “efecto de la conjunción”2.

2 “La idea central de este punto es que los conceptos compuestos puntúan más alto en tipicidad que los simples y esto se conoce como el efecto
de la conjunción. En el manual se comenta, en primer lugar, este resultado con el concepto compuesto compatible “sangre roja”. Cuando se pide
que se evalúe la tipicidad de un ejemplar de sangre roja en la categoría sangre se encuentra que el concepto compuesto compatible "sangre roja"
puntúa más que el concepto simple "sangre". En el texto y en el primer recuadro de la Figura 3.2 se ilustra este resultado como sangre roja >
sangre. A continuación, se explica que este efecto también ocurre con los conceptos compuestos incompatibles como sangre azul. En primer
lugar, se comenta el resultado de una tarea equiparable a la anterior: evaluar la tipicidad de un ejemplar, en este caso, de sangre azul en la

XOSÉ VALES. CURSO 2019/2020 7


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

El Modelo de modificación selectiva parte de una


representación prototípica conforme a una
estructuración conceptual en la que se incluyen
los atributos (p. ej., Color) con pesos diagnósticos
y los valores de estos atributos (p. ej., rojo) se
encuentran ponderados con respecto a su
prominencia. P. ej., el atributo color para el
concepto sangre tendría el valor de rojo que será
más prominente comparado con otros valores
como el estado líquido. Además, el atributo color
tendría para el concepto sangre un valor
diagnóstico alto que permitiría diferenciarlo de
otros fluidos corporales.

Cada constituyente del concepto compuesto


desempaña una papel distinto y asimétrico, y
éste no puede explicarse por la simple
intersección de las propiedades de sus conceptos
constituyentes. La combinación entre “sofá” y
“cama” no es igual en “sofá cama” que en “cama
sofá”. El proceso de modificación selectiva parte
de la identificación del concepto que desempeña
la función de sustantivo como marco conceptual
sobre el que se va a operar y del concepto que
desempeña la función de adjetivo como aquello
que opera o modifica.

Para determinar el cómputo de tipicidad de un


ejemplar se utiliza la regla de contraste de
Tversky 1977, que calcula la semejanza
mediante el contraste entre las propiedades
comunes y no compartidas entre ejemplar y
prototipo. La semejanza es una función creciente
de las propiedades que son comunes al prototipo
y al ejemplar, y una función decreciente de las propiedades no compartidas entre ambos. P. ej., al
evaluar un ejemplar correspondiente “sangre roja” encontramos que éste es más típico del
concepto “sangre roja” que de “sangre” porque el atributo color rojo ha incrementado su valor y

categoría sangre. En el texto y en el segundo recuadro de la Figura 3.2 se ilustra en primer lugar este resultado como sangre azul > sangre. En
segundo lugar, se vuelve a repetir el resultado ya comentado en el primer recuadro: evaluación de la tipicidad de un ejemplar de sangre roja en
la categoría sangre, sangre roja > sangre. En tercer lugar, se comparan ambas evaluaciones para indicar que la tipicidad de sangre azul es mayor
que la de sangre roja cuando ambas se evalúan en la categoría sangre: [sangre azul > sangre] > [sangre roja > sangre]. Finalmente, y en cuarto
lugar se comenta que en una tarea en la que se pide evaluar la tipicidad de un ejemplar de sangre roja (conjunción compatible) en la categoría
sangre azul (conjunción incompatible) se encuentra lo contrario: sangre azul < sangre. En este último caso se observa que cuando se evalúa la
tipicidad de un ejemplar compuesto que no pertenece a esa categoría (un ejemplar de "sangre roja" para el concepto "sangre azul") se encuentra
que puntúa más baja la conjunción incompatible que el concepto simple (sangre azul menor que sangre).” ED

XOSÉ VALES. CURSO 2019/2020 8


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

prominencia en el concepto compuesto. El color cambia su ponderación en función del valor rojo o
azul, pues el compuesto compatible “sangre roja” es más semejante al concepto simple “sangre”
que comparte el valor rojo que al concepto incompatible “sangre azul”, pero las conjunciones
incompatibles como “sangre azul” parecen ser más típicas que las conjunciones “sangre roja”
porque en este caso se ha ponderado el valor azul y la diagnosticidad 3 del atributo color ha
aumentado.

El modelo de modificación selectiva ofrece un procedimiento concreto y especificado para el cálculo


de la tipicidad de los conceptos compuestos y es además muy simple y limitado pues está diseñado
para conceptos compuestos con sintaxis: sustantivo-adjetivo. Otra limitación es que trata adjetivos
simples y que presumiblemente sólo afectan a una propiedad del prototipo, pero hay adjetivos más
complejos pues algunos simples como el color puede relacionarse con otros, como color verde con
el grado de acidez. Estas relaciones entre las propiedades forman parte del prototipo y el cambio en
el valor de un atributo también modifica al resto de los atributos relacionados.

3.2. MODELO DE ESPECIALIZACIÓN CONCEPTUAL


El modelo de especialización conceptual 4 de Cohen y Murphy (1984) asume que los conceptos
simples se encuentran representados por esquemas que estructuran el conocimiento con variables
y valores. En el caso de los compuestos hay un concepto principal y otro que lo modifica, dando
especialización detallada de los valores del concepto principal. Hasta aquí el Modelo de modificación
selectiva y el modelo de especialización conceptual son semejantes. Ambos asumen representación
asimétrica en la combinación conceptual. La diferencia entre ambos radica en que para el modelo
de especialización conceptual este proceso no es posible sin antes acceder a la base de
conocimientos que tiene el sujeto.

Antes de iniciar el proceso de categorizar se tiene que consultar la base de conocimientos para
decidir cuál variable es la más apropiada y una vez hecha la especialización se debe ampliar y refinar
el nuevo concepto con el fin de que sea coherente y completo (Murphy, 1988). En el ejemplo de
“sangre azul”, podemos ver ahora cómo el valor “azul” para el atributo color se pondera en
prominencia y diagnósticidad y se tiene que poner en relación con el conocimiento que tenemos

3 “Los conceptos de diagnosticidad y prominencia explican por qué se dan estos resultados. El valor diagnóstico indica en qué medida esa
propiedad define al concepto y el valor de la prominencia indica en qué medida esta propiedad sobresale entre las demás. Los conceptos
compuestos “sangre roja” y sangre azul” se consideran más típicos que el concepto simple “sangre” porque el atributo color (rojo o azul)
incrementa su prominencia en el concepto compuesto. Además, la conjunción incompatible “sangre azul” se considera más típica que la
conjunción compatible “sangre roja” porque la diagnosticidad del color azul es más alta que la del color rojo. En el caso del concepto compuesto
"sangre azul", que es un concepto metafórico para hacer referencia al linaje, el color azul tiene mayor valor diagnóstico. El concepto de
"diagnosticidad" se refiere al peso que tienen algunos atributos (por ejemplo, color) en la conformación de un concepto prototípico”. ED
4 “El modelo de especialización conceptual intenta paliar algunas de las críticas que se habían hecho al modelo de modificación selectiva. Por

ejemplo, que el cambio en un atributo (el color) no modificaba al sustantivo solamente en relación a esa información. Como se ha visto, el cambio
en un atributo como color en ejemplos como sangre azul o manzana verde no solo pondera en prominencia y diagnosticidad, sino que además
evoca a otros conceptos o conocimientos del sujeto. En el caso de sangre azul se relaciona con el uso metafórico del término y en el caso de
manzana verde con el grado de acidez o el tipo de manzana. Por eso se dice que el modelo de especialización conceptual recurre al conocimiento
que tenemos almacenado y al encontrar el concepto metafórico “sangre azul”, entonces decide cuál variable es la más importante para hacer la
combinación conceptual. En este caso no se están combinando conceptos naturales como la sangre o la fruta, sino conceptos metafóricos que se
tienen que poner en coherencia con nuestro lenguaje figurativo. Ambos modelos son semejantes porque asumen una representación asimétrica:
uno de los conceptos es el principal y el otro lo modifica. La diferencia se encuentra en que el modelo de especialización conceptual establece que
antes de iniciar el proceso de la combinación conceptual se acude a nuestra base de conocimientos”. ED

XOSÉ VALES. CURSO 2019/2020 9


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

sobre el lenguaje figurado (linaje noble). Se puede decir que el Modelo de modificación selectiva
forma parte del modelo de especialización conceptual pues comparten aspectos muy semejantes.
El primer modelo aporta un procedimiento detallado para el cómputo de los conceptos compuestos
y el segundo ofrece un marco teórico mucho más amplio en el que explicar la riqueza de la
representación conceptual. Sin embargo, los aspectos específicos del primero marcan sus propias
limitaciones y la riqueza conceptual contemplada por el segundo aún no se ha hecho explícita como
procedimiento computacional bien delimitado.

3.3. MODELO HÍBRIDO DE EJEMPLARES Y TEORÍAS PREVIAS


Medin y Shoben (1988), proponen un modelo híbrido5 que conjuga la representación de ejemplares
y el conocimiento del mundo. Es propuesta inespecífica que contempla aspectos centrales del
proceso de combinación conceptual. Los autores manifiestan a través de sus resultados
experimentales algunas de las insuficiencias del modelo de modificación selectiva y la necesidad de
una teoría de la estructuración conceptual más completa y con mayor capacidad de cómputo.

Según este enfoque, los conceptos tienen una estructuración interna rica en el número de relaciones
que se establecen entre sus propiedades y esto es una limitación para el modelo de modificación
selectiva (asume que las propiedades son independientes y que el cambio en una de ellas no afecta
al resto.

Los resultados experimentales de Medin y Shoben pusieron de manifiesto que el cambio en el valor
de una de las propiedades del concepto provocaba también el cambio en los valores de las
propiedades relacionadas. P. ej., en el caso de evaluar la tipicidad de una “cuchara de madera” y
una “cuchara de metal”, los sujetos consideraban que la “cuchara de metal” era más típica del
concepto simple “cuchara” que la “cuchara de madera”, pero la “cuchara de metal” era menos
típica del concepto “cuchara grande” que la “cuchara de madera”. De acuerdo con el modelo de
modificación selectiva, la diferencia entre “cuchara de metal” y “cuchara de madera” con respecto
al concepto simple “cuchara” está en los pesos de la dimensión tipo de material. Se encontró que
había una interacción entre las dimensiones tipo de material y tamaño y que ésta se reflejaba en los
juicios de tipicidad.

Con respecto al contexto, los autores encontraron que el patrón de semejanza variaba en función
del sustantivo sobre el que se aplicaban los adjetivos: Los mismos adjetivos, negro, gris y blanco,
aplicados a conceptos distintos, como “nube” y “pelo”, los sujetos consideraban blanco y gris más
semejantes para pelo, y negro y gris semejantes para nube. Igual que la propiedad de “ser curva”
era diferente si se trataba de un plátano que si era un boomerang. Un “plátano no curvo” era más
típico de “plátano” que un “boomerang no curvo” de “boomerang”. En general, estos resultados

5 “Eneste modelo lo que se pone en evidencia es que el patrón de semejanza cambia según se cambia el valor de una de las propiedades. Es decir,
aunque siempre se trate de la combinación sustantivo-adjetivo y la variación del adjetivo sea sobre un mismo atributo (tipo de metal), las
personas consideran más semejantes entre sí algunas combinaciones que otras. Así, si tenemos dos conceptos como “cuchara de metal “y cuchara
de madera”, los resultados mostraron que una "cuchara de metal" se consideraba más típica del concepto “cuchara” que una “cuchara de
madera”. De acuerdo con estas valoraciones, se esperaría que al introducir la dimensión tamaño no hubiera cambios porque el tamaño ya estaba
contemplado por defecto en dicha valoración. Sin embargo, las personas consideraban que “cuchara de metal” es menos típica del concepto
“cuchara grande” que una “cuchara de madera”. Lo que estos resultados muestran es que la modificación de una propiedad (en este caso, el
tamaño) afecta o reestructura todo el concepto y no solo a una dimensión del mismo”. ED

XOSÉ VALES. CURSO 2019/2020 10


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

mostraban que en la estructuración conceptual había algo más que el cómputo de pesos en las
distintas propiedades y que posiblemente toda la información sobre las relaciones entre estas
propiedades no se encuentre directamente representada con el concepto, sino que puede ser
procesada según se necesite.

3.4. MODELO DE ESPECIALIZACIÓN CONCEPTUAL AMPLIADO


Wisniewski (1997), presenta un análisis bastante exhaustivo sobre combinación conceptual
“sustantivo-sustantivo” e identifica tres tipos básicos de combinaciones:
• Relación entre el concepto base y el concepto que lo modifica (perro policía: perro adiestrado
para descubrir y perseguir aquello que desea capturar. En este caso se obtiene el nuevo
concepto compuesto, perro policía (perro adiestrado para ayudar a la policía en el
desempeño de sus funciones), por la relación que se establece entre ambos conceptos.
• Por una o más propiedades que se aplican sobre el concepto base (pez martillo: pez con forma
de martillo). El concepto compuesto tiene la propiedad del otro concepto, su forma...
• Por una combinación híbrida de los dos conceptos (aparta-hotel: una combinación de algunas
de las propiedades de hotel y apartamento o una conjunción de las propiedades de ambos
conceptos).

Las investigaciones se han centrado en las combinaciones que se generan por la relación entre el
concepto base y el concepto modificador. Se han llegado a identificar las relaciones básicas
mediante las que se pueden combinar los conceptos y se asume que la frecuencia con la que se ha
utilizado el concepto modificador y las relaciones básicas influyen sobre la interpretación de los
nuevos conceptos combinados. Otra perspectiva asume una representación por esquemas en la que
el concepto principal adopta la relación del concepto modificador, por ejemplo “pez martillo”,
adopta la variable “forma” de martillo.

Wisniewski (1997), amplía el modelo de especialización conceptual añadiendo los procesos de


comparación y construcción para los conceptos compuestos por propiedades y combinaciones
híbridas. Estos son semejantes a los propuestos por Gentner (1983; 1989) y Holyoak y Thagard
(1989) para explicar el razonamiento analógico y son necesarios para determinar las semejanzas y
diferencias entre el concepto base (pez) y el que lo modifica (martillo) e integrar la nueva
información del nuevo concepto. Las propiedades no se suman, sino que se crean produciendo un
cambio conceptual.

4. EL PROCESO DE CATEGORIZACIÓN
Una buena parte de las investigaciones se apoyan directa o indirectamente en la noción de
semejanza. En las propiedades prototípicas habíamos comentado que determinados ejemplares se
consideraban más típicos o más representativos que otros, y cómo la tipicidad de un ejemplar era
una medida de la semejanza del ejemplar con su prototipo. En el enfoque de los ejemplares se
rechaza la idea de un prototipo y se defiende la categorización como cómputo de la semejanza entre
los ejemplares, en lugar de una descripción unitaria de la clase como un todo. Este presenta la
ventaja de no restringir mediante una descripción abstracta los ejemplares que se agrupan en una
categoría. La semejanza parece ser aquello que hace que una categoría pueda aglutinar un conjunto

XOSÉ VALES. CURSO 2019/2020 11


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

de ejemplares. Sin embargo, la semejanza es un término escurridizo porque, aunque es cierto que
los miembros de una categoría parecen semejantes, esta explicación es en sí misma recursiva, ya
que sortea la explicación de por qué las cosas parecen semejantes.

Según Tversky (1977), la semejanza se define en función de las propiedades que son comunes y
distintivas en un conjunto de ejemplares, pero que se encuentran ponderadas en términos de su
saliencia. Depende de las ponderaciones de las propiedades, lo que nos permite explicar por qué la
ballena se agrupa a mamífero, a pesar del número de propiedades en común que posee con los
peces. El conocimiento teórico ha permitido ponderar diferencialmente unas propiedades frente a
otras, o como señalaban Armstrong y cols. (1983), se recurre a las propiedades diagnósticas para
arbitrar esta categorización.

Tversky demuestra cómo las ponderaciones varían en función del contexto y de la tarea
experimental, dando lugar a que no existe una respuesta unívoca a la pregunta de cuán semejante
es un objeto con respecto a otro. Una propiedad es aquello que por consenso se ha validado en una
muestra de sujetos. Sin embargo, la consideración del conjunto implícito de contraste y el nivel de
especificidad elegido determinan las propiedades que se incluyan en las listas de los sujetos. En otras
palabras, los sujetos enumeran no todo lo que conocen, sino las propiedades que en esa situación
parecen más relevantes. Estos cambios en las ponderaciones se podrían reflejar mediante los ajustes
que se van realizando sobre las propiedades, pero entonces la categorización se explicaría por estos
ajustes. Frente a este principio general, otros enfoques proponen que es el propio conocimiento
que tienen los sujetos y sus teorías ingenuas sobre el mundo lo que restringe la construcción y
organización categórica (Murphy y Medin, 1985; Keil, 1987). De esta forma se entiende que la
categorización no se da aisladamente sino que los conceptos se organizan circunscritos al
conocimiento estructurado o teorías ingenuas que tienen los sujetos y que les permite actuar
coherentemente. La categorización basada en el conocimiento organizado permite articular las
relaciones inter e intracategorías de modo que la estructuración conceptual no se reduzca a listas
de propiedades sino que se encuentre inmersa en un cuerpo de conocimientos con estructura y
coherencia.

Bajo este enfoque de una categorización guiada por el conocimiento podemos incluir aquellas
teorías que asumen una representación de la información en estructuras de conocimiento, tales
como los esquemas, los guiones, los marcos o los modelos mentales. Abelson (1981), consideraba
que los esquemas o guiones pueden equipararse a una categoría en la que también cabe el parecido
familiar entre diversos ejemplares. En contraposición al prototipo, un esquema no especifica los
valores de sus propiedades, sino que estas propiedades (variables) son genéricas y adoptan valores
en función del contexto. La idea del proceso de inducción categórica será distinta dependiendo del
tipo de estructura que se propaga para representar el conocimiento, por ejemplo, la aplicación de
reglas, la generación de modelos mentales, el emparejamiento de patrones, ...

Seguimos con el detalle de dos teorías sobre la inducción categórica que explican la flexibilidad de
este proceso:
• La inducción categórica como sistema de reglas distribuidas.

XOSÉ VALES. CURSO 2019/2020 12


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

• La inducción categórica como sistema de activación distribuida.

4.1. LA INDUCCIÓN CATEGÓRICA COMO SISTEMA DE REGLAS DISTRIBUIDAS


Al principio se comentó que de una de las fuentes más emblemáticas de la categorización es la
clasificación y organización de los ejemplares. Sin embargo, otros autores (Holland, Holyoak, Nisbett
y Thagard, 1986), indican que esta función puede que sea una derivación de una función todavía
más fundamental como es la generación de inferencias relevantes para una meta. Según este
enfoque, los aspectos relevantes del proceso de categorización pueden determinarse solo si se tiene
en cuenta la interacción entre las propiedades de los ejemplares y las situaciones causales 6 en las
que ocurren. El proceso que determina cuáles son los aspectos de los ejemplares que van a
ponderarse, tiene que basarse en una explicación de por qué ciertas propiedades asumen unos
valores y otros no lo hacen. Así se resuelve por la representación de la incidencia estadística de las
propiedades entendiéndose que la ponderación de las propiedades no es cuestión estática, sino
dependiente del contexto y de las metas del sistema.

El modelo que vamos a analizar se denomina esquemas de razonamiento pragmático (Holland,


Holyoak, Nisbett y Thagard, 1986) y está enmarcado dentro del paradigma de representación
simbólica. Los supuestos principales del modelo son los siguientes:
• El sistema de procesamiento se concibe como un aplicador de reglas en el que las
agrupaciones de reglas consolidadas se denominan esquemas.
• El procesamiento es paralelo y las reglas se encuentran distribuidas en varias estructuras de
forma que en un momento dado puedan ser complementarias o inhibitorias.
• Las restricciones impuestas sobre el mecanismo de procesamiento con el fin de que éste
puede efectuar la ponderación se encuentran determinadas por el propio sistema y el
contexto.

Este enfoque busca la combinación de dos aspectos clave:


• Flexibilidad del proceso de categorización. La flexibilidad es la ejecución en paralelo de un
conjunto de reglas. Aquellas que muestren ser efectivas serán ponderadas y aquellas que no
se modificarán o eliminarán.
• Organización. La organización se representa por las agrupaciones de reglas interrelacionadas
con condiciones o acciones que se solapan.

Estos aspectos procedimentales son comunes a los de los sistemas de producción de Newell y Simon
(1972) que se basan en el emparejamiento cíclico y la ejecución de reglas de condición-acción. La
actividad se puede describir en términos de un ciclo de tres pasos:
• El emparejamiento de los hechos y reglas para determinar cuáles satisfacen las condiciones.
• La selección de un subconjunto de las reglas emparejadas para que sean ejecutadas.
• La ejecución de las reglas seleccionadas para que lleven a cabo las acciones específicas.

6 “En esta oración se quiere poner de relieve la importancia de la interacción con las relaciones causales del contexto. Decir
las relaciones causales
del proceso es demasiado general y no subraya que son las relaciones causales de la situación o contexto. Por eso más adelante se dice que "la
ponderación de las propiedades no es una cuestión estática, sino que depende de contexto y de las metas del sistema". ED

XOSÉ VALES. CURSO 2019/2020 13


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

Estas reglas están organizadas en función de los


patrones de las condiciones y acciones dando lugar a
dos tipos de organización:
• La organización implícita: si la acción que es
consecuencia de una regla satisface la
condición de una segunda regla, entonces la
ejecución de la primera conducirá a la
ejecución de la segunda.
• La organización explícita: la conexión entre
reglas viene indicada directamente y las
reglas que se activan conjuntamente
quedarán conectadas con el tiempo
formando un conjunto interrelacionado de
reglas.

4.1.1. DESCRIPCIÓN DEL PROCESO DE


INDUCCIÓN CATÉGORICA COMO
SISTEMA DE REGLAS DISTRIBUIDAS
Este modelo concibe las categorías7 como un
conjunto de reglas agrupadas que comprenden
supuestos probabilísticos sobre las propiedades que
ocurren con otras propiedades y en el que se pueden
activar simultáneamente varias reglas. Se
corresponden con las agrupaciones de reglas
explícitas o implícitas en función del contexto en el
que ocurran.

Cada uno de los nodos representa la condición de una


regla y los nodos intermedios representan su acción
correspondiente. El nodo C3 recibe el mayor apoyo y
se disparará la acción correspondiente: donde el
ejemplar se categorizará como “perro”.

Cuando las categorías no son mutuamente


excluyentes, las reglas correspondientes pueden
activarse simultáneamente, de forma que, por
ejemplo, un animal peludo con cola, puede
categorizarse como perro, gato o ardilla. Cuando son

7 “Según los esquemas de razonamiento pragmático, las categorías se van formando por la aplicación de unas reglas de condición-acción. Estas

reglas no son una definición de la categoría, ni tampoco son una descripción monolítica, es decir, una representación compacta y estática del
concepto. Estas reglas van creando una serie de expectativas en el sistema cognitivo que va categorizando un determinado evento como "perro",
"gato", "ardilla", etc. A su vez, esta categoría se incluye en lo que se llaman "jerarquías por defecto" que integran el concepto dentro de una red
de categorías relacionadas de modo subordinado o supraordenado. En otras palabras, el concepto se ubica en un entramado mucho más rico de
relaciones conceptuales”. ED

XOSÉ VALES. CURSO 2019/2020 14


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

mutuamente excluyentes, pueden disparar


acciones que entran en conflicto, se establecen
reglas que inhiben a las reglas conflictivas.
Además, cada una de las reglas cuenta con un valor
de apoyo y una ponderación. En este caso concreto,
la información que entra en el sistema apoya de
igual forma a los nodos representados. Sin
embargo, la mayor ponderación previa hace que se
estime por una categorización tentativa. El sistema
no genera generalizaciones poco plausibles, pues se
cuenta con un umbral de confirmación que
establece un criterio para la variabilidad del
conjunto de propiedades que se están
considerando.
En la concepción de este modelo se entiende que
estas reglas son un conjunto de expectativas que se
consideran verdaderas siempre y cuando no se
contradigan por la información presentada al
sistema. En ausencia de más información, estas
expectativas por defecto proporcionan el mejor
esquema para la situación actual. La probabilidad
condicionada de una categoría, considerando la
observación de algunos de los valores de las
propiedades de un ejemplar, puede representarse
implícitamente por la fuerza de un conjunto de
reglas. A través de la organización explícita (por
medio de los marcadores que indican una conexión
directa) se enlazan las relaciones entre las
categorías. De esta forma, la categorización no
depende de una descripción monolítica, sino de una
combinación de propiedades y situaciones.

A través de estas jerarquías por defecto 8 se pretende representar la incertidumbre sobre la que
tiene que operar el sistema: en un nivel las generalizaciones que son útiles y en otro nivel, la
información más específica de las excepciones representándose la uniformidad y la variabilidad que
existe en el ambiente. El número de ejemplares necesarios para alcanzar una generalización será
función de esta variabilidad.

8“El concepto "jerarquías por defecto" se refiere a las diferentes relaciones (supraordenadas o subordinadas) que pueden tener los conceptos
entre sí. El nivel supraordenado es el de máxima generalización (por ejemplo, las propiedades generales de la fruta) y el supraordenado, es el de
mayor especificación (por ejemplo, las propiedades específicas de la manzana golden). Los ejemplares típicos se situarían en el nivel
supraordenado porque en este nivel es el que se comparten el mayor número de propiedades”. ED

XOSÉ VALES. CURSO 2019/2020 15


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

El modelo mental de un objeto particular sería un conjunto de reglas derivadas de una variedad de
conceptos supraordenados más cualquier información particular disponible. Los ejemplares típicos
serán aquellos a los que se adhieren las reglas por defecto de las categorías supraordenadas,
mientras que los ejemplares atípicos se emparejarían con reglas excepcionales. Lo que se propone
desde el modelo es una abstracción y representación del conocimiento general de las distribuciones
de las propiedades por medio de las agrupaciones de reglas. Los resultados ponen de manifiesto
que los sujetos saben mucho más de la estructura categórica que la simple formación sobre las
tendencias centrales o prototipos.

Para resumir, podemos decir que en este modelo se intenta explicar la compleja red de relaciones
en función del conocimiento que el sujeto construye en términos causales y que algunos como
Murphy y Medin (1985) denominan conocimiento teórico. Así, se concibe que la categorización no
ocurre de forma aislada, sino inmersa en las teorías que tienen los sujetos sobre aquello que les
rodea. Las teorías que se construyen explican el mundo y en función de ellas, éste se divide en clases.
Con el fin de caracterizar el conocimiento sobre la utilización de un concepto se han de incluir las
relaciones asociadas con ese concepto y otros conceptos que dependan del mismo. Podríamos decir
que el paradigma simbólico explica la categorización fundamentándose en el conocimiento que
se construye sobre el mundo que nos rodea y que constituye una teoría sobre el mismo.

4.2. LA INDUCCIÓN CATEGÓRICA COMO SISTEMA COMO SISTEMA DE ACTIVACIÓN


DISTRIBUIDA
Este es un modelo conexionista que comparte con el anterior algunos principios generales, pero el
enfoque conexionista parte de otros supuestos. Uno de estos, en contraposición al paradigma
simbólico clásico, se refiere al tipo de arquitectura del modelo. El sistema de procesamiento del
enfoque conexionista se encuentra constituido por redes de activación que comprenden un
conjunto amplio de unidades de procesamiento unidas por conexiones con pesos diferenciados.

Los modelos conexionistas (Feldman, 1981) describen los procesos mentales en términos de los
patrones de activación en un conjunto de unidades y no por unidades particulares. Estas unidades
son entidades de procesamiento que asumen unos valores de activación basados en la suma
ponderada de lo que entra en el sistema y de las otras unidades que están dentro del sistema. El
papel que desempaña una unidad se define por la fuerza de sus conexiones, tanto excitatorias como
inhibitorias. Las conexiones son el medio por el cual interactúan las unidades. Se les conoce como
modelos PDP o de procesamiento distribuido y paralelo, queriendo destacar que el procesamiento
es resultado de las interacciones que ocurren entre un número importante de unidades. Aunque se
podría pensar que las jerarquías por defecto son análogas a las unidades, dado que ambas guían la
entrada de información en la búsqueda de buen ajuste, no hay en estos modelos conexionistas
ningún análogo de las variables o de los valores por defecto. No existe ninguna noción sobre una
estructura interna constituida y la aparente aplicación de reglas emerge de las interacciones entre
unidades de activación.

XOSÉ VALES. CURSO 2019/2020 16


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

En este tipo de modelo el conocimiento adopta la forma de una red que satisface restricciones, y
éstas vienen impuestas por el contexto. Aunque en el modelo anterior también las restricciones9
contextuales desempeñaban un papel fundamental, en estos modelos no existen entidades
representacionales que se correspondan con conceptos, jerarquías por defecto o esquemas. Estas
entidades se encuentran implícitas y emergen de las interacciones de un amplio conjunto de
restricciones.

4.2.1. DESCRIPCIÓN DEL PROCESO DE INDUCCIÓN CATEGÓRICA COMO SISTEMA DE


ACTIVACIÓN DISTRIBUIDA
Con el siguiente ejemplo vamos a ilustrar los supuestos del funcionamiento de una red conexionista
de este tipo. Los datos pertenecen al modelo de Rumelhart, Smolensky, McClelland y Hinton (1986).
En la Tabla 3.3 aparecen los términos que fueron presentados para que los sujetos evaluaran su
pertenencia categórica en una serie de habitaciones: oficina, dormitorio, cuarto de baño, salón y
cocina. Los cuadrados que vienen señalados en gris representan la activación de dicha propiedad y
los cuadrados en blanco su desactivación.

Estas redes de activación son sistemas de procesamiento que pueden computar estadísticos sobre
sí mismas de forma que reflejen las fluctuaciones de ambiente del que se derivan sus datos. El
procesamiento ocurre por medio de la evolución de estos patrones de activación, que van
actualizando los pesos entre conexiones. Cualquier configuración inicial con elementos activos e
inactivos puede evolucionar hacia una configuración estable partiendo de unos pesos iniciales. Se

9
“Las restricciones en los modelos conexionistas hacen referencia a las condiciones impuestas sobre la fuerza de la conexión entre las unidades
de procesamiento y los pesos de las conexiones. En el proceso de categorización este sistema de procesamiento busca el mejor ajuste (satisfacer
el mayor número de restricciones) entre el patrón de activación almacenado y el nuevo patrón provocado por la entrada del concepto”. ED

XOSÉ VALES. CURSO 2019/2020 17


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

asume que cada vez que entra una estimulación en el sistema, éste se mueve hacia un estado estable
en el que se alcanza una bondad10 de ajuste máxima (es un sistema reactivo guiado por los datos).

En la Tabla 3.4. se presenta la matriz de pesos


(método de Hinton y Sejnowski, 1986). La fuerza
de las conexiones se obtuvo del cálculo de las
concurrencias de todos los términos. Cada
unidad se representa por un cuadrado y dentro
de cada cuadrado aparecen los pesos de esa
unidad con respecto al resto de las unidades
teniendo en cuenta sus posiciones. Así, por
ejemplo, la segunda posición de la primera fila
representa la conexión de esta unidad (techo)
con respecto a la segunda unidad (pared), y, así,
sucesivamente.

En la Figura 3.6. se ilustra cómo se encuentra la red de activación en este conjunto de propiedades.
Debido a la gran cantidad de datos que hay que manejar, sólo hemos elegido aquellos que se
encuentran activados en el prototipo de oficina. A través de esta representación se puede apreciar
la idea esencial del estado de activación de una red determinada. Como podemos ver, este plano
pretende representar un conjunto de unidades, cuyas ponderaciones hacen que emerja una
configuración que se identifica con el prototipo.

10 “Las restricciones en los modelos conexionistas hacen referencia a las condiciones impuestas sobre la fuerza de la conexión entre las unidades
de procesamiento y los pesos de las conexiones. En el proceso de categorización este sistema de procesamiento busca el mejor ajuste (satisfacer
el mayor número de restricciones) entre el patrón de activación almacenado y el nuevo patrón provocado por la entrada del concepto. La bondad
de ajuste está haciendo referencia a este ajuste entre los dos patrones de activación (el almacenado y el nuevo patrón)”. ED

XOSÉ VALES. CURSO 2019/2020 18


CAPÍTULO 3. INDUCCIÓN CATEGÓRICA

Las propiedades se encuentran distribuidas por toda la red y la fuerza de sus conexiones hace que
el patrón adquiera una configuración determinada. En esta Figura también hemos representado el
estado de la red desde otra perspectiva con el fin de que pueda apreciarse cómo se encuentra la
configuración con respecto a las unidades que también están activadas, pero cuyos pesos no son
tan altos, es decir, las restricciones son menores. Cuando entra información en el sistema, todas las
unidades ajustan su activación con el fin de satisfacer el mayor número posible de restricciones. Se
podría pensar que el sistema se encuentra continuamente esculpiendo una superficie en función de
aquello que va recibiendo y de las interacciones con el resto de unidades.

En el enfoque conexionista, y más concretamente en los modelos que se conocen como modelos de
satisfacción de restricciones, se reemplaza el marco simbólico por un nivel subsimbólico,
denominado así por encontrarse entre las conexiones neuronales y los cómputos mentales.
Conviene recordar que los constructos del cómputo mental son datos cognitivos que se explican por
un sistema próximo en su funcionamiento al nivel neuronal.

Versión web Autoevaluación

XOSÉ VALES. CURSO 2019/2020 19


Capítulo 4. EL RAZONAMIENTO SILOGÍSTICO:
CATEGÓRICO Y TRANSITIVO

REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA,
I. (2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
• Aclaraciones ED (Alf)
CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

1. INTRODUCCIÓN
La psicología del razonamiento ha planteado sus investigaciones de acuerdo con las dos
modalidades generales de inferencia: inferencias deductivas e inductivas. Las inferencias deductivas
se siguen necesariamente de una información a otra. Esta permite alcanzar una conclusión que se
siga necesariamente de las premisas del argumento. Cuando la psicología se planteó el estudiar el
razonamiento humano importó el modelo lógico y las investigaciones se centraron en el análisis del
rendimiento en función del criterio de validez lógica. Las tareas que se presentan a los sujetos
comprenden argumentos deductivos en los que ya pueden venir enunciadas las consecuencias
necesarias de lo que se asume y se pide a los sujetos que evalúen si el argumento es válido o inválido,
también se puede pedir que elijan entre un conjunto de conclusiones, cuál es la que se sigue
necesariamente de las premisas o que generen su propia conclusión en función de las premisas
presentadas. El interés y reto de la psicología del razonamiento es explicar cómo razonan los sujetos
y por qué se equivocan.

Una parte importante de los trabajos empíricos ha desafiado la idea de que los seres humanos
procedan de acuerdo con el cálculo lógico. Los errores encontrados en la realización de tareas de
razonamiento deductivo ha dado lugar a distintos enfoques teóricos que van desde aquellos que
consideran irrelevantes los principios lógicos en la explicación del razonar hasta los que defienden
una lógica mental, que puede estar más o menos suavizada por el concepto de “lógica natural”, pero
en la que hay un conjunto de reglas abstractas y en la que los errores no demuestran el fracaso de
razonar lógicamente, sino la existencia de determinadas condiciones que conducen al error.

Estos estudios sobre razonamiento deductivo han seguido los pasos marcados por la lógica al
estudiar las inferencias que dependen de los operadores formales, tales como la negación, la
disyunción, el condicional, y el bicondicional. Según el tipo de argumento deductivo, las
investigaciones se pueden agrupar en tres tipos:

• Razonamiento silogístico categórico (proposiciones con cuantificadores).


• Razonamiento silogístico transitivo (proposiciones con relaciones internas).
• Razonamiento proposicional (proposiciones con el condicional, bicondicional, la negación y
la disyunción).

2. RAZONAMIENTO SILOGÍSTICO CATEGÓRICO


El estudio del silogismo categórico se remonta a la filosofía griega y el análisis de la deducción se ha
centrado en el establecimiento de las conexiones encadenadas por medio de la cópula «es».
Recordemos que un argumento categórico está constituido por dos premisas y una conclusión en la
que se establece una nueva conexión a través del término medio. La premisa que contiene el sujeto
de la conclusión se denomina premisa menor y la que contiene el predicado, premisa mayor. La
estructura habitual del argumento presenta primero la premisa mayor, en la que se relaciona el
término medio y el predicado de la conclusión, y luego la menor, en la que se relaciona el término
medio y el sujeto de la conclusión. Por último, se presenta la conclusión. Veamos un ejemplo:

XOSÉ VALES. CURSO 2019/2020 1


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

REPRESENTACIÓN CON CONTENIDO:


Todas las personas honestas (término medio) evitan la corrupción (predicado).
Todas las empresarias (sujeto) son personas honestas (término medio).
En consecuencia. Todas las empresarias (sujeto) evitan la corrupción (predicado).

REPRESENTACIÓN ABSTRACTA:
Todas las B son A. (Predicado en la premisa MAYOR).
Todas las C son B. (Sujeto en la premisa MENOR).
En consecuencia. Todas los C son A. (Conclusión)

En este ejemplo vemos que la primera premisa del silogismo es la premisa mayor al constituirse en
predicado de la conclusión y que la segunda premisa es la premisa menor al ser sujeto de la
conclusión. El sujeto de la conclusión lo hemos designado con la letra C, el predicado con la letra A
y el término medio con la letra B, aunque conviene señalar que existen distintas convenciones para
dicha representación.

Además de esta estructuración del argumento, los silogismos categóricos contienen enunciados de
cantidad (universal, particular) y polaridad (afirmativa, negativa), dando lugar a cuatro tipos de
proposiciones: universal afirmativa, universal negativa, particular afirmativo y particular negativo.
Estas cuatro proposiciones se designan con las letras A
para una proposición universal afirmativa, E para una
universal negativa, I para una particular afirmativa y O
para una particular negativa. En los silogismos
categóricos también se tiene en cuenta la posición del
término medio en cada una de las premisas. Existen
cuatro posiciones que dan lugar a las cuatro figuras del
silogismo categórico.
Existen 256 silogismos categóricos producto de la
combinación de los cuatro tipos de enunciados en las dos premisas y la conclusión y en las cuatro
figuras (4 x 4 x 4 x 4= 256). Si calculamos sólo el modo, obtenemos un total de 64 silogismos
categóricos resultado de la combinación de sus tres enunciados (dos premisas y una conclusión) y
de los cuatro modos posibles de las premisas (A, E, I, 0): 4 x 4 x 4 = 64. Como además hay 4 Figuras
posibles, entonces volvemos a multiplicar por 4 y obtenemos un total de 256 (64 x 4 = 4 x 4 x 4 x 4).
De este total de 256, solamente los siguientes 24 silogismos categóricos son válidos.

XOSÉ VALES. CURSO 2019/2020 2


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

Hay que señalar que el número total de silogismos válidos incluye todas las conclusiones válidas,
sean fuertes o débiles. Una débil será aquella que se obtenga como conclusión particular, cuando
se permite una conclusión universal. P. ej., Consideremos el siguiente silogismo:

Todas las personas demócratas evitan votar VOX.


Todos los psicólogos son personas demócratas.
FIGURA 4: CONCLUSIONES A-C
En consecuencia. Todos los psicólogos evitan
votar VOX.
Todos los psicólogos son personas demócratas.
Todas las personas demócratas evitan votar Este silogismo pertenece a la Figura 1:
VOX.
En consecuencia. Todos los psicólogos evitan
BA Todos los B son A
votar VOX. CB Todos los C son B
-----
FIGURA 1: CONCLUSIONES C-A CA Todos los C son A
Todas las personas demócratas evitan votar
VOX. La estructura del modo de este silogismo es AAA
Todos los psicólogos son personas demócratas.porque las dos premisas y la conclusión son
En consecuencia. Todos los psicólogos evitan
votar VOX. enunciados universales afirmativos. La conclusión
universal afirmativa es la conclusión válida fuerte.
Esta conclusión fuerte también garantiza la
validez de la conclusión débil con la particular afirmativa «algunos psicólogos evitan votar VOX»
(AAI). Algunos autores no hacen esta distinción y sólo consideren las conclusiones fuertes en el
número de silogismos válidos. Esta consideración da lugar a 19 silogismos válidos.
En un estudio realizado por Johnson-Laird y
Steedman (1978) se encuentra que no siempre
se considera la segunda premisa del silogismo
categórico como sujeto de la conclusión,
produciéndose conclusiones en dos sentidos: C-
A, A-C. Cuando se consideran ambos tipos de
conclusiones, el número total de silogismos
posibles es de 512 (4 x 4 x 4 x 4 x 2). Los resultados mostraron un efecto de la figura para los
silogismos de las Figuras 4 y 1. En concreto, la mayoría de los sujetos (71 %) daban una conclusión
A-C para los silogismos de la Figura 4 y conclusiones C-A (70%) para la Figura 1. Desde la estructura
lógica tradicional del argumento, las conclusiones A-C se ajustan a un cambio de orden de las
premisas y a un posible cambio del término medio. En concreto, en el caso de las conclusiones A-C
de la Figura 4, se invierte el orden de las premisas y la Figura 4 se convierte en la Figura 1. Sin
embargo, la posición del término medio no se altera al cambiar el orden de las premisas en las
Figuras 3 y 2. En líneas generales, los trabajos experimentales sobre el silogismo categórico se han
centrado principalmente en estudiar cómo influyen los aspectos estructurales y de contenido en el
rendimiento de los sujetos. El rendimiento de los sujetos en los distintos silogismos es variable,
encontrándose, por ejemplo, desde un 89% de respuestas correctas hasta un 8% (Johnson-Laird y
Byrne, 1991).

XOSÉ VALES. CURSO 2019/2020 3


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

2.1. LA HIPÓTESISI DE LA ATMOSFERA DE LAS PREMISAS


La hipótesis de la atmósfera no es una teoría, sino una explicación basada en la tendencia que se
observa en los sujetos al dar sus respuestas y que parecía determinada por los aspectos
estructurales del silogismo. El trabajo de Woodworth y Sell (1935), presentó una tarea en donde se
debía evaluar la validez de los argumentos. Encontraron que se equivocaban y que ello se explicaba
por el modo de las premisas. Cuando las dos premisas eran universales (A – E) afirmativa o negativa,
mostraban tendencia a elegir una conclusión UNIVERSAL y cuando las dos premisas eran afirmativas
(A – I) daban conclusión afirmativa. Lo llamaron “Atmósfera” pues inducía a conclusión del mismo
tipo.

Este efecto recibió el nombre de «efecto atmósfera» y fue objeto de estudio de varias
investigaciones centradas en la identificación y análisis de los errores. Los principios de este efecto
fueron formulados más explícitamente por Begg y Denny (1969) teniendo en cuenta la cantidad
(universal, particular) y la cualidad (afirmativa, negativa) de las premisas. Los autores ampliaron el
efecto para las premisas heterogéneas de la siguiente forma: cuando las premisas contienen al
menos una premisa particular, entonces la conclusión es particular y en el caso contrario es universal
y cuando las premisas contienen al menos una premisa negativa, entonces la conclusión es negativa
y en el caso contrario es afirmativa. Este efecto recibió el nombre de «efecto atmósfera» y fue
objeto de estudio de varias investigaciones centradas en la identificación y análisis de los errores.

Sells (1936), sugiere que puede existir un principio general de prudencia por el que se supone que
las conclusiones son menos prudentes que las particulares y este principio explicaría la preferencia
de los sujetos por las conclusiones particulares. Este principio no ha tenido demasiada aceptación,
sobre todo porque los sujetos producen pocas conclusiones particulares negativas (O), siendo
contrario a la cabría esperar de acuerdo con el principio de prudencia (Evans, Newstead y Byrne,
1993).

La tendencia no lógica del efecto atmósfera en los resultados puede predecir un porcentaje
aceptable de respuestas. P. ej., la hipótesis de la atmósfera llegó a predecir el 49% de las respuestas
en el estudio de Dickstein (1978) y el 43% en el estudio de Johnson-Laird y Bara (1984). Sin embargo,
los propios autores, Woodworth y SelIs, reconocieron que este efecto tan sólo explicaba la
tendencia al error, pero que no era propiamente una teoría del razonamiento silogístico. Sin
embargo, los propios autores, reconocieron luego que el efecto solo explicaba la tendencia al error,
pero que no era una verdadera teoría del razonamiento. También se encontraban diferentes
respuestas ante silogismos válidos y no válidos, dándose el sesgo en la respuesta. Tampoco predice
los distintos niveles de dificultad de los silogismos categóricos, además de indicar que siempre se
dará una conclusión, cuando los resultados indican que no siempre se da conclusión válida cuando
la tarea es de producción1.

1 “Una tarea de producción es por ejemplo cuando te piden dar una conclusión. Por ejemplo, te presentan: Todos los españoles son europeos;

Algunos europeos no son ecologistas; Conclusión: La tarea de los participantes consiste en escribir la conclusión. Según la hipótesis de la
atmósfera, si hay una premisa particular o negativa, la conclusión será particular o negativa. Es decir, la hipótesis predice que las personas tienen
que dar una conclusión necesariamente, en este caso: "Algunos españoles no son ecologistas", pero los resultados han mostrado que los
participantes también responden de forma correcta que no hay una conclusión válida, como es este el caso que la conclusión correcta sería "No
hay conclusión". ED

XOSÉ VALES. CURSO 2019/2020 4


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

2.2. MODELOS BASADOS EN LA INTERPRETACIÓN DE LAS PREMISAS


La explicación del efecto atmósfera como una tendencia a considerar factores extralógicos fue
rebatida por Chapman y Chapman (1959) al señalaban que el efecto atmósfera podía ser más una
ilusión de irracionalidad pues ellos explicaban los resultados de sus estudios por la conversión ilícita
de las premisas y por la inferencia probabilística. El principio de inferencia probabilística supone que
mostramos una consistencia interna en su razonamiento, pero con una regla errónea. Esta nos
conduce a que consideremos que las entidades que comparten determinadas propiedades tendrían
mayor probabilidad de compartir otras relaciones. Por ejemplo:

Algunos A son B
Algunos C son B
________________
En consecuencia, Algunos C son A

Si dotamos de contenido a este argumento, vemos que esta conclusión no se sigue necesariamente
de las premisas:

Algunos votantes de PODEMOS son demócratas.


Algunos votantes de VOX son demócratas.
En consecuencia, Algunos votantes de VOX son votantes de PODEMOS.

La hipótesis sobre la conversión ilícita es, sin embargo, un error en la interpretación de la universal
afirmativa y de la particular negativa, sin aludir al efecto atmósfera y sin hacer referencia a una regla
de inferencia falaz. El error por la conversión ilícita de las premisas ocurre cuando se interpreta que
la premisa universal afirmativa (A) «Todos los A son B» es equivalente a «Todos los B son A» y que
la premisa particular negativa (0) «Algunos A no son B» es equivalente a «Algunos B no son A».
Conviene señalar que esta conversión es lícita para las premisas en el modo universal negativa (E)
«Ningún A es B» y particular afirmativa (I) «Algunos A son B». Veamos algunos ejemplos con
contenido:
• Universal afirmativa (A) “Todas las votantes del Partido Popular son unas delincuentes” no
es equivalente a “Todas las delincuentes son votantes del Partido Popular”.
• Particular negativa (O) “Algunas personas no están inscritos en PODEMOS” no es
equivalente a “Algunos inscritos en PODEMOS no son personas”
• Universal negativa (E) “Ninguna mujer es madre de DIOS” es equivalente a “Ninguna madre
de Dios es mujer”
• Particular positiva (I) “Algunos miembros del ED son unos excelentes profesionales” es
equivalente a “Algunos excelentes profesionales son miembros del ED”

La conversión de un enunciado categórico en otro consiste en intercambiar los términos sujeto y


predicado entre ambos enunciados. Un aspecto importante del enunciado categórico es la
distribución de sus términos. El término de un enunciado categórico está distribuido si se refiere a
todos los miembros de la clase designada por dicho término. Así, por ejemplo, en el enunciado
Universal Afirmativo, “Todas las votantes del Partido Popular son unas delincuentes”, el sujeto (las

XOSÉ VALES. CURSO 2019/2020 5


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

votantes del Partido Popular) se encuentra distribuido porque se refiere a todos y cada uno de los
miembros de la clase “las votantes del Partido Popular”. De esta forma, la cantidad (universal,
particular) del enunciado determina que el sujeto se encuentre distribuido en los enunciados
universales y que no esté distribuido en los enunciados particulares.

La conversión sólo es legítima para los enunciados


(E) e (I), pues son los únicos que tienen los mismos
valores en su distribución: sujeto y predicado
distribuidos en (E), y no distribuidos en (I),
permitiendo realizar la conversión del enunciado y
que con ello no se altere ni su cantidad ni su calidad.
Sin embargo, la conversión en los enunciados (A) y
(O) daría lugar a transformar un término distribuido
en uno no distribuido o viceversa, generando una
inferencia que no está garantizada en el enunciado
original.

Revlis (1975a;b; Revlin y Leirer, 1978) formula una propuesta más concreta basada en la conversión
de todas las premisas y en el supuesto de que se prefiere razonar con estas versiones convertidas
de las premisas. Hay una primera etapa de procesamiento en la que se codifican las premisas y se
convierten quedando representadas ambas versiones. Y luego, se elabora una representación
compuesta de las dos premisas y se pasa a la codificación de la conclusión de modo semejante a la
primera etapa. Por último, hay un proceso de comparación entre la representación conjunta de las
premisas y la representación de la conclusión. Si ambas con congruentes entonces se acepta el
silogismo como válido. Si son incongruentes se procedería con la comparación de las
representaciones en sus versiones originales sin conversión, hasta encontrar un argumento válido.
Si no se obtiene éste, o se supera el límite de tiempo, se procede o con modelo para la selección
aleatoria de una de las alternativas o bien con un modelo de selección de rasgos (cantidad y calidad).
El contenido temático del silogismo puede facilitar el
razonamiento. P. ej., la conversión de “Todos los gatos
son felinos” en “Todos los felinos son gatos”, daría lugar
a una premisa contraria al conocimiento del sujeto.
Según Revlin y Leirer, el razonamiento silogístico con
contenido es mejor que el abstracto porque el
contenido bloquea la conversión de las premisas en el
proceso de codificación. Sin embargo, los resultados
experimentales son contrarios porque el efecto del
contenido o de las creencias se sigue manifestando
incluso en aquellos silogismos en los que la conversión
no altera la validez del argumento.

Con respecto al efecto del contenido (sesgo de


creencias) ya Wilkins 1928 había encontrado que el

XOSÉ VALES. CURSO 2019/2020 6


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

contenido familiar facilitaba el rendimiento, pero que disminuía si el contenido entraba en conflicto
con la estructura lógica. En líneas generales los sujetos tienden a considerar que un argumento es
válido si están de acuerdo con su conclusión y que es falso si no lo están. Además, Evans, Barston y
Pollard (1983) encontraron una interacción entre validez lógica y credibilidad de las conclusiones,
siendo el efecto mayor para los silogismos inválidos que para los válidos. Se obtuvo que los sujetos
aceptaban más conclusiones creíbles (80%) que increíbles (33%) independientemente de su validez
lógica. Sin embargo, la diferencia (61%) entre la aceptación de conclusiones inválidas creíbles (71%)
y conclusiones inválidas increíbles (10%) fue mayor que la diferencia (33%) entre conclusiones
válidas creíbles (89%) y conclusiones válidas increíbles (56%).

Evans y cols. propusieron dos modelos para explicar cómo se realiza el proceso de evaluación de las
conclusiones: (1) el modelo de escrutinio selectivo y (2) el modelo basado en una mala
interpretación de la “necesidad lógica”.
El modelo de escrutinio selectivo sostiene que los sujetos se centran primero en la conclusión del
argumento y si ésta es coherente con su sistema de creencias, la aceptan sin más. Está basada en
los análisis de los protocolos verbales en los que se identificaban tres tipos de estrategias para la
solución de los silogismos:
• “Estrategia solo la conclusión”: solo mencionan la conclusión.
• “Estrategia de la conclusión a las premisas”: mencionan primero la conclusión y luego las
premisas.
• “Estrategia de las premisas a la conclusión”: mencionan antes las premisas.

Los sujetos que consideraban sólo la conclusión o primero la conclusión y luego las premisas fueron
los que presentaron una mayor tendencia a responder de acuerdo con la credibilidad de la
conclusión. Aunque este modelo explica la interacción entre validez lógica y credibilidad de las
conclusiones, no explica, sin embargo, el efecto de la lógica sobre las propias conclusiones creíbles.
Algunos autores ponen de manifiesto que los sesgos de creencias se siguen dando, en las tareas en
las que los sujetos deben generar sus propias conclusiones y en las que, no hace falta un proceso de
escrutinio de la conclusión.

XOSÉ VALES. CURSO 2019/2020 7


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

El modelo basado en una mala interpretación del concepto de necesidad dice que los sujetos en
realidad no entienden la necesidad lógica. Un argumento deductivo es válido sólo si es imposible
que su conclusión sea falsa mientras que sus premisas son verdaderas. Un silogismo con
conclusiones posibles, pero no necesarias, se denomina un silogismo inválido indeterminado2 y
cuando no se sigue ninguna conclusión se denomina silogismo inválido determinado3.

Los sujetos responden de acuerdo con la credibilidad


de las conclusiones en los silogismos inválidos
indeterminados, pero cuando es inválido determinado
no se sigue ninguna conclusión y la credibilidad no
ejerce ninguna influencia. La credibilidad surte efecto
sobre los silogismos inválidos indeterminados y el
efecto desaparece en los silogismos inválidos
determinados. No obstante, ambos modelos dejan sin
explicar el proceso de razonamiento y solo se centran
en los errores para algunos silogismos (inválidos
indeterminados).

También Begg y Harris (1982) sostienen que los errores de razonamiento silogísticos se encuentran
en la interpretación de las premisas, pero no por un proceso de conversión sino por la interpretación
de los cuantificadores según las convenciones lingüísticas. Según las convenciones lingüísticas, los
sujetos los interpretan de tres formas: Ninguno como exclusión, algunos como intersección y todos
como identidad. La interpretación de “alguno” como “todos” y de “algunos no” como “ninguno”
son propias del significado lógico, pero son inútiles psicológicamente.
Esta explicación de los errores se centra en la interpretación de las premisas según las implicaturas
conversacionales propuestas por Grice (1975). Implicatura designa el contenido implícito de lo que
decimos y la máxima conversacional de cantidad explicaría los errores en la interpretación de los
cuantificadores particulares. Esta máxima de cantidad se relaciona con la cantidad de información
que debe darse en una conversación. La conversación debe ser todo lo informativa que requiera el
diálogo, aunque nunca más de lo necesario. Esta explicaría que los sujetos no acepten la relación de
subalternancia entre un enunciado universal y uno particular: uno universal implica su enunciado
subalterno correspondiente como Todos los hombres son mortales implica que algunos hombres
son mortales. Para las personas sería poco informativo decir “algunos” cuando se sabe que son
“todos”.

Como se puede apreciar, los enunciados universales (A, E) implican sus correspondientes
enunciados subalternos particulares (I, O). Ambos enunciados comparten el sujeto, el predicado y
la calidad, pero difieren en la cantidad. Por ejemplo, la verdad de “Todos los perros son peligrosos”
implica la verdad de “Algunos perros son peligrosos”. También se puede ver que los enunciados
Universal Afirmativo (A) y Universal Negativo (E) son contrarios. Se dice que dos enunciados con el
2 “Un argumento es inválido cuando la conclusión no es necesariamente verdadera. Es Inválido indeterminado cuando la conclusión es posible,

es decir, varias conclusiones son posibles, por tanto, no estamos ante una conclusión necesariamente verdadera”. ED
3 Un argumento es inválido cuando la conclusión no es necesariamente verdadera. Es Inválido determinado cuando la conclusión es falsa y no

se puede inferir de las premisas.

XOSÉ VALES. CURSO 2019/2020 8


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

mismo sujeto y predicado son contrarios si no pueden ser ambos verdaderos, aunque ambos puedan
ser falsos. Por ejemplo, “Todos los perros son
peligrosos” y “Ningún perro es peligroso” son
enunciados contrarios. Por último, también se
aprecia que el par de enunciados Universal
Afirmativo (A) y Particular Negativo (O) y el par
Universal Negativo (E) y Particular Afirmativo (I) son
contradictorios. Estos pares de enunciados (A-O y E-
I) tienen el mismo sujeto y predicado, aunque
difieren en calidad y cantidad. Por tanto, dos
enunciados son contradictorios si uno de ellos es la
negación del otro y ambos no pueden ser verdaderos
o falsos a la vez. Por ejemplo, los enunciados “Todos
los perros son peligrosos” y “Algunos perros no son
peligrosos” son enunciados contradictorios.

La máxima conversacional de cantidad dice que debe transmitir la mayor cantidad de información
posible y no ocultar deliberadamente parte de la información. El significado lógico de “algunos” sería
una transgresión de las máximas conversacionales cuando se sabe que “todo” también es verdadero
y este último cuantificador es que transmite más información. Las investigaciones de Begg (1987),
Newstead (1989) y Politzer (1986,1990) ponen de manifiesto que la interpretación de algunos
cuantificadores se rige por las implicaturas conversacionales y no por la lógica. Defienden la
racionalidad desde un modelo de convenciones lingüísticas en el que las reglas otorgan una lógica
intuitiva o natural. Sin embargo, no hay datos experimentales suficientes para poder decir que las
interpretaciones “Griceanas”4 constituyan la principal fuente de errores del razonamiento silogístico
(Evans, Newstead y Byrne, 1993; Manktelow, 2012).

Los modelos de conversión también han sido criticados. Estos modelos explican el efecto atmósfera
bajo el supuesto racionalista de que el razonamiento es lógicamente correcto, pero con unas
representaciones invertidas de las premisas y no consideran la figura. Sin embargo, Frase y Pezzoli
y Frase (1968), encontraron un efecto análogo al efecto atmósfera con la figura del silogismo. El tipo
de figura también presentaba diferentes grados de dificultad, siendo la cuarta más fácil que la
primera. Johnson- Laird y Steedman (1978), decían que cuando los sujetos tenían que producir la
conclusión del argumento, éstos generaban conclusiones A-C (donde la premisa mayor se
correspondía con el sujeto y predicado en la menor) con la figura 4, y C-A con la figura 1.

4 “Grice (1975) propone que uno de los errores se debe a la interpretación de las premisas. Por ejemplo, lógicamente la universal afirmativa
"todos los hombres son mortales" implica la particular afirmativa "algunos hombres son mortales" pero las personas no hacen estas
interpretaciones porque no sería informativo usar una particular cuando quieres decir una universal. Precisamente la máxima de cantidad que
propone Grice se refiere a esto, la información debe de ser informativa. El cuadro de oposición de la página 90 ilustra que los enunciados
universales (A, E) implican sus correspondientes enunciados subalternos particulares (I,O). Ejemplo de arriba. Los enunciados Universal afirmativa
"Todos los hombres son mortales" y la Universal negativa "Ningún hombre es mortal" son contrarios, es decir, no pueden ser ambos verdaderos
a la vez, pero pueden ambos ser falsos. El Universal afirmativo "Todos los hombres son mortales" y el particular negativo "Algunos hombres no
son mortales" son contradictorios, es decir, no pueden ser verdaderos o falsos. En resumen, lo que propone Grice es la máxima conversacional
de cantidad que indica que se debe de transmitir la mayor cantidad de información posible y no ocultar deliberadamente parte de la información.
Desde esta perspectiva, aunque el significado lógico "algunos" pueda usarse con el mismo significado que "todos" sería una trasgresión de las
máximas conversacionales cuando se sabe que "todo" es verdadero y este último cuantificador es el que transmite más información”. ED

XOSÉ VALES. CURSO 2019/2020 9


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

2.3. MODELOS BASADOS EN LA REPRESENTACIÓN DE CONJUNTOS

El método de los círculos de Euler se basa en la utilización de círculos para la representación en un


plano de las relaciones entre los conjuntos comprendidos en las premisas del argumento.

Un argumento es válido cuando la conclusión es verdadera en todos los diagramas que representan
todas las posibles combinaciones de las dos premisas. Es un proceso bastante costoso, sobre todo
porque el número de combinaciones posibles es generalmente mayor que el producto de los
diagramas de las dos premisas al existir más de una forma de combinarlos.
Erickson (1974, 1978) propuso una teoría del razonamiento silogístico basada en los círculos de
Euler. Los sujetos representaban cada premisa de forma análoga a la representación espacial de los
círculos. Las distintas interpretaciones posibles de las premisas llevan asociados unos parámetros
probabilísticos que determinan su selección.
• Primera etapa de interpretación de las premisas también influirá el contenido del argumento.
Para evaluar o producir una conclusión se combinan las representaciones de las premisas en
una sola representación del silogismo.
• Segunda etapa de combinación se asume que el sujeto no hace un análisis exhaustivo de
todas las combinaciones posibles de las interpretaciones de las premisas, sino que selecciona
una combinación de acuerdo con los parámetros probabilísticos 5.

5 “Una universal afirmativa tiene dos representaciones: la identidad y el subconjunto. Imagina que dicen "Todos los murciélagos son mamíferos",

es cierto que hay dos representaciones, pero es altamente posible que basándonos en el contenido del enunciado representemos el subconjunto.
Digamos que cada representación se asocia a una probabilidad”. ED

XOSÉ VALES. CURSO 2019/2020 10


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

• Tercera etapa, en esta etapa se selecciona una etiqueta verbal que se corresponda con la
descripción de la combinación obtenida para dar la respuesta.

Los errores en el proceso pueden ocurrir en cualquiera de las etapas y se asume que los sujetos son
proclives al efecto atmósfera. El problema principal es el número tan grande de formas distintas en
las que se pueden combinar los diagramas. Para resolver este problema, Erickson utiliza los
parámetros probabilísticos, pero estos parámetros han sido determinados a posteriori en función
de los datos empíricos de investigaciones anteriores sin ningún tipo de explicación psicológica que
los justifique (Johnson-Laird y Bara, 1984).

El modelo de la cadena transitiva de Guyote y Sternberg (1981), asume una representación


simbólica semejante a los círculos de Euler, pero libre de errores al ser una representación
exhaustiva. El peso del modelo es la especificación de los procesos de combinación y comparación
de la interpretación de las premisas.
• Primera etapa. Proceso de combinación, las interpretaciones de las premisas se van
integrando en “cadenas transitivas”, que son los enlaces entre el primer y último término de
las premisas a través del término medio. En esta etapa se pueden producir errores por la
capacidad limitada de la memoria de trabajo.
• Segunda etapa de comparación, se elige una conclusión concordante con las
representaciones combinadas. En el proceso de comparación se pueden producir errores
debido a la falta de consideración de alguna conclusión concordante con la combinación de
premisas y también por el efecto atmósfera.
• Tercera etapa, se da la respuesta que se corresponda con la conclusión seleccionada.

Una de las críticas más importantes al modelo es que asume que no hay errores en la primera etapa
de la representación de las premisas cuando hay datos experimentales que lo cuestionan. Y como
en el modelo de Erickson, tampoco contemplan los efectos de la figura y se recurre al efecto
atmósfera como un sesgo de respuesta sin explicación psicológica.

Los modelos basados en los círculos de Euler predicen que la dificultad dependerá del número de
diagramas necesarios para la interpretación y combinación de las premisas, pero los datos ponen
de manifiesto que algunos de los silogismos fáciles precisan un número mayor de diagramas que
otros silogismos que son más difíciles a pesar de que requieran un número menor de diagramas.

Newell (1981), propone otra aproximación para explicar el razonamiento silogístico por medio de la
representación espacial de los diagramas de Venn. En este método se representa el silogismo en un
solo diagrama. Estos utilizan círculos que se encuentran sobrepuestos de forma que representen las
relaciones entre los conjuntos del silogismo. Se sombrea aquella zona en la que no hay miembros y
se representa con una X las áreas en las que existe al menos un elemento cuando el enunciado
categórico es particular (afirmativo o negativo).
El modelo de Newell pretende acomodar los silogismos categóricos al marco general que diseñaron
Newell y Simon (1972) para la solución de problemas. Se entiende que el razonamiento silogístico es
un proceso de búsqueda a través del espacio del problema y que este espacio se representa de forma

XOSÉ VALES. CURSO 2019/2020 11


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

análoga a los diagramas de Venn. No se hacen


predicciones sobre los errores, ni se aportan datos
empíricos que apoyen la viabilidad del modelo. Simon
(1989), comentó que es probable que la utilización de
los diagramas sólo ocurra en sujetos expertos y que
una representación en la línea de los modelos
mentales es preferible, y más acorde con una
aproximación del razonamiento silogístico.

Los modelos mentales de conjuntos fue una teoría del


razonamiento silogístico en sus orígenes y hoy
constituye un marco teórico general del razonamiento
deductivo. Este comprende tres etapas:
• Etapa de interpretación y representación
inicial de las premisas: utiliza su conocimiento
sobre el lenguaje y su conocimiento general
para comprender las premisas.
• Segunda etapa. El sujeto combina las
representaciones anteriores para generar una
descripción lo más sencilla posible de los
modelos construidos a partir de las premisas.
Debe enunciar algo que no se encuentre
explícito en las premisas y es la conclusión
tentativa del argumento.
• Tercera etapa. El sujeto busca modelos
alternativos para poder falsar la conclusión
tentativa. Si no los encuentra la conclusión es
válida, pero si los encuentra, regresa a la
segunda etapa para seguir probando
conclusiones tentativas con contraejemplos.

En la tercera etapa se ubica el “aspecto” deductivo del


razonamiento. La dificultad se explica en términos de
la cantidad de procesamiento y los errores vienen
explicados por las limitaciones de la memoria de
trabajo.

El principio de economía propuesto por la teoría


asume que el modelo mental inicial sólo representará
la cantidad de información explícita que sea necesaria
para la interpretación de la premisa. Está constituido
por símbolos que representan miembros
representativos del conjunto. P. ej., en la universal

XOSÉ VALES. CURSO 2019/2020 12


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

afirmativa “Todos los A son B”, “a” es un miembro


representativo del conjunto A y “b” del conjunto B.
Cuando un miembro del conjunto se encuentra
representado dentro de un corchete [a], quiere decir
que el conjunto de miembros se encuentra
exhaustivamente representado y, por tanto, puede
haber miembros “b” que no sean miembros “a”. Una
sola representación del modelo mental de la
universal afirmativa comprende las dos
representaciones espaciales de los círculos de Euler:
relación de identidad y subconjunto. Los tres puntos
(...) indican que podría haber otra clase de miembros
que no se encuentran representados en el modelo
inicial, es como una anotación mental que indica la existencia de otros modelos que están implícitos.
Pueden hacerse explícitos en la que sea necesario ampliar la información enunciada en las premisas.
Por ejemplo en la representación de los miembros que no son “a” y son “b” (¬a b ).

En la segunda etapa del modelo se deben combinar los modelos mentales de las premisas en una
sola descripción. Se añade el modelo mental de la segunda premisa al modelo de la primera
mediante el término medio. P. ej., si la segunda premisa es también una universal afirmativa “Todos
los B son C”, sería:
[b] c
[b] c
...

y por la combinación de ambos modelos se obtendría:

[ [a] b] c
[ [a] b] c
...
De esta forma se obtiene un modelo mental de ambas premisas donde los miembros “a” se
representan exhaustivamente con respecto a “b” y los miembros “b” se representan
exhaustivamente con respecto a “c”. La conclusión entre “a” y “c” es “Todos los A son C” y ”Algunos
C son A”. En este silogismo no se puede generar otra combinación que dé otra conclusión que pueda
falsar la conclusión tentativa y se concluye como válido. Este silogismo AA solamente requiere un
modelo mental y es el silogismo más fácil de resolver. Repetimos, que la combinación de los
modelos mentales de las premisas se complica cuando hay más modelos mentales alternativos.

El contenido o las creencias se consideran una fuente error pues pueden influir en la interpretación,
en la combinación de modelos y en el proceso de aceptación o rechazo de la conclusión tentativa.
Cuando el contenido influye puede acortar el proceso de búsqueda de modelos alternativos si la
conclusión tentativa es compatible con el sistema de creencias, aunque sea inválida. Podría ocurrir
que el sujeto buscara afanosamente más modelos mentales alternativos cuando la conclusión fuera

XOSÉ VALES. CURSO 2019/2020 13


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

contraria a su sistema de creencias (Oakhill y Johnson-Laird, 1985). Este efecto estaría influyendo
en la búsqueda de contraejemplos. Incluso este contenido influye en los silogismos de un solo
modelo mental y proponen que una conclusión increíble también podría actuar de filtro en el
proceso de evaluación, haciendo que la sustituyan por una conclusión creíble o que respondan que
no hay conclusión. Newstead y Evans (1993) señalan que con la incorporación del filtro de las
conclusiones se está introduciendo un mecanismo semejante al contemplado en el modelo de
escrutinio selectivo, aunque en este caso la selección ocurre en el proceso de evaluación.

La teoría de los modelos mentales se basa en un procedimiento formal para la representación


semántica de los operadores lógicos que unen los contenidos expresados en las premisas. La crítica
fundamental se centra en que esta teoría se autodefine como semántica, pero no explica cómo se
vincula el conocimiento almacenado con la construcción de los modelos mentales en la memoria de
trabajo. La teoría no determina cómo se construyen los modelos mentales, ni el orden en la
construcción de la secuencia de las posibles interpretaciones, ni se compromete con el tipo de
representación de los modelos mentales, ni con el orden de la combinación de los modelos
mentales. La teoría de los modelos mentales es una perspectiva teórica fuerte que se encuentra
apoyada por una amplia y variada gama de trabajos experimentales. No obstante, el debate entre
los modelos mentales y otras teorías del razonamiento deductivo basado en reglas no ha concluido
y tampoco hay consenso con respecto a su aceptación como único modelo de razonamiento.

3. RAZONAMIENTO SILOGÍSTICO TRANSITIVO


Las investigaciones sobre el razonamiento con silogismos transitivos (lineales, problemas órdenes
lineales o de series de tres términos) estudian las inferencias que dependen de las relaciones de
transitividad. Es la propiedad de cualquier escala con la que se compara u ordenan objetos. Estos
trabajos han utilizado un silogismo constituido por dos premisas en las que se relacionan sus tres
términos en función de una propiedad transitiva y una conclusión que establece la relación entre
los dos términos no adyacentes. P. ej.:

Luis es mayor que Juan.


Juan es mayor que Pedro.

XOSÉ VALES. CURSO 2019/2020 14


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

En consecuencia, Luis es mayor que Pedro.

Hay ocho estructuras básicas para representar un silogismo transitivo A > B > C:

Se pueden introducir también relaciones negativas en una de las dos premisas o en ambas (premisas
de igualdad negada). Además, considerando que la tarea experimental más habitual consiste en
presentar las dos premisas del silogismo y pedir que se conteste a una pregunta sobre la relación
entre “A” y “C” (¿Cuál es el mayor? o ¿Cuál es el menor?) o que se evalúe la validez de una conclusión
(Luis es mayor que Pedro o Pedro es menor que Luis), las estructuras básicas se pueden presentar
con dos preguntas o conclusiones alternativas:

También se han utilizado silogismos indeterminados en los que los dos términos de la serie están
situados hacia el mismo extremo de la relación con respecto al término medio, no pudiéndose
alcanzar una conclusión válida sobre la relación entre ambos. P. ej., en el siguiente silogismo los
términos A y C se encuentran situados hacia el mismo extremo B > A y C < B y no podemos inferir
la relación entre A y C, solo que son menores que B.

Desde sus orígenes experimentales en el trabajo de Stürring (1908), el razonamiento con series de
tres términos ha planteado una polémica centrada en el tipo de representación de las premisas. En
este trabajo se describía cómo algunos sujetos parecían formar un diagrama mental de las premisas,
representándolas mediante imágenes mentales, mientras que otros parecían resolver el problema
de forma verbal.

3.1. EL MODELO OPERACIONAL


Uno de los primeros modelos en la explicación del razonamiento transitivo hacía hincapié en los
aspectos operacionales implicados en su solución. Hunter (1957) decía que poder hacer una

XOSÉ VALES. CURSO 2019/2020 15


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

inferencia transitiva es necesario que las premisas contengan la misma relación y que el término
medio sea el predicado de la primera premisa y el sujeto de la segunda. P. ej.:

Luis es mayor que Juan.


Juan es mayor que Pedro.
En consecuencia, Luis es mayor que Pedro.

Cuando el argumento no tiene la misma relación: “Pedro es menor que Juan”, o por ejemplo, “Pedro
no es mayor que Juan”, se deben aplicar las operaciones de conversión y de reordenación de
premisas. Mediante ello se logra que los términos medios de ambas premisas sean adyacentes. Si la
segunda premisa fuera “Pedro es menor que Juan”, entonces su conversión en “Juan es mayor que
Pedro”, logra que los términos medio se ubiquen en una disposición de contigüidad.

Interesado Hunter en la graduación de la dificultad de los problemas y valiéndose del análisis de los
tiempos de solución, propuso que la aplicación de estas operaciones daba lugar a los distintos
niveles de dificultad de los problemas. Sin embargo, los resultados experimentales no apoyaron
todas las predicciones del modelo operacional. Fue Johnson -Laird y Bara (1984), los que
encontraron que en los silogismos transitivos también ocurría el efecto de la figura, donde al igual
que en el estudio con los silogismos categóricos, el tipo de figura favorecía las conclusiones A – C o
C – A. El nivel de dificultad de los silogismos estaba relacionado con el proceso de integración de la
información en función del tipo de figura u orden de los términos.

3.2. MODELOS BASADOS EN IMÁGENES MENTALES


De Soto, London y Handel (1965), sostienen que el proceso de solución requiere la combinación de
las interpretaciones de las premisas en una representación unitaria y espacial. El Modelo de la
Imagen Mental está basado en la elaboración e interpretación de una imagen del contenido de las
premisas y dificultad depende del tipo de términos relacionales empleados en ellas. La dificultad se

XOSÉ VALES. CURSO 2019/2020 16


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

da por la elaboración de la representación espacial correspondiente a la serie de tres términos. Estos


indican dos principios generales:
• Principio de la preferencia direccional: los sujetos prefieren construir los órdenes espaciales
en determinadas direcciones. En la cultura occidental se prefiere trabajar de izquierda a
derecha y de arriba abajo. Las relaciones se presentan en estos ejes espaciales. El silogismo
será más fácil si la primera premisa contiene en primer lugar el término que se sitúa más
arriba o más a la izquierda. P. ej., la premisa “A es mejor que B” es más fácil que “B es peor
que A”, también es más fácil representar el silogismo: “A es mejor que B” “B es mejor que C”
que “B es mejor que C” “A es mejor que B”.
• Principio de anclaje de los extremos: La construcción espacial será más fácil cuando se
enuncia en primer lugar uno de los dos extremos de los ejes espaciales. Las más fáciles serán
aquellas que procedan de uno de los términos extremos al término medio: “A es mejor que
B” o “B es mejor que C”. Construimos un eje mental marcado por la preferencia direccional
en el que se colocan los tres términos de la serie. Los resultados muestran que esta
disposición espacial se ajusta a las preferencias culturales, (escritura y lectura). Sin embargo,
el principio de anclaje de los extremos sólo parece influir en la segunda premisa. Huttenlocher
(1968), sostiene que en la comprensión de la primera premisa se coloca un término medio
en relación con el otro en la disposición espacial que construyen los sujetos. Comprendida la
segunda premisa, entonces se colocará el tercer término con respecto a los dos anteriores.
Los resultados experimentales mostraron que los silogismos “A es mejor que B, C es peor que
B” (90% de aciertos, 1,41 segundos) y “B es peor que A, C es peor que B” (92% de aciertos,
1.42 segundos) eran semejantes en el número de aciertos y tiempos de solución y más fáciles
que el silogismo “B es peor que A, B es mejor que C” (82% de aciertos, 1.57 segundos).

3.3. EL MODELO LINGÜÍSTICO6


Clark (1969), propone que la inferencia transitiva se basa en representaciones proposicionales y que
la dificultad se debe a factores lingüísticos influyentes en la comprensión. Postula tres principios
generales:
• Principio del marcado léxico7: algunos adjetivos bipolares son asimétricos porque
presuponen uno de los extremos de la escala y otros adjetivos son neutros con respecto a la

6 “Lo importante del modelo lingüístico es que defienden que las representaciones son abstractas en comparación con el modelo de la imagen
que entiende que nuestras representaciones son imágenes. También son importantes sus principios”. ED
7 “Esto se entiende bien con variables tales como la inteligencia. Realmente en cualquier prueba se mide la inteligencia. El extremo, no-inteligente

o tonto digamos que se define a partir de inteligente. De ahí la asimetría de los adjetivos. Con la longitud pasa lo mismo. Medimos lo largo que
es algo, no-largo o corto se define a partir del adjetivo largo. El ejemplo que se suele poner es "crudo"-> no crudo es cocido. No podría existir el
concepto de "cocido" sin crudo. Esto se sabe que es así porque las personas tardamos más en procesar los adjetivos marcados. Se le llama
marcado porque se definiría a partir del otro adjetivo. En el caso de "cocido"="no crudo". Lo mismo ocurre con mejor y peor. La escala "por
defecto" sería lo bueno que es algo, y a partir de ahí se define el otro extremo. En este caso, el marcado sería "peor", de ahí la mayor dificultad
que se ha encontrado en los sujetos. Recuerda que estamos estudiando psicología y la verdad que los adjetivos bipolares nos dice mucho sobre

XOSÉ VALES. CURSO 2019/2020 17


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

magnitud: “A es mejor que B” contiene adjetivo no marcado que expresa distinto grado en
que se comparan A y B con respecto a ser buenos. La premisa “A es peor que B” contiene un
adjetivo marcado que hace que los términos A y B se sitúen hacia un extremo de la escala,
siendo premisa semánticamente más compleja y difícil de procesar (presuponemos que
ambos son malos y no que el enunciado exprese el grado de comparación entre ellos).
• Principio de las relaciones funcionales: sostiene que las relaciones de predicación se
almacenan y se recuperan con prioridad a la información comparativa: “Toyota es mejor que
Audi” se comprende que ambas son buenas y esto se representa de forma comprimida como:
“Toyota es mejor”. Solo representamos que es mejor pero no el grado en que lo es respecto
a Audi. Tenemos también: “A es mejor que B”, “B es mejor que C“ y se representen de forma
comprimida como “A es mejor”, “B es mejor” y “C es menos bueno”. Como la información
del predicado es prioritaria a la información comparativa, en la construcción de la
representación proposicional se
pierde el término medio (B), haciendo
que el problema sea más difícil.
Cuando no se pierde el término
medio, el problema es más fácil,
puesto que la relación entre A y C se
puede extraer directamente de la
representación.
• Principio de la congruencia: la recuperación de la información es más fácil si la
representación de las relaciones funcionales es congruente con la pregunta formulada. Los
silogismos serán más fáciles cuando esté formulada en la misma dirección. P. ej.: A es mejor
que B; B es mejor que C es más fácil cuando dicha pregunta es congruente con la relación:
¿Cuál es el mejor? que cuando no lo es, ¿Cuál es el peor? Este principio se relaciona con la
búsqueda en la memoria y con la dificultad impuesta por el almacenamiento, mientras que
los principios aluden al proceso de comprensión.

Los modelos anteriores explican alternativas del mismo fenómeno, generando una polémica en
torno al modo de representación más adecuado de las premisas. La polémica ha dado lugar a una
ardua investigación experimental siendo la polémica difícil de resolver pues ambos hacen la misma
predicción pero por razones distintas. P. ej., las predicciones del principio de la preferencia
direccional coinciden con las del principio del marcado léxico, ya que la facilidad de la disposición
de arriba a abajo también se encuentra predicha por la facilidad de los términos comparativos no
marcados.

Según Clark, la confrontación es más evidente en las premisas negativas y los datos experimentales
apoyan las predicciones del modelo lingüístico. Las premisas negativas tendrían un equivalente en
la versión afirmativa que daría lugar a las mismas predicciones en el modelo espacial y a predicciones

cómo funciona nuestra mente y procesa información. El adjetivo marcado es la categoría, la altura: alto; la anchura: ancho; la inteligencia:
inteligente. Realmente nos podríamos haber quedado con estos adjetivos solamente e indicar la ausencia de ellos a través de la negación, "no
alto, no ancho, no inteligente", sin embargo, a nuestro cerebro no le gusta la negación y ha preferido tener otras palabras afirmativas. Es muy
interesante.”. ED

XOSÉ VALES. CURSO 2019/2020 18


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

inversas en el modelo lingüístico. P. ej., las premisas negativas “A no es tan malo como B”, “B no es
tan malo como C”, serían equivalentes a las premisas afirmativas “A es mejor que B”, “B es mejor
que C”. Ambos tipos de premisas darían lugar a los mismos resultados, ya que la preferencia para la
construcción de la imagen mental es en ambos casos de arriba hacia abajo. El modelo lingüístico, no
obstante, predice que la estructura lingüística es distinta, siendo las premisas negativas más fáciles
al conservar el término medio en la representación proposicional.

Algunos autores señalan que Clark parte del supuesto de la equivalencia entre las premisas
afirmativa y las negativas pero esta equivalencia puede no existir en el proceso de comprensión,
pues puede que “A no es tan malo como B”, no se interprete como “A es mejor que B”, sino como
“B es peor que A” y entonces la direccionalidad de abajo arriba, y el marcado léxico vuelven a
coincidir en sus predicciones. Tampoco se puede diferenciar el principio de anclaje de los extremos
del modelo espacial, y el principio de congruencia del modelo lingüístico, pues predicen resultados
convergentes, aunque por razones distintas.

El modelo mixto de Sternberg (1980), es un modelo conciliador que reúne aspectos tanto lingüísticos
como espaciales en la explicación del razonamiento con series de tres términos. El procesamiento
de la información lingüística precede a la representación espacial y ambos tipos de representaciones
se encuentran disponibles durante la ejecución de los procesos de búsqueda y recuperación de la
información. La propuesta del modelo mixto intenta integrar los aspectos del modelo lingüístico
relacionados con los adjetivos marcados en la etapa de codificación y los del modelo de la imagen
en la construcción de la disposición espacial en la que los términos se ordenan en la dirección no
preferida. Cuando la segunda premisa es de igualdad negada8, se propone la búsqueda del término
medio si la codificación lingüística de esta premisa tiene como objeto gramatical al término medio.
Localizado este se construye una representación unitaria, situando primero la primera premisa y
luego la segunda. Si la respuesta está en la segunda premisa, la lectura de la respuesta es inmediata.
Si está en la primera, se realizará un recorrido que llevará tiempo. Aun así, es posible que los sujetos
desarrollen distintas estrategias a medida que adquieren experiencia en la solución de los silogismos
transitivos. Durante la tarea experimental, pueden empezar por una representación de las
disposiciones espaciales y a medida que van resolviendo los problemas pueden cambiar a una
representación lingüística o a la inversa. P. ej., si la pregunta se presenta antes que las premisas se
adopta una estrategia lingüística y si la pregunta se presenta después, una estrategia espacial
(Ormrod, 1979).

3.4. LA TEORÍA DE LOS MODELOS MENTALES


La Teoría de los Modelos Mentales (TMM) se encuentra en la línea de los modelos de la imagen
mental. Defiende una representación integrada de la información basada en la construcción de los
modelos mentales y su desacuerdo se centra en la representación proposicional de los modelos
lingüísticos basados en reglas (Ormrod, 1979). Johnson-Laird (1972) señala que la polémica entre
los modelos de la imagen y el lingüístico que los datos experimentales son poco esclarecedores. En
8“Premisas de igualdad negada: "Se pueden introducir también relaciones negativas en una de las dos premisas o en ambas." Es decir, te habla
de cuando la segunda premisa es negada. Como sabe para resolver el silogismo se trabaja sobre la segunda premisa y las operaciones tienen
como objetivo cambiar el término medio (el término que se repite) hasta convertir la figura en una figura 4 y poder resolverlo. Si ya es una figura
4 no habría que hacer ninguna operación”. ED

XOSÉ VALES. CURSO 2019/2020 19


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

la Teoría de los modelos mentales parece que los sujetos construyen un modelo mental de la
situación descrita por las premisas basándose en su conocimiento del significado de los términos
relacionales. Se representa la disposición espacial del contenido y se combinan estos modelos
mentales para llegar a una inferencia sobre las relaciones entre los dos términos no relacionados
explícitamente en las premisas.

Esta teoría predice que la dificultad de los problemas dependerá del número de modelos mentales
que puedan construirse. En los problemas de series de tres términos, la validez y el número de
modelos mentales no se pueden distinguir, ya que los problemas que dan lugar a un modelo mental
son también los que alcanzan una conclusión válida, mientras que no hay conclusión válida en los
problemas que dan lugar a más de un modelo. Byrne y Johnson-Laird 1989, se plantearon el estudio
de las relaciones transitivas con cinco términos en las que la dificultad de los problemas se puede
analizar en función del número de modelos mentales. P. ej.:

Los resultados apoyan las predicciones de la teoría de los modelos mentales frente a las predicciones
del modelo de Hagert (1984) basado en representaciones proposicionales y la aplicación de reglas:
el número de modelos mentales y no el número de reglas determina la dificultad de los problemas.
Hay datos a favor de una representación espacial integrada en las investigaciones sobre la memoria
de trabajo y el razonamiento silogístico. En la teoría de los modelos mentales la sobrecarga de la
memoria de trabajo es una de las fuentes principales de error y a la medida que aumenta el número
de modelos mentales también aumenta la dificultad de los problemas. La memoria de trabajo está
constituida por un procesador central que procesa la información que le llega del almacén
fonológico y el visoespacial. Este último está encargado de retener en la memoria de trabajo la
información visual: color; e información espacial: movimiento. Si se introduce durante la realización
de una tarea de silogismos lineales una segunda tarea que requiera la utilización de este almacén
visoespacial, se esperaría encontrar un deterioro en el rendimiento de los sujetos al producirse una
interferencia en la construcción y elaboración de las disposiciones espaciales en la memoria de
trabajo. Los resultados experimentales han puesto de manifiesto que la introducción de una tarea
visoespacial secundaria interfería en el rendimiento de los sujetos, apoyando de esta forma la
representación de una disposición espacial en el razonamiento silogístico (Klauer, Stegmaier y
Meiser, 1997; Vandierendonck y de Vooght, 1997). No obstante, también conviene señalar que no

XOSÉ VALES. CURSO 2019/2020 20


CAPÍTULO 4. EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

ha quedado demostrado que esta representación espacial se tenga que concretar en una imagen
mental (Clark, 1969a; Newstead, Pollard y Griggs, 1986; Richardson, 1987; Sternberg, 1980).

Versión web Autoevaluación

XOSÉ VALES. CURSO 2019/2020 21


Capítulo 5. EL RAZONAMIENTO CONDICIONAL

REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA,
I. (2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
• Aclaraciones ED (Alf)
CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

1. INTRODUCCIÓN
El razonamiento condicional constituye una de las áreas de investigación más prolífera de la
psicología del razonamiento deductivo. Su estudio se centra en las relaciones contingentes reales o
hipotéticas que vienen enunciadas por medio de los operadores lógicos, “Si, entonces” (implicación
material) y “Si y solo sí, entonces” (equivalencia material). Esta formulación presenta algunas
dificultades cuando se interpreta desde el modelo normativo lógico. Por ejemplo: Manuela nos
habla de su mujer Pepa, y nos comenta que: “si Pepa va a cenar a casa de sus padres, entonces se
queda a dormir”. Cabría esperar lógicamente que la próxima vez que nos diga que Pepa va a cenar
a casa de sus padres pensemos que esa noche se queda a dormir (Modus Ponens). Pero si dice que
Pepa durmió anoche en casa de sus padres, ¿podríamos inferir que anoche también cenó con sus
padres? Si se infiere de esta manera, se cometería un error “la afirmación del consecuente”. Si nos
hubiera dicho que Pepa ayer no cenó con sus padres y hubiéramos inferido que entonces no durmió
en casa de sus padres, estaríamos cometiendo el error de “la negación del antecedente”. Si
sabemos que no se ha quedado a dormir podemos inferir lógicamente que no ha cenado con ellos
(Modus Tollens). Si el comentario hubiera sido: “Si y solo si Pepa va a cenar a casa de sus padres,
entonces se queda a dormir” (equivalencia material), las cuatro inferencias anteriores hubieran sido
válidas.

La estructura lógica de un argumento condicional está constituida por dos premisas y una
conclusión. La mayor contiene un enunciado que une el antecedente (p) con el consecuente (q) por
medio de los operadores “si, entonces”. La convención habitual es designar al antecedente con la
letra p y al consecuente con la letra q. En la premisa menor se puede afirmar o negar el antecedente
o el consecuente para luego obtener una conclusión.

XOSÉ VALES. CURSO 2019/2020 1


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

Una conclusión es deductivamente válida si


se sigue necesariamente de unas premisas
que se asumen que son verdaderas o una
conclusión es válida sólo si es imposible que
su conclusión sea falsa siendo sus premisas
verdaderas. El modus ponens es la inferencia
válida más fácil, frecuente y natural. Si
asumimos que antecedente y consecuente son verdaderos, cabe deducir que cuando se cumple p,
entonces también se cumple q.

El modus tollens es, la inferencia válida más


difícil. Se suele responder indicando que no
hay conclusión. No se suele pensar que el
consecuente es necesario para que ocurra el
antecedente, porque es difícil creer que el
que no ocurra el consecuente implique que
no ocurra el antecedente. Una forma poco
natural de expresar la relación necesaria
sería: “Pepa va a cenar a casa de sus padres, solo si se queda a dormir”. Por tanto, si Pepa no duerme
en casa de sus padres, no ha ido a cenar a casa de sus padres.

Los dos errores habituales en la implicación material son:


• Falacia de la negación del antecedente: concluir que no se cumple el consecuente porque
no se ha cumplido el antecedente.

• Falacia de afirmación del consecuente: concluir que se cumple el antecedente porque se


cumple el consecuente.

XOSÉ VALES. CURSO 2019/2020 2


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

Si Manuela se hubiera expresado con el bicondicional “si y solo si Pepa va a cenar a casa de sus
padres, entonces se queda a dormir” (equivalencia material), las cuatro inferencias anteriores
hubieran sido válidas. No obstante, se interprete el condicional como implicación o como
equivalencia material, las inferencias que son lógicamente válidas presentan también un índice de
dificultad. El modus ponens es una inferencia muy fácil y natural, mientras que el modus tollens es
una inferencia más difícil cuando su interpretación es como implicación material (Johnson-Laird,
Byrne y Schaeken, 1992). En un meta análisis de 65 investigaciones con más de 700 sujetos se obtuvo
que cerca del 97% evaluaban como válidas las inferencias modus ponens, el 74% las inferencias
modus tollens, el 64% la falacia de afirmar el consecuente y el 56% la falacia de negar el antecedente
(Schroyens, Schacken y D'Ydewalle, 2001). La explicación de este nivel de dificultad no puede
basarse en una estricta correspondencia con las reglas de inferencia lógicas. Además, este
intercambio entre una interpretación condicional y bicondicional no ocurre con cualquier
formulación «Si p, entonces q», sino que depende de las distintas funciones semánticas del
condicional (como implicación indicativa, causalidad, advertencia, promesa, permisos, etc.).

La tarea experimental que se plantea habitualmente para el estudio del razonamiento condicional
se ajusta a la estructura normativa. De acuerdo con esta estructura, se presentan las premisas y la
tarea del sujeto puede consistir en evaluar si la conclusión es válida o no, en seleccionar la conclusión
válida entre un conjunto de alternativas o en generar su propia conclusión. Los estudios sobre las
tablas de verdad se diseñan de acuerdo con el modelo normativo pues presenta enunciado
condicional, y se pide al sujeto que evalúe las distintas combinaciones de los valores de verdad de
las proposiciones, premisas y conclusiones o que genere él mismo estas combinaciones. En tareas
de selección se presenta una regla y cuatro tarjetas, que se corresponden cada una con la afirmación
o negación del antecedente y del consecuente. La tarea consiste en seleccionar las tarjetas
necesarias para comprobar si la regla es verdadera o falsa.

2. MODELOS DE REGLAS MENTALES


Los modelos de reglas mentales parten del supuesto de que los sujetos tienen reglas de inferencias
semejantes a las reglas lógicas y que estas reglas se aplican sobre una representación proposicional
de los argumentos condicionales con el fin de obtener o probar la conclusión. No abarcan todo el
conjunto de reglas lógicas, solo las básicas y las que se utilizan de forma natural y sin esfuerzo, como
en el modus ponens. Se parte del supuesto general de que los problemas de razonamiento serán
más difíciles en función del número de pasos comprendidos en el procedimiento de prueba y de las
propias limitaciones de los recursos de procesamiento de la información.

2.1. Modelo de deducción natural de Braine y O´Brien


La falta de correspondencia observada entre la interpretación lógica de los operadores y su
interpretación en el lenguaje natural hace que Braine (1978) se proponga desarrollar un modelo de
deducción natural que intente subsanar esta inconsistencia. Propone que la regla mental básica o
esquema de inferencia del condicional es el modus ponens. Las formulaciones del condicional que
no se ajustan al modus ponens son más difíciles y reflejándose en un número mayor de errores y
tiempos de solución más largos.

XOSÉ VALES. CURSO 2019/2020 3


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

Esta propuesta fue ampliada y revisada en varios trabajos posteriores. En una de las últimas, el
modelo de deducción natural de Braine se basa el razonamiento en reglas mentales. Según este
modelo hay tres componentes:
• Entrada léxica, la cual codifica la entrada de la información lingüística del término “si” en
esquemas de inferencia independientes del contexto. Solo se interpreta su significado. Sería
el que trasforma nuestro lenguaje natural a un lenguaje lógico. Por ejemplo: "en
consecuencia, si hay una B, entonces hay una C" se convierte en:

B (suposición)
-------------------
C (conclusión)
• Programa de razonamiento, que es el programa que aplica los esquemas de inferencia para
obtener si una conclusión es o no válida. Los esquemas de inferencias son reglas básicas y
universales, por ejemplo, el modus ponens, otro ejemplo sería la doble negación.
• Procesos de comprensión pragmática. El tercer componente sería donde se vuelve a
trasformar el lenguaje lógico a lenguaje natural y se aplica la pragmática. El programa de
razonamiento está constituido por rutinas que dan lugar a un razonamiento directo.
Interpretan el condicional según sea el contexto en que ocurra.

Los esquemas de inferencia para la codificación del término lingüístico “si” son el modus ponens y
un esquema para la demostración condicional. El modus ponens concreta la conclusión que se
puede inferir a partir de la información que se tiene: permite concluir “q” a partir de las premisas
“Si p entonces q” y “p”. P. ej., el esquema de inferencia para el modus ponens especifica que se
obtiene la conclusión «voy al cine» a partir de las premisas “Si llueve, entonces voy al cine” y “llueve”.
El esquema para la demostración del condicional permite evaluar la validez del argumento. Este
esquema permite saber si podemos afirmar que “Si p entonces q” a partir de cualquier proposición
“q” que se siga de la suposición “p”. Siguiendo con el ejemplo anterior, este esquema permitiría
demostrar que “Si llueve, entonces voy al cine” cuando voy al cine bajo el supuesto hipotético de
que llueva. Esta regla permite introducir suposiciones en el procedimiento de prueba siempre y
cuando éstas sean consistentes con las premisas, evitando así caer en contradicciones dentro del
propio argumento. Braine et cols. (1984) proponen un repertorio de 18 esquemas de inferencias del
razonamiento deductivo que son reglas básicas y universales. La utilización de estos esquemas de
inferencia está determinada por un programa de razonamiento.

El programa de razonamiento está constituido por rutinas que dan lugar a razonamiento directo y
estrategias que producen el razonamiento indirecto. Las rutinas son comunes a todos los sujetos
y con poco esfuerzo. Buscan aplicar emparejamiento entre los esquemas de inferencia y la forma de
las proposiciones que constituyen las premisas del argumento. En el caso del condicional, el
emparejamiento ocurre entre el modus ponens y las premisas “si p entonces q” y “p”. En el caso de
tener que generar conclusión “q” (voy al cine), y en el caso de que esta conclusión formara parte de
una cadena de razonamiento, entonces la inferencia se incorporará en el conjunto de premisas con
las que se está trabajando.

XOSÉ VALES. CURSO 2019/2020 4


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

Cuando se tiene que evaluar la validez de un argumento, se comprueba si existe una


correspondencia o una contradicción entre las proposiciones del conjunto de premisas y la
conclusión. El emparejamiento entre un esquema de inferencia y una proposición es el mismo, pero
la inferencia que se obtiene pasa a formar parte del conjunto de premisas y se comprueba su
consistencia o contradicción con la conclusión del argumento. P. ej.:

Como la conclusión del argumento es un condicional…


• Primer paso: considerar al antecedente de la conclusión (hay una B) como una suposición
dentro del conjunto de premisas y al consecuente como la conclusión que va a ser evaluada
(hay una C).
• Segundo paso: se aplica uno de los esquemas de inferencia básicos para poder reformular la
premisa menor “Es falso que no hay una A” (F[F{p)]) en “Hay una A” (p).
• Tercer paso: se infiere “Hay una A y una B” (p ꓥ q) a partir de la suposición “Hay una B” (q)
y la última inferencia “Hay una A” (p). El resultado de esta inferencia coincide con el
antecedente de la premisa mayor. Con la aplicación del modus ponens se obtiene “No hay
una C” (q) a partir de la premisa mayor “Si hay una A y una B, entonces no hay una C” (Si p
entonces q) y el resultado de la última inferencia “Hay una A y una B” (p).
• Cuarto paso: el argumento se evalúa como inválido al encontrar que el resultado de la última
inferencia “No hay una C” (q) es incompatible con la conclusión “Hay una C” del argumento
que se está evaluando.

Para poder explicar tanto las falacias de negar el antecedente y afirmar el consecuente como la
inferencia del modus tollens se recurre al componente de comprensión pragmática. Según este
componente, cuando los sujetos interpretan “Si p entonces q” también añaden las inferencias
invitadas (sugeridas por el contexto) “Si no p, entonces no q”. Esta interpretación se corresponde
con el bicondicional (si y solo si p, entonces q) y viola la prescripción lógica del compromiso mínimo
que limita la interpretación a lo que explícitamente viene expresado en las premisas (si p, entonces
q). Para explicar la inferencia lógica correcta del modus tollens también se recurre a las inferencias
invitadas del bicondicional, pero en este caso se obtiene una conclusión válida por una
interpretación equivocada. La falta de respuesta o la mayor dificultad del modus tollens en la

XOSÉ VALES. CURSO 2019/2020 5


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

interpretación del condicional como implicación material se explica porque esta regla no forma
parte de los esquemas de inferencia básicos 1. Para poder obtener una conclusión válida se tendría
que utilizar la reducción al absurdo. Para ello haría falta partir de una suposición que derive en una
contradicción para así poder concluir que la suposición inicial es falsa: si p es verdadera, entonces q
tiene que ser verdadera, pero q es falsa, luego p tiene que ser falsa. Estas predicciones del modelo
se ajustaron a los resultados experimentales encontrados en diversos trabajos sobre el condicional
(O'Brien y Overton, 1982; O'Brien y Shapiro, 1968; Rumain, Connell y Braine, 1983; Shapiro y O'Brien,
1970).

Cuando las rutinas de razonamiento directo fracasan, el modelo también cuenta con estrategias de
razonamiento que no son universales, dando lugar a la existencia de una amplia gama de diferencias
individuales entre las estrategias que pueden utilizar los sujetos. Estas estrategias de razonamiento
pueden ser procesos heurísticos, como la transferencia del problema a otros procedimientos de
razonamiento, por ejemplo, el razonamiento analógico o probabilístico o esquemas previamente
aprendidos que se activan por el contexto o el contenido del problema.

2.2. Teoría Psycop (psicología de la prueba) de Rips


Rips (1994) propone la Teoría Psycop2. Esta fue desarrollada de su modelo computacional ANDS3, el
cual explica la deducción como un proceso de prueba mental constituido por tres componentes:
• Estructuras de memoria.
• Gestor para el control de la aplicación de reglas.
• Reglas mentales de inferencia.

Se parte de la idea de que las reglas mentales se utilizan para la generación y comprobación de una
prueba mental en la memoria de trabajo bajo el control de un gestor encargado de la correcta
aplicación dichas reglas mentales. La dificultad sería explicada por el número y tipo de reglas
mentales y los errores por aquellos factores que impiden la aplicación de las rutinas (limitación MT,
ausencia de la regla apropiada...).

El procedimiento de prueba consta de una jerarquía de asertos (árbol de asertos) que incluye las
premisas y proposiciones que se derivan de las mismas; y otra jerarquía de submetas (árbol de
submetas) que incluye la conclusión y las proposiciones que la garantizan. Las reglas de inferencia
van colocando estas premisas en ambas configuraciones y se prueba el argumento cuando se da un
emparejamiento entre submetas y asertos. Hay dos tipos de reglas:
• Reglas hacia delante: derivan las implicaciones desde las premisas a la conclusión.

1 “Según el modelo de deducción natural de Braine y O´Brien, ¿cómo las personas hacen las cuatro inferencias que se derivan del condicional?

Las personas tendríamos una regla por defecto, el modus ponens, de ahí que se resuelva por la mayoría de las personas y de forma rápida. ¿Cómo
inferimos entonces las otras inferencias modus tollens, negación del antecedente y afirmación del consecuente? Se recurre a la pragmática, el
contexto de la frase. Según este componente, cuando los sujetos interpretan «si p entonces q» también añaden las inferencias invitadas
(sugeridas por el contexto) «si no p, entonces no q». Esta interpretación se corresponde con el bicondicional (si y solo si p, entonces q).
Evidentemente esta interpretación limita el significado del condicional al no incluir la implicación material, de ahí que la mayoría de las personas
entiendan el condicional como bicondicional, no como implicación material. Después dice que las personas dicen correctamente que la inferencia
del modus tollens es válido, pero, aunque la respuesta es correcta han utilizado una interpretación equivocada”. ED
2 PSYCOP es un acrónimo en inglés de las palabras psychology of proof (psicología de la prueba)
3 ANOS es un acrónimo en inglés de las palabras a natural deduction system (un sistema de deducción natural).

XOSÉ VALES. CURSO 2019/2020 6


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

• Reglas hacia atrás: son para comprobar la validez del argumento y van desde conclusión a
premisas.

En algunos argumentos se requiere la utilización de un tipo de reglas (mayor nivel de dificultad) en


otros de ambos, aumentando la complejidad o bien, puede haberlos donde no hay conclusión.
Se coloca la premisa en la parte superior del árbol de asertos, y la conclusión en la parte superior
del árbol de submetas, pudiendo vincularse con otras submetas cuya verdad garantiza la verdad de
la conclusión. El modelo también utiliza suposiciones para asumir que una proposición es verdadera
y así generar inferencias adicionales. Éstas se colocan en nodos subordinados del árbol de asertos.
¿Cómo razonamos según la teoría
Psycop? En este caso, el modelo
propone que se parte por un lado de las
premisas (árbol de asertos) y por otro
lado la conclusión (árbol de submetas).
Si hay emparejamiento entre ambos, la
inferencia es válida, es decir, la
conclusión se puede inferir de las premisas.
• Primero, colocamos las premisas en el árbol de asertos: "Si no hay una M o no hay una P en
la pizarra, entonces hay una R".
• Colocamos la conclusión en el árbol de submetas: "si no hay una M, entonces hay una R".
• Asumimos que el antecedente de la conclusión es verdadero "No hay una M" (coincide con
la segunda premisa).
• Entonces asumimos que el consecuente de la conclusión también es verdadero "Hay una R".
• Se ubica una nueva submeta para probar "No hay una M".
• Como la submeta 5 coincide con el aserto 3 se asume que "Hay R"

La coincidencia de ambos árboles indicaría la validez


del argumento4.El modelo evaluará como inválido un
argumento cuando no haya reglas que permitan
encontrar el emparejamiento entre submetas y
asertos. Hay dos tipos de reglas de inferencia:
• Las reglas hacia adelante son aquellas que
parten de las premisas hasta la conclusión. Por
ejemplo:
Si p entonces q. p (estas son las
premisas que se ponen en el árbol de
asertos).
Se infiere q en el árbol de asertos (sería
el modus ponens hacia adelante).

• Las reglas hacía atrás, son las que van desde la conclusión hasta las premisas. Por ejemplo:

4 “No hay que saber cada paso, sino la idea de que el pensamiento se basa en reglas mentales y el procedimiento básico general”. ED

XOSÉ VALES. CURSO 2019/2020 7


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

Ahora nos han presentado como premisa "si p, entonces q" (y lo coloco en árbol de
asertos).
La conclusión es q (árbol de submetas). En este caso, la regla del modus ponens hacia
atrás se aplica en el árbol de submetas e infiero "p". Ahora tenemos una
correspondencia entre el árbol de asertos y árbol de submetas.

Los argumentos inválidos son aquellos en los que la conclusión no se infiere de las premisas. El
sistema está preparado para buscar siempre ese emparejamiento. Sin embargo, las personas
detectan de forma inmediata que "A. Entonces no A" no pueden ser a la vez y descartan
inmediatamente la contradicción. Sin embargo, el sistema no es capaz de hacer esto de forma
directa e inmediata pues tiende a hacer inferencias hasta emparejar ambos árboles de asertos y
submetas.

Este modelo explica el proceso de razonamiento condicional como la generación de una prueba en
la memoria de trabajo en la que se admiten suposiciones. No tienen que ser necesariamente
verdaderas. El árbol de asertos reúne los pasos lógicos que conducen desde las premisas a la
conclusión y el árbol de submetas guía el proceso desde la conclusión a las premisas. Las reglas son
sensibles a las metas del sistema.

Rips formula catorce reglas de inferencia hacia atrás y diez reglas hacia adelante, que se aplican en
un orden de preferencia que empieza por las sencillas (conjunto no definido que tampoco abarca a
todo el conjunto posible, pero sí puede manejar un amplio conjunto de argumentos y su
plausibilidad psicológica viene dada por los propios protocolos verbales de los sujetos) De este
conjunto dos son Modus Ponens: hacia adelante y hacia atrás. La regla del MP hacia adelante
permite inferir “q” si en el árbol de asertos se encuentran las pro- posiciones “si p, entonces q” y
“p”. La regla del MP hacia atrás se aplica sobre el árbol de submetas para aquellas situaciones en las
que las condiciones iniciales tienen como meta deducir “q” y “cuentan con el aserto “si p, entonces
q” y en este caso el sistema genera la submeta “p” y se infiere “q” que es el consecuente de la
proposición del árbol de asertos.

El modelo no cuenta con procedimiento directo para la detección de los argumentos inválidos. Un
argumento es inválido sólo si no se pueden encontrar reglas para probarlo. El análisis de protocolos
verbales muestra que los sujetos también evaluamos un argumento inválido de forma directa y sin
necesidad de realizar una búsqueda exhaustiva. Existen al margen varias perspectivas teóricas que
no están de acuerdo con el acento lógico de estos modelos y sus críticas subrayan la falta de
explicación de los efectos del contenido sobre el proceso de razonamiento.

3. TEORÍA DE LOS MODELOS MENTALES


3.1. Modelos mentales del condicional
La teoría de los Modelos Mentales (TMM) (Johnson-Laird, 1983; Johnson-Laird y Steedman, 1978)
constituye un marco teórico general del razonamiento deductivo. Comprende tres etapas:
• Comprensión: el sujeto utiliza su conocimiento sobre el lenguaje y su conocimiento en
general para construir un modelo mental.

XOSÉ VALES. CURSO 2019/2020 8


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

• Combinación de los modelos mentales construidos a partir de las premisas con el fin de
generar una descripción lo más sencilla posible de estos. Debe enunciar algo que no esté
explícito en premisas y es la conclusión tentativa del argumento.
• Validación: donde se buscan modelos alternativos de las premisas que puedan falsar la
conclusión.

La TMM logra explicar mayor número de resultados experimentales sobre la dificultad de los
problemas en términos de la cantidad de procesamiento y de las limitaciones de la memoria de
trabajo.

De acuerdo con la teoría, la interpretación de un enunciado condicional, si p entonces q, dependerá


de su significado lingüístico y del contexto. El modelo mental describirá el estado actual de aquello
que viene descrito en el antecedente y la relación del consecuente con el antecedente que se
presupone en ese contexto. Por ejemplo, en el condicional ”Si Juan va a Barcelona, entonces viaja
en avión” el antecedente representa la posibilidad de que Juan viaje a Barcelona y el consecuente
representa lo que es verdad cuando ocurre el antecedente, que viaja en avión. Este modelo mental
inicial representará de forma exhaustiva el antecedente y representará al consecuente sólo en su
relación con el antecedente. Una representación exhaustiva viene indicada por un corchete. Esta
representación exhaustiva del antecedente es fruto de la interpretación de que “p” no puede
representarse en otra situación que no sea aquella en la que se relaciona con “q”. Sin embargo, “q”
puede darse en otros modelos mentales con o sin “p”. Los tres puntos situados por debajo de este
modelo mental inicial representan otros modelos posibles (modelos implícitos) que no se
encuentran representados, pero que pueden hacerse explícitos5 cuando no se obtiene una
conclusión a partir del modelo inicial. Al aumentar el número de modelos explícitos también
aumenta la carga de procesamiento en la memoria de trabajo. Teniendo en cuenta que «q» no se
encuentra exhaustivamente representado,
los modelos implícitos pueden desarrollarse
o desplegarse en modelos explícitos de dos
formas distintas, que se corresponden con la
interpretación del condicional como
implicación material y como equivalencia
material (bicondicional).

Las inferencias deductivas que se pueden obtener a partir de la representación del modelo mental
inicial serán las más fáciles. Como podemos observar en el modelo mental inicial, la inferencia
modus ponens es directa y, por tanto, la más fácil. Por ejemplo, saber que «Si Juan va a Barcelona,
entonces viaja en avión» y conocer que Juan va a Barcelona, permite concluir con facilidad que viaja

5“Las personas cuando escuchan un condicional: "si estoy en casa, entonces evito el coronavirus". Representan generalmente un modelo inicial
para comprenderlo: Estoy en casa y evito el coronavirus. ..... (modelos implícitos).
Se representa con "puntos suspensivos" los modelos implícitos. Esto significa que nosotros, aunque representamos un sólo modelo explícitamente,
hay otros modelos implícitos del condicional, pero generalmente no lo representamos debido a nuestra memoria limitada. Esto no significa que
nosotros podamos representar explícitamente todos los modelos mentales del condicional:
MODELOS EXPLÍCITOS:
1. Estoy en casa y evito el coronavirus. 2. No estoy en casa y no evito el coronavirus. 3. No estoy en casa y evito el coronavirus”. ED

XOSÉ VALES. CURSO 2019/2020 9


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

en avión. También como se observará, el modelo mental inicial es el mismo tanto para el condicional
como para el bicondicional, lo que explicaría la ambigüedad encontrada en su interpretación.

Sin embargo, cuando se plantea una inferencia modus tollens, por ejemplo, saber que “Si Juan va a
Barcelona, entonces viaja en avión” y conocer que Juan no viaja en avión “¬q”, no se puede obtener
una conclusión directa del modelo inicial. En este caso hace falta desplegar los modelos implícitos.
Podemos ver que la inferencia modus tollens para la implicación material requiere tres modelos
explícitos y para la equivalencia material tan solo dos. A medida que aumenta el número de modelos
mentales explícitos también aumenta la dificultad del problema. Como los diferentes niveles de
dificultad de las inferencias dependen del número de modelos mentales explícitos, se pueda explicar
también que la inferencia modus tollens sea más fácil en el bicondicional que en el condicional y
que no existan diferencias en el modus ponens al compartir ambas interpretaciones el mismo
modelo mental inicial (Johnson-Laird, Byrne y Schaeken, 1992).

El modelo mental inicial del condicional también


explica por qué los sujetos parecen ajustarse a una
tabla de verdad defectiva al considerar irrelevantes
aquellos condicionales en los que el antecedente es
falso.

El modelo inicial solamente representa lo que es verdadero. Esto se ajusta a los resultados
experimentales que muestran la irrelevancia psicológica de un antecedente falso porque el modelo
mental inicial es precisamente una representación exhaustiva del estado actual de cosas descritas
en el antecedente. Para cualquier otra inferencia que no sea modus ponens habrá que generar los
modelos mentales explícitos. El conocimiento general y el conocimiento de las relaciones entre
antecedente y el consecuente influyen sobre este proceso de interpretación dando lugar a la
generación de los modelos explícitos.

Las falacias de afirmar consecuente y negar antecedente se explican por la generación de los
modelos mentales explícitos: Los sujetos representan exhaustivamente tanto el antecedente como
el consecuente [p], [q] y cuando se afirma el consecuente [q] se produce también la afirmación del
antecedente [p]. La falacia de la negación del antecedente ocurre menos frecuente pues requiere
de otro modelo mental explícito: [¬p], [¬q], que da lugar a la inferencia ¬q.

Una de las críticas al modelo de reglas mentales es que acomodan los efectos del contenido a un
componente para la comprensión de los enunciados, manteniendo intacta la estructura formal de
las reglas. Considerando que una de las reglas básicas es el modus ponens, Byrne (1989) demostró
que esta inferencia se podía suprimir o bloquear por el contenido, y así se puede descartar que esta
inferencia se haga por la aplicación de una regla que se supone básica e independiente del
contenido.

Para el diseño de la tarea experimental, Byrne se inspiró paradójicamente en el trabajo de Rumain,


Connell y Braine (1983), que logró bloquear las falacias de la negación del antecedente y la

XOSÉ VALES. CURSO 2019/2020 10


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

afirmación del consecuente introduciendo una premisa adicional que establecía un antecedente
alternativo para el mismo consecuente. P. ej., acompañando a un enunciado como “Si voy a jugar al
tenis, entonces me pongo el chándal” se presenta una premisa adicional como “Si voy a hacer
footing, entonces me pongo el chándal”. Al introducir esta premisa adicional, los sujetos se dan
cuenta de que la negación del antecedente no implica la negación del consecuente (me puedo poner
el chándal, aunque no vaya a jugar al tenis) y que la afirmación del consecuente no implica la
afirmación del antecedente (si me pongo el chándal no tengo que jugar necesariamente al tenis).
Sin embargo, mientras que el objetivo de Ruma y cols. era demostrar que los sujetos no tienen reglas
mentales para estas falacias, Byrne fue mucho más lejos al plantear que no había ninguna regla
mental, ni la del modus ponens. Para ello siguió un procedimiento semejante en el que se introducía
una premisa adicional, pero a diferencia del estudio anterior, no se introducía un antecedente
alternativo, sino otro antecedente necesario para que se cumpla el consecuente. P. ej.,
acompañando a un enunciado como “Si salgo a hacer footing, entonces me paso por tu casa” se
presenta otra premisa como “Si es una hora prudente, entonces me paso por tu casa”. En este caso,
la premisa adicional que se introduce informa que hace falta otro antecedente para que se cumpla
el consecuente, de modo que cuando se presenta la premisa “Salgo a hacer footing” los sujetos no
hacen la inferencia modus ponens y responden que no se sabe o que no se puede concluir nada.
Este resultado no cuestiona que se hagan inferencias modus ponens, sino que existan reglas de
inferencia modus ponens que se aplican independientemente del contenido.

Politzer y Braine (1991) señalan que lo dicho por Byrne no es adecuado. Los autores defienden que
la interpretación que harían los sujetos de las dos premisas sería “Si salgo a hacer footing y si es una
hora prudente, entonces me paso por tu casa”, pero también uno puede decidir no pasar.
Admitiendo la réplica de estos autores, la Teoría de los modelos mentales es más completa ya que
logra predecir y explicar un mayor número de resultados experimentales que los modelos de reglas.
Braine (1993) sugiere que se puede razonar tanto con reglas de inferencia como con modelos
mentales y que los modelos metales son compatibles con su teoría. Además, comenta que cualquier
teoría que pretenda dar una explicación completa de los procesos de inferencia deberá contar con
una subteoría de los modelos mentales.

3.2. La modulación semántica y pragmática


La teoría de los modelos mentales reconoce que el conocimiento y la comprensión semántica y
pragmática forman parte de la primera etapa de comprensión. Johnson-Laird y Byrne (2002),
amplían la teoría para poder explicar los diferentes significados del condicional por medio de su
modulación. El consecuente depende de alguna forma del antecedente y esta dependencia puede
tener distintos significados según el contexto en que ocurra (relación de implicación, causal,
temporal, permisos, obligaciones…) El significado central del condicional se corresponde con dos
condicionales básicos:
• La interpretación condicional (modelos mentales).
• La interpretación tautológica, la cual se expresa como “si p, entonces posiblemente q”.

El antecedente es una descripción de una posibilidad y el consecuente es la descripción de lo que


puede ocurrir es esa posibilidad. La interpretación condicional expresa que el antecedente es

XOSÉ VALES. CURSO 2019/2020 11


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

suficiente para que ocurra el consecuente y que el consecuente es compatible con todas las
posibilidades.

En la interpretación tautológica hay dos modelos


mentales iniciales para representar la posible
ocurrencia y no ocurrencia del consecuente. Donde
“Si me ponen en cuarentena, entonces
posiblemente pase esos días en la playa”, dando pie
a la ocurrencia como a la no ocurrencia. Admite la
representación de ambas posibilidades.

El mecanismo de modulación semántica y pragmática interviene sobre el significado de estos


condicionales básicos dando lugar a un número indeterminado de distintos tipos de
interpretaciones. A consecuencia de ello se puede bloquear la generación de algunos modelos
mentales. Esta modulación facilita el despliegue de los modelos explícitos. Los sujetos utilizaban sus
conocimientos para hacer una inferencia modus tollens. Se encontró que la conclusión “Luis no se
encuentra en Madrid” (¬p) se generaba fácilmente a partir de “Si Luis se encuentra en Madrid (p),
entonces está en cuarentena” (q) y “Luis no está en cuarentena” (¬q).

En otros casos la modulación semántica y pragmática añade información sobre la relación entre
antecedente y consecuente. Al contrario que la lógica, este mecanismo puede generar un número
indeterminado de distintos tipos de interpretaciones porque cuando se interpreta un condicional
en el lenguaje natural se están considerando las posibilidades de ocurrencias y no los valores de
verdad de las aserciones

4. MODELOS DE REGLAS PRAGMÁTICAS


La tarea de selección de Wason (1966) ha sido una de las pruebas más utilizadas para la mayoría de
las investigaciones sobre los efectos del contenido y el desarrollo de las Teorías y modelos con
componentes sensibles a este contenido. Es la tarea paradigmática del condicional. Se presenta
contenido abstracto y el procedimiento consistía en presentar 4 tarjetas con letras por una cara y
los números por la otra. Se acompaña de un enunciado condicional en forma de regla y se pedía a
los sujetos que dieran la vuelta a la tarjeta o tarjetas que fueran necesarias para determinar si la
regla es verdadera o falsa.

Como puede verse, de estas cuatro tarjetas,


dos presentan letras, una consonante y una
vocal (“p” y “¬p”) y las otras dos tarjetas
presentan números, un número impar y otro
par (“q” y “¬q”). La mayoría de los sujetos
seleccionan la tarjeta que se corresponde con
el antecedente del condicional, en nuestro
ejemplo la letra P, o bien seleccionan las dos
tarjetas que se corresponden con el

XOSÉ VALES. CURSO 2019/2020 12


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

antecedente y el consecuente, la letra P y el número 7. Sin embargo, de acuerdo con el modelo


normativo la respuesta correcta sería la elección de la letra P, que permitiría confirmar la regla
(modus ponens), y el número 2, que permitiría falsaria (modus tollens).

Al dotar de contenido a la tarea se encontró que


el rendimiento de los sujetos mejoraba
significativamente pues estos seleccionaban las
tarjetas correctas para confirmar y falsar el
enunciado condicional.

Pronto se puso de manifestó que no era el


contenido concreto frente al contenido abstracto
el responsable de este efecto de facilitación, sino
que este contenido fuera conocido por los sujetos. Su explicación estaba basada en el repertorio de
conocimientos del sujeto y el rendimiento correcto se interpretó como un proceso de memoria y no
como aplicación de reglas lógicas. No obstante, algunos problemas con contenido concreto, pero no
familiar seguían produciendo facilitación. Además, el contexto en el que se formulaba la tarea
permitía resolver correctamente los problemas y estos resultados indicaban que la presentación de
la misma con contenidos familiares no era suficiente para explicar en todos los casos la facilitación,
por tanto, algunas alternativas advirtieron de procesos de razonamiento específicos del dominio de
conocimiento y que están marcados por el contexto.

4.1. Esquemas de razonamiento pragmático


Cheng y Holyoak (1985), proponen que los sujetos utilizan esquemas de razonamiento que definen
como una estructura de conocimiento constituida por un conjunto de reglas con un nivel intermedio
de abstracción definido por el contexto. Estos esquemas contienen reglas que son sensibles a
diferentes clases de metas y se entiende que las respuestas serán correctas en la medida en que
sean de mayor utilidad para la situación en la que se encuentra el sujeto. Los aspectos pragmáticos
del razonamiento son los encargados de encaminar el proceso de inferencia y será la experiencia
ante un conjunto de situaciones con una misma clase de metas la que irá conformando los esquemas
concretos. Si se presenta problema con contenido abstracto y los sujetos tienen conocimientos
sobre el razonamiento formal se puede resolver correctamente y en caso de no tenerlos, recurren
a otro tipo de estrategias, muchas veces desencadenantes de sesgo de razonamiento.

El modelo identifica unos esquemas de regulación constituido por permisos y obligaciones bajo los
cuales se pueden agrupar la mayoría de los problemas con contenido temático. Estos esquemas
hacen explícitas situaciones en las que para alcanzar una meta hace falta cumplir unos requisitos.
Los componentes incluyen los conceptos de posibilidad, necesidad, acción y los requisitos que se
han de cumplir.
Estas reglas no son reglas lógicas6 pues son sensibles al contexto y a la interpretación de los términos
“puede” y “debe”. Además, no siempre hay coincidencia entre los esquemas de razonamiento

6 “Según este modelo nos manejamos con una serie de reglas pragmáticas que permitirían resolver la tarea de Wason mejor. Destacan cuatro

reglas: -Regla 1: Si se va a realizar una acción, entonces debe satisfacerse la precondición. Esta regla responde al modus ponens y establece que

XOSÉ VALES. CURSO 2019/2020 13


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

pragmático y las reglas lógicas (Los problemas con


relaciones causales y de covariación pueden evocar
esquemas de razonamiento distintos a los
propuestos para las situaciones con regulaciones y se
explica porque los esquemas pueden variar en
función de las metas del sujeto. Cuando el contexto
se ajusta a una situación de regulación en la que la
autoridad pone condiciones para alcanzar un
determinado objetivo, los esquemas serán los de
permiso y obligación, pero si el objetivo es la
predicción sobre la transición entre estados del
ambiente, se evocarán los esquemas causales. Así se
puede explicar el cómo los sujetos interpretan como
una equivalencia material las relaciones causa efecto
y covariaciones.

Los resultados de Cheng y Holyoak (1985) mostraron


que los sujetos resolvían correctamente la tarea de
selección siempre y cuando tuvieran las claves
contextuales para interpretar la regla como un
permiso. Los sujetos sin experiencia en el contexto
acertaban en la tarea con contenido, así como que cuando se da entrenamiento en los esquemas,
aunque sean abstractos, produce efectos facilitadores.

A partir de la propuesta de los esquemas de razonamiento pragmático, se han desarrollado varias


investigaciones con el fin de contrastar sus predicciones. En esta línea se encuentran los trabajos de
Girotto y cols. que están encaminados a ampliar la evidencia a favor de los esquemas de
razonamiento pragmático en niños. Los resultados que obtienen ponen de manifiesto que incluso
los niños que se encuentran en el estadio de las operaciones concretas pueden resolver
correctamente la tarea de selección si ésta les permite evocar un esquema de permiso. Por ejemplo,
Girotto, Light y Colbourn (1988) abordan el estudio del razonamiento condicional con una versión
adaptada de la tarea de selección para niños entre 9 y 10 años. Los resultados muestran que se
produce el 70% de soluciones correctas bajo las condiciones experimentales evocadoras de
esquemas en comparación con el 11 % de soluciones correctas producidas en la condición formal
(no evocadora de esquemas). En otro estudio, Light, Blaye, Gilly y Girotto (1989) encuentran que

si se da el antecedente (la causa), el consecuente debe darse. - La Regla 2: Si la acción no se va a realizar, entonces no necesita satisfacerse la
precondición. Esta regla nos ayuda a no cometer la falacia de la negación del antecedente, o la bloquea, porque hace explicito que, si no se realiza
la acción, es irrelevante la precondición. Recuerda que cuando el antecedente (o la causa) no se produce, no sabemos si se produce o no el
consecuente. -La regla 3: "Si se satisface la precondición, entonces puede realizarse la acción" bloquea la falacia de la afirmación del consecuente
porque una vez más hace explícito que cuando se produce el consecuente, entonces puede (o no) producirse el antecedente. De esta manera
bloquea la falacia de la afirmación del consecuente porque la regla hace explicita que cuando se da el consecuente, el antecedente puede (pero
no debe necesariamente) darse. Esta regla nos facilita para no cometer esta falacia.
- La regla 4 "si no se satisface la precondición, entonces no debe realizarse la acción" está formulando el modus tollens, nuevamente indica que
si no se produce el consecuente, el antecedente no debe darse. Teniendo estas reglas en mente nos ayudarían a realizar las inferencias
correctamente”. ED

XOSÉ VALES. CURSO 2019/2020 14


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

incluso los niños en edades comprendidas entre 6 y 8 años mejoran significativamente su


rendimiento cuando los problemas se presentan como esquemas de permiso. Los resultados de esos
experimentos pusieron de manifiesto que la plausibilidad del contexto en el que se enmarca una
regla de permiso interactúa con su contenido para la obtención de los efectos de facilitación en la
tarea de selección.

Aunque se reconoce el avance que han supuesto las aportaciones de la teoría de los esquemas de
razonamiento pragmático para la identificación de las condiciones que producen facilitación en la
tarea de selección, no todos están de acuerdo con los aspectos teóricos de esta explicación. Frente
a los esquemas de razonamiento pragmático surge una propuesta enmarcada en una teoría de
amplio espectro también preocupada con los aspectos pragmáticos del razonamiento humano, pero
desde una concepción evolucionista y social.

4.2. Teoría de los contratos sociales


La Teoría del Intercambio Social (evolucionismo cultural) desarrollada por Cosmides (1989), propone
una interpretación alternativa de los efectos de facilitación obtenidos con la tarea de selección de
Wason. Es semejante en algunos aspectos a la Teoría de los esquemas de razonamiento pragmático,
mantienen que los sujetos utilizan reglas de inferencia apropiadas al dominio sugerido en el
problema y estas inferencias pueden ser diferentes para distintos dominios de contenido. Se
diferencian en el tipo de reglas inferenciales que proponen y su origen. Para unos los esquemas de
razonamiento pragmático se originan por la experiencia, mientras que en la teoría de los contratos
sociales son innatas. Cosmides postula que su teoría es una aproximación entre la moderna biología
evolucionista y la ciencia cognitiva. El enfoque evolucionista asume que la mente humana
comprende un conjunto de mecanismos de procesamiento en el sistema nervioso y que estos son
producto de la selección natural y están funcionalmente especializados para producir conductas
determinadas (lenguaje, relaciones familiares y cooperación).

Hay leyes que son inherentes al proceso de selección natural y que gobiernan y limitan el tipo de
conducta. La solución adaptativa para las situaciones de intercambio social son unos algoritmos de
contrato mediante los cuales un individuo está obligado a pagar un coste a un individuo o grupo si
quiere tener derecho a recibir un beneficio. Ello se da con el compromiso por parte de ambas partes
y cierta garantía de cumplirse. Detectan cuando alguien ha engañado o lo intenta. Contenido de la
tarea adaptada a la estructura coste/beneficio de forma que las cuatro tarjetas enuncian las
situaciones:

El procedimiento para la detección del posible


engaño daría lugar a que el sujeto eligiese las
tarje- tas “coste no pagado”(¬q) y “Beneficio
aceptado” (p), ya que permitirían detectar a los
tramposos, y así ignorarse las tarjetas “coste
pagado” (q) y la “beneficio no aceptado”(¬p).
Como puede verse, las respuestas de los sujetos
coinciden con los dictámenes de la lógica. Estos

XOSÉ VALES. CURSO 2019/2020 15


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

algoritmos de contrato social operarán también con normas no familiares siempre y cuando el sujeto
perciba que representan una estructura coste/beneficio. Además, las normas que no sean contratos
sociales no mostrarán el patrón de respuestas previamente expuesto.

Según Cosmides y Tooby, (1989) los resultados obtenidos por Cheng y Holyoak (1985) no
constituyen un apoyo a la teoría de los esquemas de razonamiento pragmático, sino que los efectos
facilitadores de este experimento se debieron a que se añadió información contextual que
convirtieron las normas de permiso en contratos sociales. Las predicciones de la teoría del
intercambio social fueron sometidas a diversas pruebas experimentales de acuerdo con la
formulación de la tarea de selección de Wason. Los problemas utilizan contenidos imaginarios que
se presentan en el contexto de una historieta, como, por ejemplo, el problema de la raíz de
“cassava” y el problema del huevo de avestruz.

Cuando los sujetos razonan acerca de las situaciones con la estructura coste/beneficio sus
respuestas se ajustan a las predicciones del procedimiento para la detección del engaño. Cheng y
Holyoak (1989) rebaten la crítica de Cosmides a su primer experimento señalando que una vacuna
que protege a una persona conta una enfermedad no es propiamente un “coste” pagado a otra
persona o grupo. Respecto a su segundo experimento sobre el contenido abstracto, afirman que el
mero hecho de decir que se ha de cumplir un “requisito P” para poder realizar una acción A, no
marca lingüísticamente a la “acción A” como beneficio obtenido.

Cheng y Holyoak, también ponen de manifiesto que Cosmides utiliza términos “intercambio social”
y “contrato social” indiscriminadamente. Ella misma reconoce que los contratos sociales también
incluyen situaciones de permiso y regulación y utiliza en algunos casos una definición amplia de
intercambio social en la que incluye el cumplimiento de un requisito para obtener un beneficio, y
una definición más restrictiva cuando el contenido del problema se ajusta a la estructura
coste/beneficio. Sin embargo, un requisito no es propiamente una entidad que pueda ser dada en
pago por algo. Parece que la autora amplia su definición de intercambio mediante el reemplazo de

XOSÉ VALES. CURSO 2019/2020 16


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

“pagar un coste” por el más general de “Cumplir un requisito” cuando hay que explicar un resultado
que no coincide con la estructura coste/beneficio.

4.3. Polémica entre los esquemas de razonamiento pragmático y los contratos sociales
Los esquemas de permiso podrían interpretarse como normas de contrato social y Girotto, Blaye y
Farioli (1989) estudian otros esquemas de regulación: obligaciones donde no se da esta
ambigüedad. Respecto a las predicciones de Cosmides, se encuentra que sigue la facilitación cuando
los problemas se formulan como obligaciones, aun careciendo de estructura coste/beneficio.
Concluyen que la teoría de los esquemas de razonamiento pragmático explica número mayor de
resultados experimentales tanto interpretando casos como situaciones de regulación social como
con la estructura de coste/beneficio.

Politzer y Nguyen-Xuan (1992) contrastan las


predicciones de la Teoría de los esquemas de
razonamiento pragmático y las de los contratos
sociales al estudiar el papel que desempeña el
sujeto en la tarea de selección cuando adopta
distintas perspectivas. El objetivo era ampliar la
propuesta de los esquemas a situaciones de
intercambio social en las que se pudiera
adoptar dos puntos de vista alternativos
cuando se presentaba una promesa y una
advertencia condicionales. Los resultados
apoyan a la teoría de los esquemas de
razonamiento pragmático y no a la de los
contratos sociales, pues se encuentra que las
promesas y advertencias condicionales se
ajustan a un esquema compuesto de permiso y
obligación, dependiendo del papel que
desempeñe el sujeto en ambas situaciones.
Una regla de permiso se convierte en una obligación desde el punto de vista del que hace la promesa
y es un permiso desde la perspectiva del que la recibe. Siempre el sujeto intentará aplicar los
esquemas de reglas de su interlocutor (el que la hace, aplica el esquema de permiso y el que la
recibe utilizará esquemas de obligación). Si se adopta un punto de vista neutro entonces se hará una
interpretación bicondicional de la situación 7.

Markovits y Lesage (1990) encuentran evidencia experimental que apoya la utilización de esquemas
de razonamiento pragmático cuando el condicional se presenta como promesas. Los sujetos

7 “Este estudio pretende estudiar los esquemas en situaciones de intercambio en el que se pueden adoptar dos puntos de vista (el que hace la

promesa/advertencia y el que la recibe). Cuando se presentaba una regla de permiso se entendía a través de una regla de obligación (para el que
hace la regla) mientras que la formulaba como permiso el que la recibe. En el cuadro tienes los ejemplos de las cuatro reglas de obligación y
permiso. Para buscar si la regla es correcta, el sujeto aplica la regla del otro, esto es, el que hace la regla aplica el esquema de permiso mientras
que el que la recibe aplica la obligación. Cuando el sujeto adopta un punto de vista neutro o no sesgado, entonces se hará una interpretación
bicondicional de la situación, es decir, tendrá en cuenta ambos puntos de vista”. ED

XOSÉ VALES. CURSO 2019/2020 17


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

parecen poseer esquemas de razonamiento que conducen a la interpretación bicondicional ante


problemas con promesas condicionales. El efecto de estas promesas condicionales dependía del tipo
de contexto en el que se enmarcaba el problema

Gigerenzer y Hug (1992) interpretan el cambio de perspectiva como evidencia a favor de la Teoría
de los contratos sociales. Tienen como objetivo la diferenciación experimental entre el concepto de
contrato social y el algoritmo para la detección de tramposos. El porcentaje de respuestas correctas
disminuye cuando los sujetos resuelven la tarea de selección desde la perspectiva de un contrato
social con situaciones de permiso u obligación y en la que la detección de tramposos es irrelevante.
Defienden el papel que desempeña el mecanismo para la detección de los tramposos, atenuando la
relevancia del contrato social y descartando los esquemas de regulación.

Platt y Griggs (1993) logran separar por orden de importancia los efectos de algunos de los factores
que previamente habían producido facilitación, encontrando que la estructura coste/beneficio es
necesaria para obtener los efectos facilitadores en los problemas de contrato social. La perspectiva
del engaño y la presencia de la negación explicita sólo contribuyen a mejorar el rendimiento cuando
la tarea es ambigua. El término “debe” producía efectos facilitadores en un número mayor de casos
que los dos últimos factores.

Manktelow y Over (1991) descartan ambas propuestas para apoyar una ampliación de la Teoría de
los modelos mentales que incorpore las utilidades e sus representaciones. Señalan los efectos
facilitadores de los términos deónticos incluidos en los esquemas de permiso y los contratos
sociales. Distinguen el condicional con términos indicativos (tarea abstracta) y el condicional con
términos deónticos (esquemas de permiso y contratos sociales).

Jackson y Griggs (1990) señalan que los efectos facilitadores en los problemas con contenido
abstracto son producto de dos factores ajenos a los esquemas de razonamiento:
• Enunciar la negación explícita para ¬p y ¬q , (“Si hay una P, entonces hay un 7 ”--> “Si hay
una P, entonces no hay un 7”) y de la negación implícita sería (“Si hay una P, entonces hay
un 2” )
• Presentación de un contexto de búsqueda de posibles violaciones de la regla.

Cuando los problemas se formulan como esquemas de permiso abstractos, pero con la negación
implícita y en un contexto orientado a la comprobación de una regla y no a su violación, estos efectos
de facilitación desaparecen.

Cuando se usa la negación explícita, su formulación coincide con el antecedente de la regla 4 de los
esquemas de permiso, haciendo que el efecto de facilitación sea mayor en la evocación de los
esquemas.

Cuando se utiliza la negación implícita es necesario que el sujeto infiera que el cumplimiento de una
condición distinta a la comprendida en la regla implica que no se ha cumplido la condición de la
regla. Se supone que una de las dos condiciones y no ambas pueden ser satisfechas.

XOSÉ VALES. CURSO 2019/2020 18


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

La propuesta de Cosmides sobre los contratos sociales queda asumida como parte de los esquemas
de regulación de Cheng y Holyoak. La delimitación conceptual entre los esquemas de regulación
(permiso y obligación) y los contratos sociales es difusa y las críticas se han centrado principalmente
sobre el concepto de la estructura coste/beneficio, puesto que los problemas en los que se han
obtenido efectos facilitadores no se ajustan a esta estructura, incluso algunos de los problemas
utilizados por la misma Cosmides.

5. TEORÍAS DE LA RELEVANCIA
5.1. Teoría de la relevancia de Sperber y Wilson
Según la Teoría de la Relevancia (Sperber y Wilson, 1986; 1995; Sperber, Cara y Girotto, 1995), el
razonamiento se encuentra determinado por las expectativas que tienen los sujetos sobre la
relevancia suscitada por el contenido y contexto de la tarea. Los autores sostienen que en la tarea
de selección lo que se pide a los sujetos es seleccionar aquello que sea relevante para el proceso de
inferencia.

Sperber y Wilson parten del supuesto de que los procesos cognitivos se guían por la información
que sea más relevante en ese momento y sobre la que acomodan un contexto de supuestos para
maximizar su relevancia (Primer principio Cognitivo de Relevancia) Cuanto mayor son las
expectativas sobre los efectos cognitivos mayor será la relevancia y cuanto mayor sean los costes
del procesamiento menor será la relevancia.

El ser humano está preparado para interactuar con el ambiente, y con la información más saliente
y que sea fácil de representar. Sin embargo, la información que se comunica difiere de la información
ambiental puesto que en general suscita relevancia. Todo acto de comunicación transmite una
presunción de su propia relevancia (Segundo principio Comunicativo de Relevancia) Este principio
garantiza que espontáneamente se ponga en marcha el proceso de comprensión ante la emisión de
un acto comunicativo.

En el laboratorio encontramos que las tareas suelen ser tan artificiales que las expectativas de
relevancia de los individuos son mínimas. Las consecuencias se pueden probar directamente en el
orden en que se encuentran disponibles y se obtiene una conclusión cuando se alcanzan las
expectativas de relevancia. Las consecuencias más pertinentes:
• La regla implica que cualquier tarjeta con una (p) tendrá una (q) por el otro lado.
• La regla implica que en la mayoría de los contextos hay casos p y q.
• La regla contradice el supuesto de que hay casos de (p) y (¬q).

Para que los sujetos logren una interpretación del condicional como una negación de los casos (p) y
(¬q) como la afirmación de que no hay casos (p) y (¬q) (negación implícita) hace falta que esta
consecuencia sea por lo menos tan accesible y rica en las expectativas sobre los efectos cognitivos
como los casos (p) y (q), entendido desde la interpretación de la regla y no desde su aplicación 8.

8“Está explicando la regla 3 que hace referencia a la posibilidad falsa del condicional "p y no-q" (quédate con esto y listo). Como sabes, las
personas no suelen seleccionar "no-q". De ahí, que se diga que habría que hacer más accesible esta posibilidad "p y no-q" ED

XOSÉ VALES. CURSO 2019/2020 19


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

Para generar una tarea de selección se proponen unas directrices:


• Seleccionar características sencillas de forma que (p) y (¬q) resulte tan fácil como (p) y (q):
“soltero” -> combina “ser varón” (p) y “no estar casado” (¬q)
• Generar un contexto donde los efectos cognitivos de los casos “p y ¬q” sean mayores que los
de “p y q” (que el conocimiento de p y q sea trivial).
• Presentar la tarea de forma pragmática para que la artificialidad no desvíe la atención de los
sujetos: introducir la regla dentro del contexto de una historia y que sea uno de los personajes
el que la exponga.

Sperber, Cara y Girotto (1995) diseñaron cuatro experimentos para analizar la versión abstracta y
varias temáticas de la tarea de selección frente a distintas versiones de la tarea donde se
manipularon los efectos cognitivos y el coste de la relevancia. Los resultados se ajustaron a las
predicciones de la Teoría de la Relevancia y mostraron la utilidad de las directrices propuestas con
el fin de generar una tarea de selección sencilla y con resultados correctos. La explicación de estos
resultados se extiende a los efectos de facilitación encontrados en la negación explícita y con los
términos deónticos. Cuando se utiliza la negación: “Si hay una consonante, por un lado, entonces
no hay número par por el otro” Las tres consecuencias más pertinentes serían las siguientes:
• La regla implica que cualquier tarjeta (p) tendrá por le otro lado una (¬q).
• La regla implica que en la mayoría de los contextos hay casos (p) y (¬q) (negación explícita).
• La regla contradice el supuesto de que hay casos p y q (negación implícita).

Los sujetos seleccionan las tarjetas (p) y (q) porque la negación implícita requiere menos coste y los
efectos cognitivos son los de la interpretación de la negación.
Los autores indican que la versión indicativa y la deóntica son dos tareas diferentes. En la primera
se razona sobre la verdad de la regla, mientras que en la deóntica se hace a partir del cumplimiento
de una regla. Los efectos de facilitación encontrados en la versión deóntica se explican por su
interpretación dentro de un contexto. Una regla que no contenga el término “debe” puede
interpretarse como algo que debería hacerse siempre y cuando la regla tenga sentido en el contexto
pragmático. En la versión abstracta no hace que la regla se interprete como un deber, mientras que
sí en la deóntica aunque no vaya explícito el término: “Si hay una consonante por un lado, entonces
“debe” haber un número impar por el otro” (debe siempre) “Si una persona bebe alcohol, entonces
es mayor de edad” (no está el término “debe” pero se interpreta).

Cuando en la versión indicativa se logra la interpretación del condicional como una negación de la
existencia de casos p (hay consonante, por un lado) y ¬q (no debe haber impar por el otro = par), y
en la versión deóntica como una interpretación de la ocurrencia p y ¬q, se resuelve la tarea
correctamente. Desde la perspectiva de la Teoría de la Relevancia, en ambas versiones intervienen
los mismos factores relativos a la facilidad de representación y a las expectativas sobre los efectos.
Los resultados encontrados sobre el cambio de perspectiva también se explican por las expectativas
de relevancia que se han generado cuando se pide al sujeto que adopte la perspectiva implícita de
la regla9.

9“La Teoría de la Relevancia explica los mismos resultados obtenidos por la Teoría de los Esquemas de Razonamiento pragmático, pero desde
una perspectiva teórica distinta. La Teoría de la Relevancia dice que la tarea indicativa y la deóntica son tareas distintas porque la interpretación

XOSÉ VALES. CURSO 2019/2020 20


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

5.2. Teoría heurística y analítica de Evans


Evans (1984;1989) distingue dos procesos para explicar el razonamiento: los heurísticos y los
analíticos. Los heurísticos seleccionan la información relevante y son procesos pre-atencionales de
naturaleza pragmática. La información seleccionada pasa a los procesos analíticos en donde tiene
lugar el razonamiento, aunque no existe un compromiso explícito con el tipo de modelo que
permitiría explicar las inferencias.

Ya sabemos que las respuestas más frecuentes en el condicional son (p) y (p y q). La interpretación
original de Wason fue que los sujetos mostraban sesgo hacia la confirmación de la regla y no
perseguían su falsación. Sin embargo, Evans (1972), descubrió que se daba la posibilidad de que se
diera otro sesgo, emparejamiento. que consistía en que los sujetos estuvieran seleccionando las
tarjetas que coincidían con los términos de la regla. En las versiones afirmativas de la regla no se
puede distinguir entre ambos sesgos, ya que ambos dan lugar a las mismas respuestas (p y q). Con
el fin de poder diferenciarlos, Evans y Lynch (1973) introducen las negaciones en la tarea de
selección. Si ocurre el sesgo de confirmación, entonces los sujetos seleccionarían aquellas tarjetas
en las que el antecedente y el consecuente fueran verdaderos y si ocurre el sesgo de
emparejamiento, las tarjetas seleccionadas coincidirían con los términos de la regla sin la negación
y además serían las respuestas correctas. Por ejemplo:

“Si hay una consonante por una cara, entonces hay un número impar por la otra”.

Según el sesgo de confirmación, los sujetos buscarían confirmar la regla y seleccionarían las tarjetas
p y ¬q (una consonante y un número par), mientras que si se da el sesgo de emparejamiento se
seleccionarían las tarjetas p y q (una consonante y un número impar). Como puede verse, en el caso
del sesgo del emparejamiento la selección del consecuente sin negación coincide con la falsación de
la regla, aunque no por la aplicación del modus tollens. Los resultados de este trabajo y de trabajos
posteriores apoyaron las hipótesis del sesgo de emparejamiento.

Para explicar este sesgo de emparejamiento, Evans sostiene que la selección de la información se
explica por dos heurísticos:
• El primero se pone en marcha por el término “Si” del condicional y hace que el sujeto se
centre en el antecedente.
• El otro heurístico es de carácter más general y hace que la atención se dirija hacia el tema del
enunciado.
En la tarea de selección los sujetos seleccionan las tarjetas que consideran relevantes, sin necesidad
de pasar por la etapa analítica. En otro tipo de tareas, como las tablas de verdad, la etapa analítica
se pone en marcha y filtra parte de la información que ha sido seleccionada en la etapa heurística.
Bajo esta perspectiva, la selección de la información relevante se ubica en la etapa heurística que es
un proceso pre-atencional y de naturaleza pragmática en el sentido de estar determinado por
factores individuales y lingüísticos.

es diferente según el contexto en el que ocurra. Subraya además que estas diferencias en la interpretación del condicional no se deben al término
"debe". La negación implícita se interpreta en afirmativo: "la regla contradice si p, entonces q". Esto es menos costoso que la negación explícita
"si p, entonces no q", que con la negación del consecuente sería no (no q), es decir, q”. ED

XOSÉ VALES. CURSO 2019/2020 21


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

6. TEORÍAS PROBABILÍSTICAS
6.1. Teoría bayesiana del condicional
Bajo esta perspectiva se integran los procesos de razonamiento y la toma de decisiones asumiendo
que se razona con el fin de tomar una decisión. Esta perspectiva entiende que al razonar hay que
decidir entre las posibles conclusiones cuál es la más relevante para el problema en cuestión. Kirby
(1994) introduce el análisis de los juicios probabilísticos para explicar el rendimiento de los sujetos
en la tarea de selección. Al plantear esta tarea dentro del marco probabilístico, el fracaso de la
mayoría de los sujetos al no seleccionar la tarjeta ¬q se explica por la baja probabilidad que hay de
encontrar p cuando el conjunto de ocurrencias es pequeño. P. ej., en la regla “Si hay una vocal por
un lado, entonces hay un número impar por el otro”, el conjunto de ocurrencias de p (vocales) es
pequeño con respecto a ¬p (consonantes), de forma que los sujetos consideran poco probable que
detrás de un número par (¬q) pueda haber una vocal. Como veremos en el próximo capítulo, estas
probabilidades son subjetivas y las evaluaciones del tamaño del conjunto de las ocurrencias variarán
en función del conocimiento del sujeto y de aquello que aporte más información.

Los autores Oaksford y Chater (1994) proponen que las frecuencias en la selección de las tarjetas
son una función monotónica de la ganancia en información que se espera obtener en cada una. Se
sitúan en el marco teórico en el que la racionalidad se entiende como adaptativa en el sentido de
que el comportamiento será racional si se adapta de forma óptima en el ambiente. Parte de los
siguientes supuestos:
• Las metas del sistema cognitivo se dirigen hacia la selección de información relevante.
• Las propiedades que figuran en las relaciones causales son raras o poco frecuentes en el
ambiente10.
• Los sujetos resuelven la tarea de acuerdo con el modelo bayesiano para la selección óptima
de los datos y bajo el mencionado “supuesto de rareza”.

Los sujetos seleccionan la tarjeta (tarjetas) que al darle la vuelta aporte más información sobre la
comprobación de una de dos hipótesis:
• existe dependencia en la forma “Si p, entonces q”
• la hipótesis alternativa más sencilla, que p y q son independientes.

Al aplicar el modelo se obtiene que:


• La tarjeta (p) será informativa en la medida en que la probabilidad de (q) sea baja,
• La tarjeta (q) lo será cuando la probabilidad de (p y q) sean bajas ambas,

10 “Hay que tener claro los supuestos del enfoque, especialmente el punto (2) que dice "las propiedades que figuran en las relaciones causales
son raras o poco frecuentes en el ambiente". Los sujetos seleccionan aquella tarjeta (tarjetas) más relevantes para comprobar la regla. Veamos
el ejemplo "Si comes fabada, entonces te pones enfermo". Vamos a suponer que esta relación es rara o poco frecuente en el ambiente. Y hay que
comprobar 1) que no existe tal relación y falsar la regla o 2) existe relación entre ambas. Como se dice en el manual, los sujetos seleccionan las
tarjetas en la tarea de selección de Wason en función de la ganancia en información que esperan obtener. La tarjeta que pone por la cara que ve
el sujeto "fabada" (el antecedente) será informativa cuando los sujetos piensen que son muchos los que comen fabada y pocas las personas que
se ponen malas al comer fabada. - Dice que p será informativa en la medida en que la probabilidad de q sea baja. La causa es más informativa
en la medida en la que el consecuente es menos frecuente porque si es muy frecuente no sé si es por la relación con el antecedente p o cualquier
otra causa. Entonces reamente p es más informativo de su relación con q cuando es poco frecuente. - De la misma manera, q es informativo
cuando p y q son poco frecuente. - Si antes nos han dicho que las personas no eligen no-q porque p es baja, ahora nos explican lo mismo, pero
con otras palabras, q es informativa cuando p es alta”. ED

XOSÉ VALES. CURSO 2019/2020 22


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

• La tarjeta (¬q) será informativa cuando la probabilidad de (p) sea alta,


• La tarjeta (¬p) no es informativa.

Se concibe así que el orden de frecuencias en la selección de las tarjetas p > q > ¬q > ¬p En las
versiones temáticas con términos deónticos, se concibe la tarea de selección como el uso de una
regla frente a la comprobación de una regla de versión indicativa. El modelo probabilístico calcula la
utilidad esperada, y la regla se utiliza con el fin de maximizar la utilidad esperada que varía en
función de la perspectiva. Kirby (1994) utilizó varias modalidades del problema “Si una persona bebe
cerveza, entonces es mayor de 21 años” en las que se variaba ¬ q, por ejemplo, 19 años, 12 años o 4
años. Los resultados mostraron que la selección de la tarjeta ¬ q aumentaba a medida que
aumentaba la probabilidad de p de desobedecer la regla (proporción de respuestas: 19 años > 12
años > 4 años). Parece que las personas pensaban en gente que bebe cerveza y pensaban en
aquellos con 21/19 años. Los de 21 cumplían las regla y los de 19, no. No pensaban en niños (4-12
años) como bebedores de cerveza.

Green, Over y Pyne (1997), encuentran que las estimaciones que hacen los sujetos sobre la
ocurrencia de los contraejemplos de (q) se encuentran determinados por el tamaño del conjunto de
(p), aunque señalan que esta relación es algo más compleja porque el valor asignado a la
información (confirmación y desconfirmación) también se tienen que comparar con otros
beneficios/costes esperados.

6.2. Teoría de la suposición


La Teoría de la suposición de Evans y Over (2004) también asume que el razonamiento condicional
se basa en la evaluación de unas posibilidades que son hipotéticas con respecto a la ocurrencia del
antecedente. El condicional es un pensamiento hipotético por medio del cual se generan los
modelos mentales del antecedente y sobre esta base se considera la probabilidad o el grado de
creencia de que ocurra el consecuente. Ante un enunciado condicional “si p, entonces q”, los sujetos
van a considerar cuál es la probabilidad de que ocurra (q) dado (p).

Esta idea se opone a la teoría de los modelos mentales 11 al no admitir que los modelos mentales se
ajusten a una interpretación del condicional básico como una implicación material. En la formulación
probabilística no hay cabida para la no ocurrencia del antecedente. Según la teoría de la suposición,
ante un enunciado condicional se emite un juicio sobre la probabilidad condicional subjetiva de que
ocurra el consecuente cuando ocurre el antecedente.

Evans, Handley y Over 2003, realizaron una investigación en la que se pedía directamente a los
sujetos que evaluaran la probabilidad de los enunciados condicionales en un contexto en el que se
especificaba la frecuencia relativa de todas las posibles lógicas, 37 cartas con dibujos (círculo o
diamante en amarillo o rojo):

11 “La teoría de la suposición defiende que cuando las personas comprenden un condicional "si llevo mascarilla entonces evito el contagio" piensan

que: - Dado que llevo mascarilla, ¿cuál es la probabilidad o el grado de creencia de que ocurra el consecuente "evitar el contagio"? Entiende que
es irrelevante cuando no llevo la mascarilla, es decir, el antecedente es falso. Esto se opone a la teoría de los modelos mentales que defiende que
las personas representan tres modelos cuando comprenden el condicional. La representación de los tres modelos se denomina implicación
material: - llevo mascarilla y evito el contagio; - no llevo mascarilla y no evito el contagio; - no llevo mascarilla y no evito el contagio”. ED

XOSÉ VALES. CURSO 2019/2020 23


CAPÍTULO 5. EL RAZONAMIENTO CONDICIONAL

• 1 carta con círculo amarillo.


• 4 cartas con diamantes amarillos.
• 16 cartas con círculos rojos.
• 16 cartas con diamantes rojos.

La tarea consistía en señalar en una escala de 1 (poco probable) a 5 (muy probable) la probabilidad
de que la siguiente afirmación fuera verdadera si se escogiera una carta al azar: “Si la carta es
amarilla, entonces tiene dibujado un círculo”.

Se calcula la probabilidad del enunciado condicional según se interprete como una implicación
material, una probabilidad condicional o una probabilidad conjuntiva.

Los resultados experimentales mostraron que el


50% de los sujetos se ajustaron a la interpretación
de la probabilidad condicional, y el 43% a la de la
probabilidad conjuntiva, no siendo significativa la
de la implicación material. La interpretación de los
datos de la probabilidad conjuntiva se corresponde
con la del Modelo mental inicial de la Teoría de los
Modelos Mentales (pq), aunque es inconsistente
que los modelos mentales implícitos (¬pq y ¬p¬q)
no hayan tenido ningún efecto sobre la evaluación
del enunciado condicional.

Evans y Over no se oponen a la concepción de la teoría de los modelos mentales, son que su crítica
se centra en el supuesto de los valores de verdad. Defienden que las personas interpretan un
enunciado condicional como la probabilidad de que ocurra el consecuente cuando suponemos que
se ha dado el antecedente.

Versión web Autoevaluación

XOSÉ VALES. CURSO 2019/2020 24


Capítulo 6. RAZONAMIENTO
PROBABILÍSTICO

REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA, I.
(2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
• Aclaraciones ED.
CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

1. INTRODUCCIÓN
Cuando hacemos una predicción o pronóstico (“La pandemia del Covid-19 pondrá en valor la
necesidad de un sistema de sanidad público, universal y de calidad”), tomamos una decisión (“Yo
me quedo en casa”) o buscamos la causa de un hecho determinado (“A votado a VOX porque es una
ignorante”) estamos evaluando la probabilidad de que determinados acontecimientos vayan a
ocurrir o hayan ocurrido. Nuestras predicciones sobre acontecimientos futuros se basan en
información incompleta, parcialmente imprevisible y ambigua, en los que la certeza de nuestros
juicios se sitúa en un margen determinado de probabilidad. Es un margen de incertidumbre. El
razonamiento probabilístico es importante en el ámbito profesional cuando no pueden
contemplarse en su totalidad todas las variables posibles que influyen o dan lugar a una determinada
consecuencia. Así, el diagnóstico clínico en medicina y psicología, la potencial eficacia de
metodologías innovadoras en educación, las sentencias judiciales, las previsiones basadas en
estudios de mercado, o los pronósticos electorales constituyen ejemplos de juicios predictivos en
los que las conclusiones no son “inequívocamente” ciertas sino “probablemente” ciertas.

El razonamiento probabilístico constituye una modalidad de pensamiento que se enfrenta a


problemas abiertos y, por tanto, no muy bien delimitados, en un mundo complejo y cambiante en
el que la información es incompleta y se modifica temporalmente. Para adaptarnos de manera eficaz
a la incertidumbre y variabilidad ambiental esta modalidad de razonamiento genera formas de
percibir, computar y representar las variables externas para emitir juicios de probabilidad que
permitan estimar esa variabilidad y actuar sobre el entorno. Las leyes de la probabilidad en tareas
de razonamiento probabilístico juegan un papel similar a las leyes de la lógica en el razonamiento
deductivo y constituyen un modelo normativo o prescriptivo sobre cómo deben realizarse las
inferencias probabilísticas.

2. EL TEOREMA DE BAYES
Cuando asignamos un valor de probabilidad a un suceso podemos conocer o no el espacio de
probabilidades. Si se conoce como en el lanzamiento de un dado o de moneda, asumiendo la
equiprobabilidad de las diferentes posibilidades, la probabilidad de un suceso aleatorio sería el
cociente entre el número de resultados favorables y el número total de resultados posibles. Si se
repite el lanzamiento de un dado, la probabilidad de sacar un dos será equivalente a su frecuencia
de 1/6. En la vida diaria, no conocemos el espacio completo de probabilidades en relación a un
suceso determinado, por lo que estimamos subjetivamente en relación al espacio muestral,
añadiendo que las diferentes alternativas no sean necesariamente equiprobables.

La Teoría de la probabilidad asume un conjunto de axiomas. El espacio de probabilidades que ofrece


el ejemplo siguiente nos permitirá introducir y ejemplificar cada uno de ellos. Imaginemos que a la
consulta del gabinete psicológico de Ana acudieron el pasado año 100 pacientes. De los 100
pacientes, 30 sufrían trastorno depresivo, 20 pacientes fueron diagnosticados de fobias específicas,
y los 50 pacientes restantes de problemas de ansiedad. Ilustremos ahora los axiomas que asume la
teoría de la probabilidad supuesto este espacio de probabilidades:

1. La probabilidad de un suceso (S) varía entre 0 (imposibilidad) y 1 (certeza). La probabilidad de


sufrir un trastorno de ansiedad es de 50/100 = 0,50.

XOSÉ VALES. CURSO 2019/2020 1


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

• La probabilidad de sufrir un trastorno depresivo es de 30/100 = 0,30. La probabilidad de


sufrir fobia específica es de 20/100 = 0,20.

2. La suma de las probabilidades de todos los posibles sucesos en un espacio muestral dado es 1.
La probabilidad de “NO OCURRENCIA” de un suceso (S) es igual a 1 menos la probabilidad de que
sí ocurra. P (noS) = 1- P(S).
• La suma de las probabilidades de todos los posibles sucesos = (30/100) + (20/100) + (50/100)
=1

3. Si dos sucesos (S1) y (S2) son mutuamente excluyentes, la probabilidad de S1 ó S2 será igual a
la suma de sus probabilidades. P (S1 ó S2) = P(S1) + P(S2).
• La probabilidad de sufrir un trastorno depresivo o de sufrir una fobia específica = (30/100) +
(20/100) = 0,50

Terminada la primera fase del tratamiento, el porcentaje de curación en el grupo de pacientes con
trastorno depresivo fue del 50%, en el grupo con problemas de fobias del 70 %, y del 40 % en el
grupo de pacientes con problemas de ansiedad. Conociendo estos datos podremos ejemplificar el
cuarto axioma.

4. a) Si dos sucesos (S1 y S2) son dependientes, la probabilidad de la conjunción de estos sucesos
será igual al producto de la probabilidad de S1 por la probabilidad de S2 asumiendo S1: P (S1
y S2) = P (S1) x P (S2 dado S1) = P (S1) x P (S2|S1). El segundo factor de este producto se
denomina probabilidad condicional de S2 dado S1.
• La probabilidad de que un paciente haya sido diagnosticado de ansiedad y se haya curado= P
(Ansiedad) x P (Curado|Ansiedad) = 0.50 x 0.40 = 0.20.

b) Si dos sucesos (S1 y S2) son independientes, la probabilidad de la conjunción de estos


sucesos será igual al producto de la probabilidad de S1 por la probabilidad de S2. P (S1 y S2) =
P (S1) x P (S2).

Imaginemos ahora que del conjunto de pacientes que asistieron a terapia el año pasado extraemos
uno al azar y encontramos que está curado. ¿Cuál es la probabilidad de que dicho paciente hubiera
sido diagnosticado previamente de trastorno depresivo?

Thomas Bayes (siglo XVIII) añadió a esos axiomas una fórmula conocida como el Teorema de Bayes,
el cual permite calcular la probabilidad condicional inversa, también denominada probabilidad
posterior (o probabilidad a posteriori). El cálculo no es directo ya que conocemos el dato (el paciente
está curado) pero tenemos tres posibles opciones de diagnóstico previo o hipótesis de partida:
depresión, fobia o ansiedad. El teorema constituye la ley fundamental en la que se basa este tipo de
inferencia probabilística, tanto cuando la información procede de datos muestrales como cuando es
de estimaciones subjetivas de probabilidad.

XOSÉ VALES. CURSO 2019/2020 2


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

1. La probabilidad a priori de la Hipótesis: P(H). La hipótesis relevante para el problema que


tenemos. P (depresión).
2. La diagnosticidad del Dato para la hipótesis: P (D|H). En el problema planteado P (curación
|Depresión). Este valor recibe el nombre de diagnosticidad del dato (curación) y se puede
dar en presencia de otras dos posibles hipótesis alternativas: P (D|H2) o P (D|H3).
3. Con el producto de estos se obtiene la probabilidad conjunta de dos sucesos dependientes:
Haber sido previamente diagnosticado de depresión y curarse dado el diagnóstico previo de
depresión: P (H) x P (D|H). Siguiendo con el ejemplo sería: P(depresión) x
P(curación|depresión).
4. La probabilidad condicional inversa o posterior, que es el problema que debemos resolver a
partir de la información de la que disponemos. Denominado así porque es la inversa de la
condicional P (D|H) se conoce la probabilidad condicional de curarse habiendo sido
diagnosticado de depresión: P(curarse|depresión). Sabiendo que un paciente extraído al azar
está curado ¿cuál es la probabilidad de que hubiera sido previamente diagnosticado de
depresión? P (H|D) o P(Depresión|curación).

Siguiendo el Teorema de Bayes, el cálculo sería el


resultado de dividir la probabilidad de los casos
favorables por la suma de las probabilidades de
todos los casos posibles. El axioma 4 explica el
numerador del Teorema (probabilidad de casos
favorables) y el axioma 3 explica el denominador
(suma de las probabilidades de los casos posibles.

Arieta Pinedo y González Labra (2011), postulan


que la inferencia bayesiana permite introducir
probabilidades subjetivas tanto al evaluar a
priori como al evaluar las condiciones de un
suceso. Pueden obtenerse de distintas fuentes,
tales como la evidencia, teorías previas o
simplemente de la opinión y creencias de la
persona. La hipótesis alternativa es la ausencia

XOSÉ VALES. CURSO 2019/2020 3


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

de la hipótesis focal de tal forma que su probabilidad complementaria se calcula aplicando el


axioma 2 de la Teoría de la probabilidad (ver cuadro 6.1)

Volvemos al ejemplo de Ana, imaginemos otro experimento de razonamiento probabilístico cuyo


objetivo es analizar en sujetos no expertos en teoría de la probabilidad cuál sería la solución al
problema planteado sin necesidad de realizar cálculos matemáticos:

Problema A: Seleccionamos un paciente al azar y encontramos que está curado. ¿qué probabilidad
será mayor?:
a) fue diagnosticado de fobia específica.
b) fue diagnosticado de ansiedad.
Si el alumno ha elegido la alternativa a), su elección coincide con la de un porcentaje
significativamente elevado de los participantes en el experimento, si bien su elección es incorrecta.
Analicemos ahora el problema B y reflexionemos sobre cuál sería la elección de Elena.

Problema B: Ana plantea analizar qué variables explican que después de la primera fase del
tratamiento sólo el 40% de los pacientes sanen de su ansiedad. Cita un día a todos los curados y en
otro día a los que siguen en el proceso. Elena sufre de ansiedad y acude a consulta a pedir cita el día
que ésta citó a los curados. En la sala coinciden con Elena y le transmiten a ésta el éxito y rapidez de
curación tras la primera fase de tratamiento. A partir de la información Elena considera que la
primera fase de tratamiento empleado por Ana para el tratamiento de la ansiedad:
a) es altamente eficaz
b) es parcialmente eficaz

Elena selecciona la alternativa a) y su respuesta es incorrecta. ¿A qué información relevante para


resolver correctamente uno y otro problema no estaría atendiendo el participante en el problema
A y E lena en el problema B? En el caso del problema A, contando con toda la información necesaria,
el error se produce porque una mayoría de participantes se centran en el valor del porcentaje de
curación (70 %), la diagnosticidad del dato con relación a la hipótesis, y desatienden a la probabilidad
a priori de sufrir el trastorno (20 %). En el caso del problema B, Elena no cuenta con toda la
información relevante para resolver el problema. En concreto, la diagnosticidad del dato (la
aplicación de la primera fase del tratamiento) en presencia de la hipótesis alternativa (el paciente
no se ha curado).

La evidencia empírica demuestra que el razonamiento probabilístico humano generalmente no es


extensional (no contempla el conjunto de probabilidades de forma exhaustiva). En el problema A,
se desatiende al porcentaje sobre el total de 100 casos que fueron diagnosticados de los diferentes
trastornos. En el apartado siguiente abordaremos el estudio de estrategias y procedimientos
psicológicos que facilitan y hacen más rápido y menos costoso el proceso de asignación de
probabilidades, que si se realizasen los complejos cálculos matemáticos basados en modelos
normativos como el Teorema de Bayes. En muchas ocasiones, las estrategias conducen a resultados
correctos y son efectivas y económicas en tiempo y esfuerzo cognitivo, pero pueden resultar a la vez
imprecisas.

XOSÉ VALES. CURSO 2019/2020 4


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

3. ENFOQUE DE LOS HEURÍSTICOS


Los heurísticos constituyen reglas y estrategias intuitivas1, que se aplican deliberadamente o no para
estimar o predecir. Con frecuencia, al margen de consideraciones básicas de la teoría de la
probabilidad, puede dar lugar a distintos errores sistemáticos (sesgos o falacias) característicos de
cada uno de ellos. El estudio de los sesgos y errores sistemáticos se investiga en el razonamiento
probabilístico, también desde los principios de la percepción normal y desde la memoria estudiando
el olvido.

Teversky y Kahneman (1974; 1982a) iniciaron y desarrollaron un programa de investigación que


sustenta los tipos básicos de heurísticos: representatividad, accesibilidad, anclaje y ajuste. Más
recientemente se contempla el estudio desde un modelo más integrador.

3.1. Heurístico de representatividad.


“El heurístico de representatividad nos dice que las personas pensamos que es más probable un
evento cuando es representativo o prototípico de algo, esto es, si alguien da positivo en un test como
es algo prototípico del cáncer diremos automáticamente que la persona tiene cáncer ignorando la
probabilidad del cáncer, si el test es fiable o si tiene muchos falsos positivos”. ED

Los juicios probabilísticos responden a una de las siguientes preguntas:


• ¿Cuál es la probabilidad de que el objeto A pertenezca a la categoría B?
• ¿Cuál es la probabilidad de que el proceso B sea la causa del acontecimiento A?,
• ¿Cuál es la probabilidad de que el dato A se genere a partir del modelo B?

La investigación ha demostrado que la información de los prototipos y esquemas contribuyen


significativamente a la forma en que almacenamos y procesamos la información. Natural y

1 De acuerdo con Kahneman y Tversky (1982a) el término intuitivo puede utilizarse con tres diferentes acepciones, que no son excluyentes entre
sí. En primer lugar, un juicio se denomina intuitivo si se alcanza con un modelo de razonamiento informal y no estructurado, sin utilizar métodos
analíticos y cálculos deliberados. En segundo lugar, una regla formal es intuitiva si es compatible con el modelo del mundo de personas
“ingenuas”, es decir, no expertas en lógica y/o estadística. En tercer lugar, una regla o procedimiento formará parte de nuestro repertorio de
intuiciones cuando los aplicamos en nuestra conducta habitual.

XOSÉ VALES. CURSO 2019/2020 5


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

económico cognitivamente el juzgar la probabilidad de un evento evaluando el grado en el cual es


representativo de la categoría de referencia. Esta estrategia para abordar estos juicios probables
produce sesgos significativos pues la semejanza no se ve afectada por factores que deberían afectar
a los juicios de probabilidad. Dicha insensibilidad a estos factores es estudiada por Tversky y
Kahneman (1974).

3.1.1. Insensibilidad a las probabilidades a priori


Uno de estos factores que no afectan a la representatividad, aunque debiera tener efecto sobre el
juicio probabilístico es la probabilidad a priori o la frecuencia base del resultado (Tversky y
Kahneman, 1982b). Para contrastar dicha hipótesis Kahneman y Tversky realizaron el siguiente
experimento:
Los participantes analizaron descripciones de personalidades de una muestra de 100 individuos
(ingenieros y abogados).
• A una condición experimental se les indica que 70% son ingenieros y 30 % abogados.
• En la otra condición, es 30% de ingenieros y 70 % de abogados.

Un ejemplo de descripción es la siguiente: Jack tiene 45 años, casado y cuatro hijos. Conservador,
prudente y ambicioso. No manifiesta intereses políticos y sociales y emplea su tiempo libre en sus
aficiones (carpintería, navegar, resolver problemas matemáticos) La probabilidad de que sea uno de
los 30 ingenieros de la muestra de 100 es _______%.

La probabilidad de pertenecer al grupo de ingenieros debería ser mayor en la primera condición, y


la probabilidad de pertenecer al grupo de abogados debería ser mayor en la segunda condición. Los
participantes violaron drásticamente la predicción del Teorema de Bayes, pues en ambas
condiciones se produjeron los mismos juicios. Evaluaron la probabilidad de que una determinada
descripción perteneciera a un ingeniero frente a un abogado en función del grado en que dicha
descripción era representativa de uno u otro estereotipo, atendiendo bien poco a las probabilidades
a priori de las categorías.

La dificultad para aplicar el algoritmo necesario para calcular correctamente la probabilidad de un


acontecimiento contemplando las probabilidades a priori ha sido también demostrada con
participantes expertos. Veamos el problema ya clásico que Eddy (1982) planteó a un grupo de
médicos: La probabilidad de cáncer de mama en mujeres de 40 años es del 1%. Si una padece cáncer
la probabilidad de que la mamografía resulte positiva es del 80%. La probabilidad de que no padezca
cáncer de mama tenga un resultado positivo es una mamografía es del 9,6%. Una mujer de 40 años
obtiene resultado positivo en la mamografía en un control. ¿cuál es la probabilidad de que la mujer
padezca de hecho cáncer de mama? _______%.

Puedes aplicar el Teorema de Bayes y comprobar que el resultado es 7.8 % 2. De acuerdo con los
resultados de Eddy (1982), el 95 % de los médicos estimaron que la probabilidad (cáncer/resultado
2

𝑃(𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜 | 𝑐á𝑛𝑐𝑒𝑟) · 𝑃(𝑐á𝑛𝑐𝑒𝑟) (0.80) · (0.01)


𝑃(cáncer|positivo) = =
𝑃(𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜 | 𝑐á𝑛𝑐𝑒𝑟) · 𝑃(𝑐á𝑛𝑐𝑒𝑟) + 𝑃(𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜 | 𝑏𝑒𝑛𝑖𝑔𝑛𝑜) · 𝑃(𝑏𝑒𝑛𝑖𝑔𝑛𝑜) (0.80) · (0.01) + (0.096) · (0.99)
(0.008)
= = 0.078
(0.008) + (0.095)

XOSÉ VALES. CURSO 2019/2020 6


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

positivo) fluctuaría entre el 70 % y el 80 %. Cuando concluida la investigación se informó a los


médicos de su error y se les preguntó sobre las causas posibles de éste, la gran mayoría afirmó que
había asumido que la probabilidad de cáncer con mamografía positiva [P(cáncer/resultado positivo))
era aproximadamente igual a la probabilidad de una mamografía positiva en una paciente con
cáncer [P(resultado positivo/cáncer)], pasando por alto, así, la probabilidad a priori de padecer la
enfermedad en la muestra de mujeres de 40 años.

Gigerenzer y Hoffrage (1995) postulan que los trabajos que apoyan la dificultad de los humanos
para aplicar las normas de la inferencia bayesiana es el resultado de un planteamiento metodológico
inadecuado: desajuste entre la forma en la que se presenta la información a los participantes y el
formato de la representación cognitiva natural de dicha información. Gigerenzer y Hoffrage se basan
en la teoría de la evolución, donde la mente y su entorno han evolucionado en paralelo. Éstos
sostienen que las demandas computacionales de los algoritmos bayesianos son más simples cuando
la información se codifica en un formato de frecuencias más que en el formato estándar de
probabilidad.

La probabilidad de cáncer es de 10/1000 = 1% P (H) = 0,01; De cada 10 mujeres que padecen cáncer,
8 dan un resultado positivo en la mamografía. Una mujer sin cáncer (990) dé resultado positivo en
la mamografía es de 95/990.
Una mujer de 40 años obtiene un resultado positivo en la mamografía en un control rutinario ¿Cuál
es la probabilidad de que la mujer padezca de hecho cáncer de mama? __________%.

Si presentamos los datos con el formato de muestreo natural, la fórmula del teorema de Bayes se
simplifica mucho:
𝑫&𝑯 𝟖
𝑷(𝐇|𝐃) = = = 𝟎. 𝟎𝟕𝟖
(𝑫 & 𝑯) + (𝑫 & 𝑯´) 𝟖 + 𝟗𝟓

El algoritmo bayesiano para calcular la


probabilidad posterior P (H|D) sería el
resultado de dividir el número de casos con
síntoma y enfermedad (dato e hipótesis)
por el número total de casos con síntoma
(casos con síntoma y enfermedad + casos
con síntoma y sin enfermedad H´). Todo
sería más simple cuando la información se
codifica en el formato natural de
frecuencias más que en el formato estándar
de probabilidad, entre otras razones,
porque las probabilidades a priori no
necesitan ser atendidas, lo cual, afirman, es

XOSÉ VALES. CURSO 2019/2020 7


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

perfectamente racional en el muestreo natural. Diferentes estudios comparativos entre las dos
modalidades (formato de frecuencias vs. Formato probabilístico) indicaron que el promedio de
algoritmos bayesianos correctos incrementó del 16% (formato probabilístico) al 46% (formato de
frecuencias).

3.1.2. Insensibilidad a la capacidad predictiva del dato


Supongamos que una estudiante recién llegada a un instituto es descrita por el orientador como
inteligente, con buena base y trabajadora. Se plantean 2 preguntas:
1) Evaluación: ¿Qué impresión te produce esta descripción en relación con la habilidad
académica del estudiante?
2) Predicción: ¿cuál estimas sería la calificación media que el estudiante obtendrá cuando
termine el curso?

“Sobre la evaluación y la predicción encuentran resultados similares, es decir, las personas hacen el
mismo juicio cuando se basan en datos que cuando realmente es una hipótesis del futuro. Está claro
que deberíamos de ser más cautos cuando se hace una predicción del futuro porque, aunque una
persona sea buena estudiante pueden ocurrir otras cosas que le lleven a suspender, por ejemplo, un
accidente o la muerte de un familiar o una depresión o cualquier motivo. Estas posibilidades no
parece que las tengamos en cuenta en las predicciones futuras”. ED

La hipótesis de representatividad sostiene que predicción y evaluación deberían coincidir. Teversky


y Kahneman (1973) lo pusieron a prueba y consistía en describir en cinco adjetivos referentes a la
calidad intelectual del estudiante y rasgos de su personalidad:
• El grupo de evaluación valoraba la calidad de la descripción en relación a la población. Este
ordenaba la capacidad académica de todos los
estudiantes. (0 a 100)
• El grupo de predicción predecía el rendimiento
futuro. Ordenaba calificaciones medias que
obtendrían a final de curso. (0 a 100)

Los resultados se transformaron a percentiles y se


dispuso en gráfica que representaba la capacidad
predictiva de la evaluación sobre la media de la
predicción de su calificación final. Los juicios de ambos
grupos fueron similares. En la teoría estadística de la
predicción, la equivalencia observada estaría
justificada sólo si la eficacia predictiva fuese perfecta
(condición alejada de cumplirse en el ejemplo). La
descripción no es objetiva, pues las circunstancias
personales del estudiante no serán siempre favorables
durante el curso, perjudicando así su rendimiento. Los
sujetos parecen ignorar la probabilidad del dato dada
la hipótesis alternativa [P (D|H´)].

XOSÉ VALES. CURSO 2019/2020 8


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

La predicción basada en la “impresión” de la descripción sin considerar otros factores que afectan,
da lugar a sesgos sistemáticos en el juicio probabilístico que responden al concepto de “ilusión de
validez”.

3.1.3. Concepciones estadísticas inexactas


La idea errónea de la regresión constituye otro ejemplo de sesgo en el juicio predictivo basado en el
heurístico de representatividad. Se usa la regresión para predecir una medida basada en el cono-
cimiento de otra. La regresión estadística es la tendencia de una medición extrema a situarse más
próxima a la media cuando se realiza una segunda medición. “La regresión a la media es que las
puntuaciones extremas (bien por altas o por muy bajas) tienden a la media, es decir, aquellos que
sacan un 9-10 o un 0-1 en la segunda medición tienden a la media, por ejemplo 5. Esto significa que
las puntuaciones altas serán más bajas (por ejemplo 7-8) y las más bajas, serán más altas (2-3) en la
segunda medición”. ED

Supongamos que un grupo grande de niños ha realizado dos versiones equivalentes de una prueba
de aptitud y que seleccionamos cuatro grupos de niños: los 10 con mejores resultados y los 10 con
peores resultados en cada una de las dos versiones. Observaremos que los 10 mejores en cada
versión mostraron un rendimiento promedio inferior en la versión alternativa, y que los 10 peores
en cada versión rindieron en promedio mejor en la versión alternativa. En la vida cotidiana
encontramos muchos ejemplos de este fenómeno cuando comparamos la altura o la inteligencia de
padres e hijos o el rendimiento de las personas en exámenes consecutivos. Sin embargo, las
personas no desarrollan intuiciones correctas en relación a este fenómeno en la medida en que es
incompatible con la creencia de que el resultado predicho debería ser representativo al máximo de
la evidencia disponible y, por tanto, tan extremo como ésta.

Otro resultado en relación con el heurístico de representatividad se observa cuando se evalúa la


probabilidad de obtener un resultado determinado en una muestra extraída de una población
específica. El siguiente experimento ilustra muy bien este sesgo denominado insensibilidad al
tamaño de la muestra. Los participantes recibieron la siguiente información:

Existen dos hospitales en el lugar, uno grande y otro pequeño:


• en el grande nacen una media de 45 bebés al día (días habrá más y días habrá menos).
• En el pequeño nacen una media de 15 bebés.
• Sabemos que aproximadamente el 50% de los bebés son niños (varones). Sin embargo, el
porcentaje exacto varía cada día.
• Durante el período de un año, cada hospital registró el número de días en los cuales el 60%
de los nacimientos fueron varones. ¿qué hospital registró un nº superior de esos días?
El hospital grande (21)
El hospital pequeño (21)
Aproximadamente el mismo (esto es, menos de un 5 por 100 de diferencia entre ambos)
(53).
Los valores entre paréntesis corresponden al número de participantes que eligieron cada
respuesta. La mayor parte de los participantes juzgó que la probabilidad era la misma en
ambos hospitales, presumiblemente porque se describe con el mismo estadístico, que se

XOSÉ VALES. CURSO 2019/2020 9


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

considera igualmente representativo de la población general. En contraste, la teoría del


muestreo sostiene que el número debería ser superior en el hospital pequeño porque en
una muestra de gran tamaño es más difícil superar el 50 %. La insensibilidad al tamaño de
la muestra explica también nuestras expectativas en los juegos de azar, en la medida en
que esperamos que las muestras pequeñas de procesos aleatorios representen el proceso
con un elevado número de ensayos. Esta expectativa basada en la intuición de
representatividad “local” explica el fenómeno conocido como la falacia del jugador.
Después de observar una secuencia de números rojos en la ruleta, la mayor parte de la
gente esperaría de forma errónea que ha llegado el turno del número negro,
presumiblemente porque la ocurrencia de “negro” resultaría en una secuencia más
representativa que la ocurrencia de un “rojo” adicional.

Teversky y Kahneman (1971) estudiaron las intuiciones estadísticas de psicólogos experimentados y


demostraron que la concepción errónea del azar no se limita a personas ingenuas. La creencia en la
“ley de los números pequeños “revela que la expectativa de una hipótesis válida en relación con una
población puede basarse en la significación estadística de un resultado en una muestra, prestando
poca consideración al tamaño de ésta. Como consecuencia, los investigadores corren el riesgo de
atribuir excesiva fiabilidad a resultados obtenidos con muestras pequeñas y sobreestimar la
replicabilidad de sus resultados.

3.1.4. La falacia de la conjunción


La representatividad no siempre está determinada por la frecuencia ni por la inclusión de clases de
los datos que componen el espacio muestral. En el modelo normativo de la teoría de la probabilidad,
la ley más simple y fundamental desde un punto de vista cualitativo es el principio de la extensión:
si la extensión de A3 incluye la extensión de B (es decir A ⊃ B), entonces P(A) ≥ P(B). Puesto que el
conjunto de posibilidades asociadas con la conjunción A y B está incluida en el conjunto de
posibilidades asociadas con A, puede aplicarse el mismo principio para la conjunción: P(A) ≥ P (A y
B). Una conjunción no puede ser nunca más probable que cada uno de sus constituyentes. Este
principio se aplica tanto si A y B son o no independientes y es válido para cualquier valor de
probabilidad del mismo espacio muestral.

El problema de Linda (muy citado a este respecto) describe el caso de mujer de 31 años, soltera,
sincera y muy brillante. Licenciada en Filosofía. Cuando era estudiante estaba profundamente
comprometida en temas de discriminación y justicia social, participando también en
manifestaciones antinucleares. Se presentan las opciones:
a) Linda es una maestra en escuela elemental.
b) trabaja en una librería y asiste a clases de yoga.
c) es feminista.
d) es asistente social en psiquiatría
e) es miembro de la Liga de Mujeres Votantes.
f) es cajera de un banco
g) es agente de seguros
h) es cajera en un banco y feminista
3 El conjunto de posibilidades asociadas con A.

XOSÉ VALES. CURSO 2019/2020 10


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

La tarea consistía en asignar puntuación del 1 al 8 a las afirmaciones anteriores donde 1 fuera la
afirmación más probable y 8 la menos probable. La descripción de Linda fue diseñada para ser muy
representativa de una feminista activa (c) y muy poco de cajera de banco (f), por lo que se esperaba
que considerasen más representativa de la personalidad de Linda la conjunción (h) que el
componente menos representativo de la conjunción (f). El porcentaje de participantes que mostró
orden predicho (c > h > f), fue del 85%. La violación de la regla de conjunción es la comparación
directa entre f y h (falacia de la conjunción).

Según Teversky (1977), la semejanza de un ejemplar con una categoría se define en función de la
ponderación de las propiedades que son comunes y distintivas y esta ponderación varía en función
del contexto estimular y la tarea experimental. En la descripción de Linda, la ponderación con una
cajera de banco es baja. El hecho de añadir feminismo como rasgo distintivo explica la forma en que
los participantes ordenaron la lista de afirmaciones sobre las actividades que desarrolla ella, en
función del grado con el que encajaban con el estereotipo que se deriva de la descripción. Desde el
punto de vista de la regla extensional de la Lógica, la clase “cajeras de banco” incluye a la de “Cajeras
de banco feministas”, lo que invalida desde un punto de vista normativo el juicio probabilístico
emitido por los participantes, que invierte la relación probabilística de ambas clases. El heurístico
de representatividad explica dicha inversión.

Tversky y Kahneman (2002), se plantearon si los participantes podrían reconocer la validez de la


regla de conjunción si se expresaba el problema de forma explícita. Después de la misma descripción
inicial se recibían las afirmaciones f) (Linda es cajera de un banco) y h) (Linda es cajera de un banco
y feminista) en forma de argumentos 1 y 2, respectivamente:
• Argumento 1: Es más probable que Linda sea cajera en un banco a que sea cajera en un banco
y feminista, puesto que todas las cajeras de banco feministas son cajeras de banco mientras
que algunas cajeras de banco no son feministas, y Linda podría ser una de ellas.
• Argumento 2: Es más probable que Linda sea cajera en un banco y feminista a que sea cajera
en un banco, puesto que se parece más a una feminista que a una cajera de banco.

La mayoría de los participantes eligieron el argumento no válido del parecido frente al argumento
extensional válido. Esto explica que aún cuando se induce una actitud reflexiva no elimina el
atractivo del heurístico de representatividad. Otros estudios sobre el tema, proporcionando
cuestionarios con preguntas sobre razonamiento probabilístico previo a la tarea, o bien incluso
investigando en dominios específicos y con expertos, los resultados siguen siendo consistentes con
el heurístico de representatividad.

3.2. Heurístico de accesibilidad


Las personas evaluamos la frecuencia de los ejemplares de una categoría o probabilidad de un
acontecimiento por la facilidad con la que los ejemplos nos “vienen a la mente” o se “nos ocurren”.
Evaluamos por ejemplo el riesgo de sufrir un infarto más probable en personas de entre 50 y 60
años. Los ejemplos de categorías más frecuentes se recuerdan más fácil, y rápido, pero muchas
veces esta accesibilidad se ve afectada por otro tipo de factores, produciéndose sesgos que Teversky
y Kahneman (1973) agrupan en cuatro categorías diferentes.

XOSÉ VALES. CURSO 2019/2020 11


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

3.2.1. Sesgo debido a la facilidad de recuperación


Tversky y Kahneman (1973) presentaron a las participantes listas grabadas con 39 nombres. En una
condición experimental la lista incluía 19 nombres de mujeres famosas y 20 nombres de hombres
menos famosos (lista 1). La otra condición experimental consistía en 19 nombres de hombres
famosos y 20 nombres de mujeres menos famosas (lista 2).

La fama y la frecuencia en función del sexo estaban inversamente relacionadas en ambas listas. Los
participantes se dividieron en dos grupos:
• Grupo 1 se les pidió que recordaran el mayor número de nombres que pudieran de cada lista.
• Grupo 2 se les pidió que juzgaran para cada una de las dos listas si contenían más nombres
de hombres o mujeres.

Los resultados obtenidos en ambos grupos fueron de idéntico signo para las listas 1 y 2. Los
participantes del grupo 1 recordaron más nombres de mujeres de la lista 1 y más nombres de
hombres de la lista 2, lo que indica que fue la fama y no la frecuencia objetiva lo que determinó la
facilidad de recuerdo. En coherencia con este resultado, los participantes del grupo 2 estimaron que
la lista 1 contenía más nombres de mujeres que de hombres mientras que la lista 2 contenía más
nombres de hombres, en contra también de la frecuencia relativa real.

El sesgo observado demostró el efecto significativo del heurístico de accesibilidad en el juicio


probabilístico. Además de la familiaridad, estaría la saliencia. La probabilidad subjetiva de accidentes
de tráfico aumenta temporalmente si acabamos de ver un coche volcado en la carretera. Este sesgo
de inmediatez se basa en la facilidad de recuperación de las experiencias recientes frente a las
remotas. Otro resultado consolidado es el de la investigación en la auto-percepción de estados
emocionales, pues parece que se perciben como más intensas las emociones previas e inmediatas.
Son juzgadas así desde el punto de vista fenomenológico, sensitivo e informativo.

El experimento de Van Boven, White y Huber


(2009) corrobora esta hipótesis. Los
participantes observaron dos secuencias de
películas de dos minutos de duración
separadas por un periodo de veinte minutos.
Ambas películas mostraban atrocidades con
contenidos genocidas. Se contrabalanceó el
orden de presentación de las películas entre
los participantes. Después de observar la
segunda película, se pidió a los participantes
que juzgaran la intensidad de sus estados
emocionales para cada una de las dos
películas en una escala de 7 puntos (1 =no
intensa, 7=extremadamente intensa). Los
participantes exhibieron un sesgo de
inmediatez informando que su reacción

XOSÉ VALES. CURSO 2019/2020 12


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

emocional ante la segunda película era significativamente más intensa que la reacción emocional a
la primera película.

3.2.2. Sesgo debido a la facilidad en la construcción de ejemplos


Teversky y Kahneman (1973) facilitaron una regla al participante para la construcción de ejemplos
de 2 categorías y les pidieron que estimaran su frecuencia relativa. El participante no podía
enumerar todos los ejemplos posibles, pero sí intentaba buscar algunos ejemplos y juzgar la
frecuencia de cada categoría por la accesibilidad relativa de éstos. En un experimento se
seleccionaron consonantes que en inglés son más frecuentes en la tercera posición de una palabra
(K, L,N,R, y V). El problema se planteaba al participante de la forma siguiente:

La letra (L) aparece con mayor probabilidad en:


- ¿la primera posición?
- ¿la tercera posición?
Mi estimación de la proporción de estos dos valores es: ... / ...

La frecuencia estimada fue significativamente mayor para la primera posición en las cinco letras
estudiadas, demostrando sesgo en la estimación de la frecuencia relativa debido a la superior
facilidad de generar ejemplos que empiecen con una letra determinada frente a los que la contienen
en tercera posición. Posteriormente bajo condiciones más estrictas de control y alguna
modificación, se manipularon el valor informativo o diagnóstico de la experiencia subjetiva de
accesibilidad generando en los participantes a través de las instrucciones la atribución errónea de la
experiencia de facilidad de recuperación:
• Todos los participantes escribieron en un folio en blanco 10 palabras que contenían la letra
“t” en la tercera posición.
• Los grupos se diferenciaron en la manipulación experimental del valor diagnóstico de la
experiencia de facilidad de recuperación de las palabras que empezaban por la letra “t”:
o 1. El grupo “facilitación”, debía escribir las 10 palabras que empezaban por “t” sobre
un folio con filas de pequeñas letras “t” impresas en color pálido. A este grupo se le
informó que la impresión de estas letras facilitaría la tarea de recuerdo.
o 2. El grupo “inhibición”, debía escribiría 10 palabras que empezaban por “t” sobre el
mismo tipo de folio pero se le indicó que esto dificultaría su tarea de recuerdo.
o 3. El grupo de “control”, realizó la tarea sobre folio en blanco.
• Todos los participantes valoraron el grado de dificultad de una y otra tarea de entre 1 (muy
fácil) y 8 (muy difícil) inmediatamente después de realizar cada una de ellas.
• Los juicios de frecuencia de palabras que empiezan por “t” respecto a los que la contienen en
la 3ª posición se realizaron concluidas ambas tareas, emitiendo en escala de 8 puntos, donde:
o 1 = muchas más palabras con t en tercer lugar que palabras que empiezan por “t”.
o 8 = muchas más palabras que empiezan por “t” que palabras con ten tercer lugar.

Todos los sujetos (independientemente de la condición experimental) informaron que les resultaba
más difícil recordar palabras que la tienen en la tercera posición. El efecto de la manipulación del
valor diagnóstico de la experiencia de recuperación produjo un impacto significativo en los juicios
de frecuencia relativa de los participantes. Unos creían que la hoja facilitaba y emitieron juicio bajo

XOSÉ VALES. CURSO 2019/2020 13


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

de frecuencia relativa de las palabras que empezaban por “t”; los del grupo de inhibición, creyeron
que su ejecución había sido inhibida y aportaron el juicio más alto de frecuencias relativas de las
palabras que empiezan por “t”. El juicio estimado de los participantes del grupo de control se situó
entre estos dos valores.

Estos resultados demuestran que la experiencia fenomenológica o subjetiva de facilidad o dificultad


en la recuperación de la fuente de información determina la estimación de la frecuencia relativa en
los juicios. Cuando esta experiencia subjetiva pierde versus gana valor diagnóstico, la frecuencia
relativa estimada disminuye versus aumenta en coherencia. De acuerdo con Wanke y cols., estos
resultados confirman y amplían conceptualmente la interpretación de Tversky y Kahneman (1973)
del heurístico de accesibilidad. La estimación de frecuencias relativas se basa no sólo en la
experiencia subjetiva de facilidad de recuperación sino también en el grado de confianza que el
sujeto atribuye a dicha experiencia.

A destacar también los contextos donde se hace la tarea de búsqueda. Los contextos de palabras
abstractas como igualdad, justicia, ... resultan más fáciles de imaginar o asociar a historias vividas,
leídas o basadas en películas que palabras concretas (p. ej., Constitución o Convenio) desprovistas
de connotaciones que permitan evocar con facilidad escenarios.

3.2.3. Sesgo debido a la facilidad para imaginar situaciones


La facilidad para imaginar es importante en la evaluación de probabilidades en la vida real. El riesgo
que entrañe una jornada reivindicativa (p. ej., 8M) manifestación, se evaluará en función de la
facilidad para imaginar de forma vívida con posibles contingencias peligrosas (una carga policial, un
atentado machista, la posibilidad de ser contagiado por el COVID 19, un meteorito, etc.), aunque la
facilidad con que se imaginan los posibles desastres no refleje el riesgo real. Asimismo, el riesgo
puede ser subestimado si posibles peligros reales son difíciles de concebir o simplemente no
acceden a la mente.

Sherman, Cialdini, Schwartzman y Reynolds (2002) pusieron a prueba esta hipótesis. Los
participantes asignados al grupo de control (sólo lectura) leyeron un informe sobre una supuesta
enfermedad (hiposcenia-B). En la condición “fácil de imaginar” los síntomas de la enfermedad eran
concretos y probablemente experimentados por una gran mayoría de los participantes (cansancio,
dolor muscular, dolores de cabeza frecuentes, etc.). En la condición “difícil de imaginar” los
síntomas eran mucho menos concretos (sensación vaga de desorientación, mal funcionamiento del
sistema nervioso e inflamación del hígado). Los
participantes asignados al grupo experimental
(lectura+ imaginación) fueron también asignados o
bien a la condición “fácil de imaginar” o “difícil de
imaginar”. En la condición “fácil de imaginar”, a los
participantes se les indicó que debían leer el
informe mientras imaginaban cómo sufrían los
síntomas de la enfermedad durante un periodo de
tres semanas. A continuación, se pidió a todos los
participantes que juzgaran la probabilidad de sufrir

XOSÉ VALES. CURSO 2019/2020 14


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

hiposcenia-B en el futuro en una escala de 10 puntos que iba desde muy probablemente (1) hasta
muy improbablemente (10).

Los resultados mostraron que los participantes del grupo “imaginación” mostraron una tendencia a
juzgar la probabilidad de contraer la enfermedad en la condición “fácil de imaginar” superior a la del
grupo de control, y una tendencia a juzgar la probabilidad de contraer la enfermedad en la condición
“difícil de imaginar” inferior a la del grupo de control.

3.2.4. Sesgo debido a la correlación ilusoria e ilusión de control


Las asociaciones entre eventos se fortalecen como resultado de la ocurrencia conjunta repetida.
Esto determina que juzguemos la frecuencia de ocurrencia conjunta de los que están asociados en
proporción elevada. Sin embargo, este tipo de estimaciones tampoco escapa a la posibilidad de
sesgos en el juicio probabilístico.

El término correlación ilusoria propuesto por Chapman (1967), agrupa los errores que se producen
como resultado de la sobreestimación de la correlación entre dos eventos. En los experimentos de
Chapman los participantes recibían pares de palabras proyectadas en una pantalla. Unas a la
derecha (huevos, tigre o cuaderno) y otras a la izquierda (beicon, león, flor, barca) y se agrupaban
al azar. Los participantes sobreestimaron la frecuencia de aparición de los pares semánticamente
relacionados como: beicon-huevos o león-tigre. La relación semántica entre esas palabras explica
la fuerza de asociación en la memoria y la facilidad para su recuperación, lo que lleva a sobreestimar
la frecuencia objetiva.

La correlación ilusoria es uno de los mecanismos en que se basa la explicación del origen de las
supersticiones o las creencias mágicas, el “efecto de halo” y los estereotipos sociales. Sobreestimar
la correlación que existe entre dos factores distintivos, p. ej., cometer delitos y pertenecer a un
grupo minoritario, contribuye a generar estereotipos negativos sobre estos grupos (Mullen y
Johnson, 1990).

Cuando se sobreestima la correlación entre la conducta y sus consecuencias se produce “ilusión de


control” (expectativa de probabilidad de éxito personal inadecuadamente elevada con relación a la
probabilidad objetiva). Langer (1975) demostró en unos experimentos en los que simuló distintos
tipos de azar induciendo factores supuestamente relacionados con la habilidad y destreza del
jugador, como son la competitividad, la posibilidad de elegir, la familiaridad con los estímulos y las
respuestas y la implicación pasiva o activa en la situación. Este fenómeno es uno de los factores que
explica el sentimiento excesivo de confianza en el éxito y el riesgo excesivo asumido en los juegos
de azar. Contribuye además a explicar la persistencia de este sesgo en la sobreconfianza en la
calibración del propio juicio (juicio de segundo orden).

3.3. Heurísticos del prototipo


Kahneman y Frederick (2002; 2005) han utilizado el término “Heurístico del prototipo”
enmarcándolo en el enfoque del juicio heurístico dentro de un modelo más integrador que el inicial
presentado. Parece ser que estos heurísticos son el resultado de un doble proceso de sustitución:

XOSÉ VALES. CURSO 2019/2020 15


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

• Una categoría se sustituye por su ejemplar prototípico. En el ejemplo de Linda, ya no se piensa


en la categoría cajera del banco sino en un ejemplar prototípico que representa esa categoría,
la persona de mi banco con traje, por ejemplo.
• Un atributo de la categoría (el que se evalúa en el juicio emitido) se sustituye por una
propiedad del prototipo. En el caso de Linda se evalúa las semejanzas con el prototipo.

P. ej., cuando un participante juzga la probabilidad de que Linda sea cajera de banco (frente a cajera
de banco y feminista) está llevando a cabo dos procesos de sustitución. Sustituye la categoría “cajera
de banco” por su ejemplar prototípico, para después sustituir el atributo de probabilidad de la
pertenencia de Linda a la categoría por la propiedad de semejanza de Linda con el prototipo. Desde
el modelo normativo de la Teoría de la probabilidad, la probabilidad de pertenencia debería variar
con la probabilidad a priori de la categoría. Por el contrario, en la predicción por representatividad
de la pertenencia de un ejemplar a una categoría se descarta la probabilidad a priori porque el
prototipo de una categoría no contiene información sobre la frecuencia de sus miembros.

La novedad del enfoque integrador de Kahneman y Frederick (2002) se concreta en que la


representatividad no es necesariamente la propiedad del prototipo que sustituye al atributo de la
categoría. En un estudio se presenta una doble pregunta:
• ¿Cómo te sientes de feliz con tu vida en general?
• ¿Cuántas citas románticas has tenido durante el último mes?
Strack, Martín, y Schwarz (1988) demostraron que la correlación entre estas dos preguntas fue
insignificante cuando se plantearon en este orden y alcanzó el valor de 0.66 cuando se invirtió el
orden de presentación de las preguntas. En este caso, el número de citas en el último mes
difícilmente puede considerarse representativo del sentimiento global de felicidad, pero la
accesibilidad de la información le confiere una saliencia y un peso relativo elevados.
La evaluación retrospectiva de las experiencias con valor afectivo ilustra bien el doble proceso de
sustitución basado en la accesibilidad de la información. Esta evaluación se basa fundamentalmente
en el promedio entre la media del pico más saliente de la experiencia global y el pico más próximo
al final de la experiencia.

Redelmeier y Kahneman (1996) registraron el nivel de dolor informado cada 60 segundos en una
prueba de colonoscopia. Dicha prueba duraba entre 4 y 69 minutos. Se tenía paciente A y B, y los
resultados demostraron que la evaluación restrospectiva del dolor producido por la prueba, podía
predecirse con un grado considerable de eficacia promediando el pico más elevado con la magnitud
de dolor que había producido el momento final de la experiencia. “A” informó que había sido mucho
más desagradable pero el pico máximo no se diferenció entre ambos sujetos y el participante “B”
soportó una prueba más prolongada. Lo que ocurre es que el valor afectivo de la experiencia para
el “A” quedó determinado por ser este pico alto próximo al final de la prueba. Redelmeier, Katz y
Kahneman (2003) demostraron que el simple hecho de añadir al final de la experiencia un intervalo
corto de malestar mínimo produjo en los pacientes una evaluación global de la experiencia como
menos aversiva e incrementó el número posterior de pruebas de seguimiento4.

4La implicación de este hallazgo en el ámbito aplicado es que debería minimizarse el nivel de malestar físico cuando va a concluir la
experiencia y potenciarse la atención afectiva al paciente en el momento final en pruebas médicas dolorosas en las que el paciente debe estar
consciente.

XOSÉ VALES. CURSO 2019/2020 16


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

Un doble proceso de sustitución da lugar al heurístico de prototipo que determina el juicio subjetivo
del sujeto. La categoría “dolor que produce la experiencia global” se sustituye por el prototipo
“promedio del pico más elevado de dolor y del valor más próximo al final de la experiencia”. Pero
en este caso la propiedad del prototipo no viene dada por la representatividad de la información
(duración total de la experiencia o magnitud promedio del dolor global) sino por su accesibilidad en
la memoria.

La insensibilidad a características extensionales de las categorías (las probabilidades a priori en la


predicción de la pertenencia de un ejemplar a una categoría o la relación monotónica entre la
duración de la experiencia y su valor afectivo) constituye ejemplos de la desviación sistemática del
modelo normativo de la lógica en el juicio intuitivo bajo incertidumbre. El proceso común de
sustitución del atributo de la categoría por una propiedad del prototipo se demuestra en variedad
de dominios e indica que los juicios complejos se sustituyen por valoraciones semánticamente más
simples y accesibles. El ejemplo del “dolor”, constituye la estimación cuantitativa subjetiva de una
experiencia con valor afectivo.

3.4. Heurístico de anclaje y ajuste 5


Circunstancialmente realizamos estimaciones de cantidades a partir de un valor inicial que se va
ajustando hasta la respuesta final. El valor inicial puede sugerirse por la formulación del problema o
ser el resultado de un cómputo parcial. En uno u otro caso, diferentes puntos de partida producen
estimaciones diferentes sesgadas hacia el valor inicial. Tversky y Kahneman (1974) pidieron a los
participantes estimar el porcentaje de países africanos de Naciones Unidas. El valor inicial (entre 0
y 100) se establecía haciendo girar una rueda de fortuna en su presencia. El experimento se
desarrolló en 2 fases:
• 1º fase de juicio comparativo: estimar si el porcentaje era superior o inferior al resultado del
giro de la rueda.
5 “El heurístico de anclaje hace referencia a que en nuestros juicios nos dejamos llevar por la información que nos ponen previa. Por ejemplo,

imagine que va a comprar una casa y le dicen que la casa vale 600.000 €. Usted dirá que es mucho y le dirá el vendedor, ponga un precio. El
heurístico de anclaje predice que usted usará esta ancla 600.000 € o para decir un precio después. Esto lo usan mucho los que venden pisos
porque saben que, aunque bajarán el precio, los compradores partirán de este precio”. ED

XOSÉ VALES. CURSO 2019/2020 17


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

• 2º fase de juicio absoluto: se pedía establecer el porcentaje concreto requerido.

La mediana de las estimaciones para valores iniciales de 10 y 65, fueron de 25 y 45 respectivamente,


demostrando el efecto del valor de partida en la respuesta final. Los iniciales eran producto de azar,
y estos valores numéricos informativos pueden servir como anclajes. El participante basa su
estimación en un cómputo inicial incompleto. Tversky y Kahneman (1974) pidieron a un grupo de
estudiantes estimar en 5 segundos el siguiente producto:

8x7x6x5x4x3x2x1

Y a un segundo grupo el producto:


1x2x3x4x5x6x7x8

La mediana de la estimación en secuencia descendente fue de 2.250 y para la ascendente de 512. El


valor real es 40.320. El producto de los primeros números constituye la información de anclaje que
explica el valor estimado en el juicio absoluto. En la fase comparativa se genera una estimación de
la cantidad independiente del valor de anclaje y compara este valor con su estimación para
determinar si el anclaje es demasiado alto o bajo. Para emitir el juicio absoluto, ajusta el juicio inicial
en la dirección apropiada hasta encontrar el valor más aceptable. Este proceso de ajuste es
insuficiente porque termina el límite más próximo al valor del ancla dentro del rango de valores
posibles.
Los resultados del estudio de Jacowitz y Kahneman (1995) cuestionan esta interpretación. En su
estudio los valores de anclaje proporcionados se basaron en las estimaciones de 15 problemas de
juicio cuantitativo obtenidas en un grupo de sujetos que no participaron en el experimento de
estimar altura del monte Everest, la distancia entre San Francisco y Nueva York, o el número de
profesoras en la Universidad de Berkeley. Los valores de anclaje correspondían al percentil 15 y 85
de este grupo como anclas de valor bajo frente a alto. Los autores demostraron un efecto
asimétrico en el sesgo de anclaje. Este fue significativamente superior para los valores elevados. Y
se vio reforzado por el hecho de que un porcentaje de sujetos (27%) superior al grupo de 15% inicial,
generaron juicios cuantitativos superiores al valor del percentil 85 y no fue así con el porcentaje de
sujetos (14%) que generaron juicios inferiores al del percentil 15 del grupo inicial. Los valores de
anclaje altos incrementan la plausibilidad de los valores superiores al ancla en mayor medida que
los bajos incrementan la plausibilidad de los valores inferiores al ancla, siendo la razón de que 0 es
el límite, pero no se da límite superior (infinito). Según los autores, se pone de manifiesto que el
sesgo no siempre se da en el proceso de ajuste de la estimación inicial, puesto esta ancla puede
alterar la creencia inicial del individuo y modular el juicio absoluto emitido. Por tanto, se sugiere que
este proceso de anclaje se inicia en la fase de comparación y sesga la estimación inicial del sujeto,
previa al juicio absoluto. Jacowitz y Kahneman (1995) concluyen enumerando tres posibles causas
del anclaje en tareas de juicio cuantitativo, que no deben considerarse mutuamente excluyentes. El
ancla puede considerarse:
• Un punto de partida para el ajuste (formulación inicial de Tversky y Kahneman (1974).
• Un indicio conversacional, debido a la saliencia que le confiere la autoridad académica del
experimentador.
• Una sugerencia o prime.

XOSÉ VALES. CURSO 2019/2020 18


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

En la línea de los resultados de Jacowitz y Kahneman, la investigación más reciente sugiere que el
anclaje se origina con frecuencia en la fase de recuperación de la información y que el ancla actúa
como una sugerencia, haciendo la información consistente con el ancla más accesible. En apoyo de
esta interpretación, se demuestra que el efecto de anclaje no se produce si no se cumplen
determinadas condiciones de compatibilidad entre el ancla (valor inicial) y el juicio requerido
(respuesta final), como es la escala de medida en la que se formulan ambos.

El trabajo de Strack y Mussweiler (1997) demuestra que, además, es necesario que se expresen en
la misma dimensión (altura frente anchura). Estos autores utilizaron cuatro condiciones
experimentales.

A los participantes se les formularon dos preguntas. En la primera se les pedía un juicio comparativo
considerando valor del ancla “mayor o menor que”, y en la segunda un juicio absoluto. Se utilizaron
cuatro condiciones 2 x 2 (compatibilidad o no de la dimensión del ancla con la dimensión del juicio;
y valor del ancla alto frente a bajo). La interacción reveló que el efecto de anclaje solo fue
significativo cuando las dimensiones fueron iguales solo cuando el valor del ancla fue elevado. El
hecho de que el efecto de anclaje disminuya de forma significativa cuando la dimensión del juicio
difiere de la del ancla, no puede explicarse por el priming numérico que proporciona el ancla.
Sugieren los resultados que la fuerza del efecto depende de la medida en que la información es
activada por el ancla también se percibe como aplicable al juicio absoluto.

Strack y Mussweiler 1997 terminan su investigación con otro experimento que permite poner a
prueba la hipótesis del priming semántico y no el numérico por sí mismo, es el responsable de los
efectos de anclaje. Utilizaron cuatro condiciones experimentales, un 2 x 2 (ancla plausible / no;
ancla alta frente a baja).

XOSÉ VALES. CURSO 2019/2020 19


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

Como variables dependientes se registraron valores de juicios y la latencia de respuesta en los dos
juicios (comparativo y de valor absoluto). El análisis de la latencia desvela algo interesante:
• Las latencias (tiempos) fueron significativamente mayores para las anclas plausibles frente a
las no plausibles, mientras que en los juicios absolutos este patrón fue al revés.
• Los datos sugieren que cuando el ancla es un valor plausible, los participantes resuelven la
tarea comparativa elaborando la respuesta en un proceso cognitivo que consume tiempo. La
información relevante es fácilmente accesible y acelera la respuesta en la tarea de juicio
absoluto posterior. Cuanto más tiempo consuma el juicio comparativo menos tiempo
consumirá el juicio absoluto.
• Las latencias en ambos juicios deberían estar inversamente correlacionadas, pero sólo en la
tarea comparativa cuando se utilice información relevante.
• En el caso de las anclas plausibles, ambas latencias de respuesta correlacionaron de forma
negativa y significativa de tal forma que las latencias más largas en el juicio comparativo
implicaban latencias más cortas en el juicio absoluto. Para las anclas no plausibles, sin
embargo, las latencias de respuesta de ambos juicios no correlacionaron.

Chapman y Johnson (2002) presentan modelo


alternativo a la propuesta de Tversky y
Kahneman (1974), que permite interpretar el
sesgo de anclaje en amplio abanico de tareas y
procedimientos experimentales. El mecanismo
se basa en proceso de accesibilidad selectiva que
se genera en la fase de recuperación de la
información y determina la formación de la
respuesta. Este proceso es el resultado de
múltiples causas y los mecanismos responsables
pueden producirse en más de una fase. Los
sesgos y errores se producen a consecuencia del
priming asimétrico en el proceso de
recuperación de la información, incrementando
desproporcionadamente la disponibilidad de
rasgos compartidos por “ancla” y respuesta y
reduciría la disponibilidad de aquellos rasgos
que los diferencian.
Imaginemos que has vivido toda tu vida en Xixón y un día por circunstancias de la vida te trasladas
a vivir a Madrid, caes enfermo y tiene que acudir al médico. El SESPA podrían servir para valorar la
calidad de la sanidad madrileña y ajustarla luego según la diferencia en calidad. El proceso de anclaje
es, en este caso, equilibrado e ilustra la funcionalidad del heurístico como recurso rápido que implica
un esfuerzo cognitivo mínimo. Imaginemos, como estrategia alternativa, que tiene que ser tratado
de un cáncer de testículos, pero en lugar de tratarlo en la sanidad pública Madrileña se trata en la
prestigiosa y carísima clínica Ruber de Madrid. Obviamente, si activamos los rasgos compartidos
(sistema de salud) en detrimento de los rasgos que diferencian ambos (sanidad privada frente a
sanidad pública) nuestra estimación será excesivamente elevada y estaremos cometiendo un sesgo
en la valoración. A diferencia del enfoque del efecto de anclaje como ajuste insuficiente

XOSÉ VALES. CURSO 2019/2020 20


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

determinado por el valor del ancla, el modelo de accesibilidad selectiva atribuye el sesgo en el juicio
absoluto a una ponderación excesiva de los rasgos comunes entre el ancla y la respuesta en
detrimento de los discrepantes, basada en una tendencia confirmatoria.

Si el ancla produce efecto sobre el juicio incrementando la accesibilidad de rasgos comunes y reduce
a los diferentes, el hecho de incrementar experimentalmente la accesibilidad de rasgos diferentes
debería reducir el sesgo hacia el valor inicial. Chapman y Johson (1999) pidieron a unos estudiantes
que predijeran sobre las siguientes elecciones presidenciales en EEUU.

• 1º Debían escribir los dos últimos dígitos del nº de la seguridad social y considerarlo como
una probabilidad.
• 2º Se les pide que pensaran en la probabilidad de que el candidato republicano ganara las
elecciones presidenciales y que compararan su respuesta con el número apuntado. Esta
primera estimación de probabilidad no se registró, para que se consideraran los dígitos como
valor de anclaje. Las probabilidades de anclaje fluctuaron de 0 a 99% con una media de 48%
y una mediana de 51%.
• 3º Asignar a los sujetos aleatoriamente a una de tres condiciones experimentales:
o Condición “a favor”: escribir razón por la que el republicano debía ganar.
o Condición “en contra”: escribir razón por la que el republicano no debería ganar.
o Condición “neutral”: no se les pidió escribir.
• 4º Se les pide una segunda estimación por escrito de que el candidato republicano ganara las
elecciones. Se establecieron tres categorías de participantes:
o 1. SIMILAR: los de razón a favor con valores de anclaje SUPERIOR al 50% y aquellos en
contra con anclaje INFERIOR al 50%
o 2. DIFERENTE: los de razón a favor con anclaje INFERIOR al 50% y aquellos en contra
con anclaje SUPERIOR al 50%
o 3. NEUTRAL: los del grupo neutral.

Los resultados confirmaron la hipótesis de partida demostrando que el efecto de anclaje fue
significativo sólo para las condiciones “similar” y “neutra”, y el sesgo de anclaje puede reducirse o
eliminarse propiciando que los participantes identifiquen razones discrepantes con el valor del
ancla.

Según Epley y Gilovich (2001), los procesos implicados en el efecto de anclaje difieren dependiendo
de si el ancla es suministrada por el experimentador o por cualquier otra fuente externa, o bien es
por el propio participante a partir de las preguntas planteadas. En este caso, el proceso de ajuste
sería el responsable del efecto en la medida en que el valor numérico del ancla, por su condición de
respuesta autogenerada, adquiriría el estatus de respuesta candidata con el peso específico
suficiente para iniciarlo.

Para poner a prueba esta hipótesis, los autores compararon dos condiciones experimentales: “el
valor del ancla lo genera el participante” frente a “el valor del ancla lo proporciona el
experimentador”. Las respuestas fueron grabadas, transcritas y evaluadas por dos jueces. Para cada
respuesta el juez evaluaba si el participante conocía el valor del ancla, si utilizaba esta como base de

XOSÉ VALES. CURSO 2019/2020 21


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

la respuesta y si mencionaba el ajuste a partir del valor del ancla para alcanzar la estimación final 6.
El acuerdo entre estos era alto (0.94) y consideraron que los sujetos habían utilizado el mecanismo
de anclaje y ajuste si sus informes verbales se referían tanto al ancla como al proceso de ajuste. A
los que se les proporcionó utilizaron menos el mecanismo de ajuste a partir del ancla que aquellos
que habían generado de forma espontánea el valor inicial.

Epley y Gilovich 2001, coincidieron con Jacowitz y Kahneman proponiendo una taxonomía de
posibles efectos de anclaje en los juicios bajo incertidumbre en la medida en que son muchas las
variables que pueden intervenir en función de la tarea o experimento. Los resultados de la
investigación que hemos recogido en este apartado nos permiten señalar algunas de ellas: la
magnitud del valor del ancla, alto frente bajo, la compatibilidad o no de la escala de media y
dimensión del ancla y el juicio absoluto, el grado de plausibilidad del ancla, y el hecho de que el
ancla sea generada de forma espontánea por el participante o comunicada por el experimentador.

3.5. La teoría del apoyo


La teoría del apoyo constituye una perspectiva del juicio intuitivo bajo incertidumbre que permite
explicar, bajo un marco teórico integrador, gran parte de la evidencia revisada en el apartado previo,
que caracteriza las operaciones mentales que responden a la denominación del juicio basado en
heurísticos en la evaluación de frecuencias y probabilidades (Brenner, Koehler y Rottenstreich,
2002). El efecto de desempaquetado es el principio explicativo de esta teoría, el cual quiere
demostrar que “el todo es menor que la suma de sus partes”. Las descripciones detalladas de un
acontecimiento determinado dan lugar, de forma sistemática, a juicios de probabilidad superiores
que las que genera una descripción general del mismo acontecimiento. P. ej., un acontecimiento
especifico “1000 personas morirán en un terremoto”, se juzga como como más probable que un
evento más inclusivo “1000 personas morirán en un desastre natural”.

6
Ante la pregunta ¿cuándo fue elegido Washington presidente de los Estados Unidos? los participantes procedían, por ejemplo, de esta forma: «Si Estados Unidos
declaró su independencia en 1776 (ancla autogenerada), llevaría algunos años la elección del presidente, por tanto, Washington debió ser elegido en …». Ante la
pregunta ¿cuándo llegó a las Indias Occidentales el segundo explorador europeo, posterior a Cristóbal Colón?, un ejemplo de utilización de un ancla autogenerada
como base de la respuesta fue: «Si Cristóbal Colón llegó a las Indias Occidentales en 1492, el segundo explorador europeo debió llegar en …»

XOSÉ VALES. CURSO 2019/2020 22


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

Tversky y Koehler (1994) desarrollaron una teoría no extensional en la cual la probabilidad subjetiva
no está ligada a los acontecimientos, sino a las descripciones de estos, denominadas hipótesis. La
evidencia empírica demuestra que el juicio probabilístico sobre un evento determinado depende
del grado en que se explicita su descripción. Cada hipótesis A, posee un valor de apoyo determinado,
s(A), que corresponde a la fuerza de la evidencia favorable a dicha hipótesis. La clave es que
desempaquetar la descripción de una hipótesis en sus posibles componentes o hipótesis
elementales generalmente aumenta su apoyo. Así, el apoyo de la disyunción explícita Ca ѵ Cn es igual
o mayor que el apoyo de la disyunción implícita, C, que no menciona ninguna causa. Por tanto:

𝑠(𝐶) ≤ 𝑠(𝐶𝑎 𝑉 𝐶𝑛 )

La Teoría del apoyo es subaditiva para disyunciones implícitas (C), y aditiva para las disyunciones
explícitas (Ca V Cn):
𝑠(𝐶𝑎 𝑉 𝐶𝑛 ) = 𝑠(𝐶𝑎 ) + 𝑠(𝐶𝑛 ),

El grado de subaditividad es influido por varios factores, uno es la interpretación de la escala de


probabilidad, será pronunciada cuando la probabilidad se interpreta como la predisposición de un
caso individual respecto a cuando se estima como frecuencia relativa en una determinada
población. Kahneman y Tversky (1982) denominan a estas dos modalidades de juicio singular y
distribucional y que es más preciso el segundo. Esta propuesta indica que la disyunción implícita
“accidente” se desempaqueta con mayor facilidad en sus componentes (p. ej., accidente de coche,
de avión, fuego, envenenamiento...) cuando se considera a la población en su conjunto frente a una
persona particular. Las posibles causas de muerte se representan en las estadísticas de mortalidad
de la población, pero no en la muerte de una persona. La tendencia a “desempaquetar” una
disyunción implícita es mayor en modo distribucional que en singular o individual 7. Cuando el
problema se formula en términos de frecuencias se espera que se produzca “descuento”, es decir,
menor diferencia entre la probabilidad de la hipótesis implícita y la suma de las probabilidades de
las hipótesis elementales explícitas.
Tversky y Koehler (1994) pusieron a prueba el supuesto del principio del “desempaquetado”: la
subaditividad para las disyunciones implícitas: 𝑠(𝐶) ≤ 𝑠(𝐶𝑎 𝑉 𝐶𝑛 ).

Los participantes se dividieron en 2 grupos:


• Grupo 1: Recibió la instrucción de estimar las probabilidades de muerte para el caso de una
persona determinada como consecuencia de causa específica.
• Grupo 2: Realizaron una tarea de juicios de frecuencia y evaluaron el porcentaje de personas
de los 2 millones de muertes del año previo que podían atribuirse a cada una de las causas.

La tarea consistía en evaluar una hipótesis implícita (muerte como resultado de causa natural) o una
disyunción explícita (muerte a consecuencia de una enfermedad cardiaca, cáncer o alguna otra
causa natural), pero nunca ambas. Se definieron tres componentes y cada uno se dividía en 7
7“El juicio lo hacemos mejor cuando se trata de una población que para un caso individual concreto, por tanto, las diferencias entre lo explícito
e implícito serán menores. La probabilidad del todo es igual a la suma de las partes, es decir, si la probabilidad de encontrar trabajo es el 70%.
Esto es igual a la probabilidad de encontrar trabajo en un hospital (15%) + la probabilidad de encontrar trabajo en un colegio (15%) + la
probabilidad de encontrar trabajo en una empresa (15%) + la probabilidad de encontrar trabajo en otro sitio (25%). Sin embargo, las personas le
damos más probabilidad a las disyunciones explícitas (la suma de las partes) que al todo (la disyunción implícita)”. ED

XOSÉ VALES. CURSO 2019/2020 23


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

subcomponentes. Se esperaba que el hecho de explicitar en mayor medida las causas de la muerte
incrementaría la subaditividad: la diferencia entre la probabilidad asignada a la hipótesis implícita y
la suma de las probabilidades de los componentes de la hipótesis.

Tversky y Koehler (1994) denominaron factor de desempaquetado al índice del grado de


subaditividad, calculando la ratio de las probabilidades asignadas a las hipótesis explícitas y la
probabilidad asignada a la hipótesis implícita como un indicador del grado de subaditividad “factor
de desempaquetado” (“Van a calcular un factor de desempaquetado que indica el grado de
subaditividad y viene definido por el ratio (diferencia entre probabilidad asignada a disyunción
explícita e implícita” ED). Este factor puede calcularse dividiendo la suma de las probabilidades de
las hipótesis elementales explícitas por la probabilidad de la hipótesis implícita (Σ/P). Cuanto mayor
sea el valor de dicho factor, mayor el grado de subaditividad observado (“A MAYOR RATIO (NÚMERO
QUE SALE), MAYOR SUBADITIVIDAD Y MAYOR LAS DIFERENCIAS ENTRE DISYUNCIÓN EXPLÍCITA E
IMPLÍCITA”. ED). Siguiendo con el ejemplo anterior, hay que indicar que el grado de subaditividad
aumentó con el número de componentes en la disyunción explícita (mayor grado al juzgar
probabilidades que al hacerlo con frecuencias). Los resultados respaldaron la teoría del apoyo al
confirmar las dos hipótesis de partida y permitieron concluir a Tversky y Koehler (1994) que la
subaditividad que se observa en una disyunción implícita es tanto mayor cuanto más se explicitan
sus posibles componentes y es más acusada en juicios probabilísticos frente a juicio de frecuencias.

Tversky y Koehler (1994, 2002) formulan un modelo subaditivo del juicio probabilístico para las
disyunciones implícitas que contrasta con el modelo bayesiano, que asume el supuesto de

XOSÉ VALES. CURSO 2019/2020 24


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

aditividad. Supongamos que A1, A2 son hipótesis mutuamente excluyentes, siendo A1 ∨ A2 la


disyunción explícita de la hipótesis implícita A. Las ecuaciones que nos permiten contrastar de forma
global ambos modelos son las siguientes:
Teoría del apoyo 𝑷(𝑨) ≤ 𝑷(𝑨𝟏 ∨ 𝑨𝟐 )
Modelo bayesiano 𝑷(𝑨) = 𝑷(𝑨𝟏 ∨ 𝑨𝟐 )

La teoría del apoyo predice que P(A) ≤P (A1 ∨ A2) como consecuencia del “desempaquetado” de la
hipótesis implícita. Por contraste, el modelo bayesiano asume el principio de extensión en la teoría
de la probabilidad, por lo que predice que P(A) = P (A1 ∨ A2).

El principio de extensión es posiblemente una de las reglas más simples y transparentes en la teoría
de la probabilidad. Su violación es uno de los errores más llamativos y sorprendentes del
razonamiento probabilístico. La regla de la conjunción es violada por la falacia de la conjunción; la
regla de la disyunción, donde la probabilidad De (A o B) no puede ser inferior ni a la probabilidad de
A ni a la de B porque constituye la suma de ambas. La subaditividad8 demostrada en el juicio
probabilístico es una clara violación de la regla de la disyunción cuando no se explicitan las causas
de un evento en una disyunción implícita.

Van Boven y Epley (2003) generalizaron el hallazgo de Tversky y Koehler a juicios evaluativos con
valor afectivo, en los que se juzga el carácter positivo o adverso de una categoría o de las
consecuencias de un acontecimiento. Los autores señalan que los factores más relevantes que
explican el efecto serían las descripciones detalladas de los elementos constituyentes de una
hipótesis permitiendo recordar con mayor facilidad posibilidades que han pasado por alto y facilitan
la simulación mental y la imaginación vívida de las categorías o acontecimientos. Parece ser que en
los juicios evaluativos de una categoría parece jugar un papel más importante la facilidad con la que
se recuerdan sus elementos constituyentes que la cantidad total de elementos que pueden
recuperarse.

4. LA TEORÍA DE LOS MODELOS MENTALES


Esta teoría ofrece un marco explicativo unitario para la deducción e inducción y sostiene que las
conclusiones probabilísticas son el resultado de ambos tipos de inferencias (Johnson-Laird, 1994).
Los individuos razonamos construyendo modelos de las situaciones descritas en las premisas. Una
conclusión es posible si mantiene en al menos un modelo de las premisas, es probable si aparece en
la mayor parte de los modelos y es necesaria si se da en todos los modelos.

Esta teoría da cuenta del razonamiento extensional sobre probabilidades (del razonamiento
deductivo que genera la probabilidad de un acontecimiento a partir de las diferentes posibilidades
en que puede ocurrir). Se basa en 3 principios fundamentales:
• Principio de verdad. Las personas representan situaciones construyendo exclusivamente
aquellos modelos mentales que responden a una posibilidad verdadera, debido a la

8 “La subaditividad es la diferencia de la probabilidad implícita y explicita. Por ejemplo, atendiendo a las matemáticas la probabilidad de conseguir

un trabajo es 0,70 (disyunción implícita) y esto es igual a la probabilidad de encontrar trabajo en un hospital (15%) + la probabilidad de encontrar
trabajo en un colegio (15%) + la probabilidad de encontrar trabajo en una empresa (15%) + la probabilidad de encontrar trabajo en otro sitio
(25%). Es decir, 0,70=0,15+0,15+0,15+0,25” ED

XOSÉ VALES. CURSO 2019/2020 25


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

capacidad limitada de la memoria de trabajo. Las situaciones con probabilidad 0


(corresponden a lo que es falso, por lo que, de acuerdo con la teoría, no se representan
generalmente en los modelos.
• Principio de equiprobabilidad. Cada modelo representa una alternativa equiprobable, a
menos que el conocimiento o las creencias de los sujetos indiquen lo contrario, en cuyo caso
asignarán diferentes probabilidades a diferentes modelos
• Principio de proporcionalidad. Garantizada la equiprobabilidad, p (A)= nA/n. Si un
acontecimiento, A, ocurre en cada modelo en el que ocurre otro acontecimiento, B, entonces
A es al menos tan probable como B, y si, además, A ocurre en algunos modelos en los que B
no ocurre, entonces A es más probable que B.
• Principio numérico. Si una premisa hace referencia a una probabilidad numérica, serán
etiquetados con sus valores numéricos apropiados, y una probabilidad desconocida puede
ser calculada restando la suma de las (n-1) probabilidades conocidas de la probabilidad global
de la n posibilidades en la partición.

Para explicar las inferencias bayesianas en el razonamiento probabilístico se requiere, además, un


quinto principio que Johnson-Laird y cols. (1999) ilustran con el ejemplo siguiente:
De acuerdo con las estadísticas, 4 de cada 10 personas sufren una enfermedad, 3 de cada 4 con la
enfermedad tienen el síntoma, y 2 de cada 6 sin la enfermedad tienen el síntoma. Pat es una persona
seleccionada al azar y tiene el síntoma. ¿cuál es la probabilidad de que Pat sufra la enfermedad? Los
sujetos ingenuos construirán los modelos mentales verdaderos y equiprobables, que serían
etiquetados con sus valores numéricos apropiados.

De acuerdo con Johnson-Laird y cols. (1999) la probabilidad de que Pat sufra la enfermedad puede
ser calculada a partir de la representación extensional de los modelos mentales vistos en la tabla
anterior sin necesidad de utilizar el Teorema de Bayes.
• Principio del subconjunto. Suponiendo la equiprobabilidad, la probabilidad condicional
p(A|B) depende del subconjunto de B que es A, y la proporcionalidad de A respecto a B da
lugar al valor numérico. Si los modelos se etiquetan con sus frecuencias absolutas entonces
la probabilidad condicional es igual al modelo de A y B dividido por la suma de todas las
frecuencias de modelos que contienen a B (los sujetos asignan erróneamente valores al
numerador o denominador).

XOSÉ VALES. CURSO 2019/2020 26


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

Si se aplican correctamente este principio, serían capaces de inferir deductivamente el subconjunto


A y B (enfermedad y síntoma) del conjunto apropiado B (síntoma) y resolver correctamente la
inferencia bayesiana a partir del cálculo de la relación probabilística 3/5. Si los sujetos se focalizan
en el modelo:
enfermedad síntoma 3

Extraerían este subconjunto erróneamente del conjunto de todas las posibilidades y afirmarían que
la relación probabilística es 3/4. En este caso, los sujetos estarían no estarían atendiendo a la
capacidad predictiva del dato, es decir, a la probabilidad de que el síntoma (B) se observe en
ausencia de enfermedad (no A).

Giutto y Gonzalez (2001), manipularon el contenido de las instrucciones aplicando el principio del
subconjunto para calcular la probabilidad condicional inversa. Para resolver problemas similares al
de Pat y plantearon dos pasos pidiendo que se completaran frases como las siguientes:
“Vamos a analizar cuál es el problema de que Pat sufra la enfermedad en el supuesto de que presente
el síntoma. Del total de 10 posibilidades, Pat tiene ________posibilidades de tener el síntoma; entre
éstas posibilidades, _________posibilidades estarían asociadas con la enfermedad.”

Las instrucciones facilitaron la respuesta correcta (de 5 posibilidades de tener el síntoma, 3 están
asociadas con la enfermedad) en el 53% de los participantes, frente al 8% en la condición de control.

Los principios normativos de la inferencia bayesiana resultan frecuentemente contraintuitivos y


propone una pedagogía del razonamiento bayesiano basada en la teoría de los Modelos Mentales
en la que las probabilidades se planteen en términos numéricos sencillos, y así permitir la inferencia
de la probabilidad condicional posterior aplicando el principio del subconjunto sin necesidad de
aplicar el Teorema de Bayes9.

Barbey y Sloman (2007), integran el enfoque de los modelos mentales enmarcado dentro de las
hipótesis de los conjuntos anidados. Los errores y sesgos en la inferencia bayesiana se reducen de
forma considerable cuando el planteamiento del problema facilita la representación de las
relaciones inclusivas de las categorías relevantes para resolverlo. Según éstos el que se haga más
fácil debido a la presentación de frecuencias en vez de en formato de probabilidades, se debe a que
el formato de frecuencias contribuye a clarificar y hacer más transparentes las relaciones inclusivas
pertinentes. Los autores presentaron mediante gráfica con círculos de Euler, el rendimiento de dos
grupos de sujetos en dos versiones de un problema:

“Se ha desarrollado una prueba para detectar una enfermedad. La probabilidad de que un americano
la padezca es de 1/1000. Un individuo que no padece la enfermedad tiene una probabilidad del 5%
de dar positivo en la prueba. Un individuo que padece la enfermedad dará positivo en la prueba en
todos los casos. ¿Cuál es la probabilidad de que una persona extraída al azar que dé un resultado
positivo padezca realmente la enfermedad? ______ %”

9
P(H|D) = P(D|H)·P(H)/[P(D|H)·P(H) + P(D|H')·P(H')] P(enfermedad|síntoma) = P(síntoma|enfermedad)·P(enfermedad)/[P(síntoma|enfermedad)· P(enfermedad)
+ P(síntoma|no enfermedad)·P(no enfermedad)] =.3/4 · 4/10/ [(3/4 · 4/10)+ (2/6 · 6/10)] = 0.30/(0.30 + 0.20) = 0.30/0.50 = 3/5.

XOSÉ VALES. CURSO 2019/2020 27


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

La respuesta más frecuente con este tipo de versión


es 95% suponiendo que el error de la prueba sea un
5% (falsos positivos), debería producir un 95% de
resultados correctos. Los sujetos estarían pasando
por alto la probabilidad a priori de sufrir la
enfermedad siendo uno de los sesgos más
característicos en la estimación de probabilidades
condicionales.

Los grupos que se compararon diferían


exclusivamente en que en el grupo experimental la
redacción del problema se acompañaba del diagrama
que representa la figura 6.6.A y el porcentaje de
respuestas correctas ascendió de 20% a 48%. La
gráfica de los conjuntos anidados redujo de forma
sustancial el sesgo observado en la condición control,
a pesar de que el problema se formuló en términos
de probabilidades. Los diagramas hacen explícito que
las posibilidades de que una persona dé positivo en la
prueba (tenga síntoma) es un subconjunto de todas
las posibilidades y que las posibilidades de padecer la
enfermedad es, a la vez, un subconjunto de las
posibilidades de dar positivo en la prueba. La
representación de las relaciones inclusivas de las
categorías nos ayuda a inferir la respuesta correcta: del total de individuos que da positivo en la
prueba, 51, 1 padecerá la enfermedad : 𝟏/𝟓𝟏 ≈ 𝟐%

Sloman y cols. (2003) demostraron que el hecho de añadir la categoría de “falsos negativos” 10 al
problema incrementaba significativamente la dificultad, tanto en términos de probabilidad como de
frecuencias. La nueva categoría no era relevante y no altera el valor del resultado, pero incrementa
significativamente la complejidad. La nueva categoría supone la representación de un modelo
mental adicional que aumenta la “carga” en la memoria de trabajo y dificulta la aplicación del
principio del subconjunto para alcanzar la solución correcta del problema. Se intenta minimizar la
carga de la memoria de trabajo representando de forma explícita sólo aquellos casos en los que las
premisas son verdaderas y se pasan por alto los casos en que son falsas. Johnson-Laird y Savary
(1996) demostraron que, razonando sobre probabilidades relativas, la mayor parte de los sujetos
alcanzaban conclusiones imposibles cuando no consideraban los casos en que las premisas son
falsas. Describimos de forma abreviada uno de los problemas presentados a los participantes en el
Experimento 1.

Solo una afirmación es correcta sobre una mano de cartas de póker:


Hay un Rey o un As, o ambas.
10 En el planteamiento del problema se sustituyó la afirmación “un individuo que padece la enfermedad dará positivo en todos los casos” por “1

de cada 1000 individuos que padecen la enfermedad no dará positivo en la prueba”…

XOSÉ VALES. CURSO 2019/2020 28


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

Hay una Reina o un As, o ambas.


¿Qué es más probable, el Rey o el As?

La respuesta mayoritaria de los sujetos es el “As” y se justifica porque el “As” aparece en una
proporción superior de modelos mentales. La respuesta no es correcta. El enunciado es planteado
como disyuntiva (X o Y, pero no ambas), Por tanto, no pueden ser ciertas las premisas una y dos.
Nunca el “As” podría ser más probable que el “REY”. Cuando los casos falsos se tienen en cuenta y
no se contempla la equiprobabilidad11 de los modelos mentales, la respuesta correcta emerge con
facilidad en la representación mental del sujeto.
Cuando la basamos en la menor información
explícita para evitar saturar nuestra limitada
capacidad de procesamiento, podemos llegar a
conclusiones ilusorias sobre lo que es más
probable. El exceso de confianza subjetiva
emitida revela modalidades de ilusiones
cognitivas.
El supuesto teórico de” Subaditividad” en el razonamiento probabilístico de la Teoría del apoyo
permite explicar la violación de la regla de disyunción (derivada del axioma 3 de la Teoría de la
probabilidad) y, de la regla de conjunción (derivada del axioma 4), que se producen como
consecuencia de la aplicación de los heurísticos de accesibilidad y representatividad,
respectivamente.

11 “La equiprobabilidad se refiere a que todas las posibilidades son igual de probables y la proporcionalidad se refiere a cuál es la probabilidad

de sacar un rey, por ejemplo, entonces habría que dividir la probabilidad del rey entre el número total de posibilidades”. ED

XOSÉ VALES. CURSO 2019/2020 29


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

Los supuestos teóricos de la Teoría de los modelos mentales permiten explicar las dificultades en la
representación mental de las relaciones inclusivas relevantes para resolver correctamente la
inferencia bayesiana como consecuencia de las limitaciones en la memoria de trabajo. En uno y otro
caso, los sesgos sistemáticos observados son el resultado de la violación de los principios de la lógica
inclusiva en el modelo normativo de la Teoría de la probabilidad.

5. JUICIO PROBABILÍSTICO Y CALIBRACIÓN


La calibración se define como el grado de precisión o ajuste entre el juicio probabilístico sobre la
confianza en el propio rendimiento y la eficacia objetiva avalada por los datos de la ejecución. Uno
de los hallazgos más robustos de esta línea de investigación es el denominado “efecto de exceso de
confianza” (sobre-confianza), y se traduce en el hecho de que las personas tenemos más confianza
en la eficacia de nuestro rendimiento de lo que avalan los datos objetivos. El sesgo no se limita a los
estudios de laboratorio pues se observa también consistentemente en el ámbito profesional. Un
segundo efecto estable y consistente sobre la calibración es “efecto fácil-difícil” que constata que
el grado de sobre-confianza aumenta con el grado de dificultad de las preguntas.

5.1. Enfoques teóricos


5.1.1. El enfoque de los Modelos Mentales Probabilísticos (MMP)
Gigerenzer, Hoffrage y Kleinbölting (1991), proponen un marco integrador que permite explicar el
“efecto de exceso de confianza” y el “efecto difícil-fácil”. La tarea prototípica en juicios de confianza
incluye preguntas de cultura general con dos alternativas de respuesta, p. ej., “¿Quién nació
primero?”: a) Mijaíl Bakunin o b) Karl Marx, o “¿Cuándo se consiguió el sufragio femenino en
España?”: a) antes de 1931 o b) después de 1978. El desajuste en la calibración no es una
característica intrínseca del juicio humano, sin la consecuencia de la utilización de tareas con escasa
validez ecológica. Un modelo mental probabilístico (MMP) es un procedimiento inductivo que se
utiliza cuando el conocimiento es limitado y permite realizar inferencias rápidas. La clave conceptual
es que un MMP estará adaptado si permiten conectar la estructura específica de la tarea con una
estructura de probabilidad en una clase de referencia del ambiente natural del sujeto, almacenada
en su memoria de largo plazo. Imaginemos que formulamos: ¿Qué ciudad tiene más habitantes?:
a)Xixón o b) A Coruña. La pregunta permite generar una clase de referencia representativa extraída
del entorno natural del sujeto, que podría ser “ciudades españolas con una población superior a
200.000 habitantes.

Un MMP para una tarea determinada integra una clase


de referencia, en el ejemplo “ciudades españolas con
más de 200000 habitantes”, una variable criterio sería
“número de habitantes”, y claves probabilísticas que
varían en su grado de validez. La MMP asume que las
inferencias sobre preguntas inciertas o desconocidas se
basan en estas claves probabilísticas, que se generan, se
evalúan y se activan para dar la respuesta. En el ejemplo
se podían dar: a) tener o no equipo de fútbol, b) ser
capital o no de una comunidad autónoma c) tener o no
Universidad d) ser ciudad o no industrial, ... Si las

XOSÉ VALES. CURSO 2019/2020 30


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

ciudades a y b tuvieran ambas equipo de fútbol, esta clave no sería válida pues no ayuda a responder
la pregunta. La teoría asume que el orden en que se generan las claves refleja una jerarquía de
acuerdo con su grado de validez.

Gigerenzer, Hoffrage y Kleinbölting (1991) pusieron a prueba la teoría con el siguiente


experimento12:
• Se formularon 2 tipos de preguntas:
o Preguntas Representativas. la clave de referencia en un ambiente natural de
participantes alemanes "el conjunto de todas las ciudades del oeste de Alemania con
más de 100.000 habitantes" El tipo de preguntas eran como las de antes: ¿qué ciudad
tiene más habitantes? a) o b)
o Preguntas Seleccionadas. Preguntas de cultura general, y se sometieron al mismo
grupo de sujetos.
• El sujeto debía emitir un juicio de confianza relativo a cada una de sus respuestas, tras
contestar a la pregunta; y un juicio de frecuencia que debía emitir después de cada bloque
de 50 preguntas, referido al número estimado de respuestas correctas en dicho bloque.

De acuerdo con la teoría de los MMP, el sesgo de sobre-confianza, esperado en los juicios sobre
cada pregunta individual de cultura general, debería corregirse y ajustarse a la eficacia objetiva
cuando se emite un juicio de frecuencia. El supuesto que justifica esta predicción es que cada bloque
de preguntas, consideradas en su conjunto, debería constituir una muestra de la clase de referencia
natural “conocimiento de cultura general que he demostrado en pruebas o exámenes previos”.

En relación con los juicios de confianza se observa un sesgo de sobre-confianza que es más acusado
cuanto mayor es la eficacia de las respuestas de los sujetos. El sesgo se corrige cuando se utilizan
preguntas representativas. La curva de confianza para el grupo de preguntas representativas se
asemeja a una curva de regresión para la estimación del porcentaje de aciertos a partir de la
confianza asignada, revelando subconfianza en la parte izquierda, sobre-confianza en la derecha y

12"Los resultados mostraron un sesgo de sobre-confianza en las preguntas seleccionadas que es acusado cuanto mayor es la eficacia de las
respuestas de los sujetos." Si observamos la figura 6.8, la línea correspondiente a las preguntas seleccionadas observamos que el primer punto
indica aciertos inferiores al 50% ya tiene una confianza del 50%, es decir ya se observa sobreconfianza, pero esto ocurre hasta el último punto
que indica aciertos del 70% y una seguridad de acierto del 100%. Esto indica sobreconfianza a lo largo de todo el rango, de hecho, siempre está
debajo de la línea gris que sería una calibración perfecta.

El sesgo se corrige cuando se utilizan preguntas representativas. La curva de confianza para el grupo de preguntas representativas se asemeja a
una curva de regresión para la estimación del porcentaje de aciertos a partir de la confianza asignada, revelando subconfianza en la parte
izquierda de la escala de confianza, sobreconfiaznza en la derecha y cero sobreconfianza como promedio." Esto significa que las preguntas
representativas muestran subconfianza en la parte izquierda, es decir, tienen aciertos de cerca del 60% y muestran confianza del 50%. Esta
subconfianza se corrige hasta llegar a la sobreconfianza conforme aumenta el porcentaje de respuestas correctas, de hecho, cuando acierta cerca
del 90% el sujeto indica que la seguridad en su respuesta es el 100%

Si te fijas las respuestas emparejadas, a pesar de ser similares a las representativas (sobre ciudades) al igualarse en dificultad con las
seleccionadas (de cultura) realmente funcionan igual que éstas últimas. En la figura 6.8 se observa que tanto las líneas de respuestas emparejadas
como seleccionadas son bastante similares.

¿Se corrige el sesgo observado cuando el juicio de confianza se refiere a la frecuencia de aciertos en una muestra representativa de preguntas
seleccionadas? Sí, el sesgo no se produce en el juicio de frecuencia (recuerda que cada 50 preguntas preguntaban por el porcentaje de aciertos y
aquí es donde no se produce el sesgo). La diferencia media entre la frecuencia estimada de respuestas correctas en cada bloque de preguntas
seleccionadas y la frecuencia real no difirió significativamente de 0. Recuerda que según los autores el sesgo de sobre-confianza debería corregirse
cuando se emite un juicio de frecuencia”. ED

XOSÉ VALES. CURSO 2019/2020 31


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

cero sobre-confianza como promedio. La media de las


diferencias no difiere significativamente de 0 por lo que
es un juicio bien calibrado. ¿Se corrige el sesgo observado
cuando el juicio de confianza se refiere a la frecuencia de
aciertos en una muestra representativa de preguntas
seleccionadas? La respuesta es afirmativa. La diferencia
media entre la frecuencia estimada de respuestas
correctas en cada bloque de preguntas seleccionadas y la
frecuencia real no difirió significativamente de 0.

De acuerdo con los autores de los MMP los resultados


apoyan la teoría como modelo integrador de resultados
empíricos, ésta requiere un mayor desarrollo para
responder a determinadas cuestiones que no quedan
resueltas con claridad, p. ej., los aspectos a delimitar
aluden fundamentalmente a la selección de la clave
probabilística que se activa, a si el orden en que se
activan las claves se ajusta siempre a su jerarquía de
acuerdo con su validez y a las condiciones que
determinan que las claves probabilísticas se sustituyan o
se integren de forma múltiple para decidir la respuesta.
Los autores abordan la respuesta a algunas de estas
preguntas en trabajos posteriores. Gigerenzer y
Goldstein (1996) formulan el algoritmo básico “Take The
Best” (elige el mejor) TTB, que constituye un marco
conceptual de la teoría MMP. El algoritmo representa un
diagrama de flujo en 5 principios para claves binarias:
• Principio de reconocimiento. El reconocimiento
de un objeto constituye un predictor de la
variable. Si una persona debe decidir cuál de las
dos ciudades “a” y “d” tiene más habitantes, la
inferencia será la ciudad “a” porque no ha oído
hablar de la otra ciudad.
• Búsqueda de claves con validez. Se recuperan de
la memoria las claves y sus valores en un orden
jerárquico de acuerdo con su grado de validez. La
validez ecológica de una clave es la frecuencia
relativa con la que predice correctamente el
resultado. P. eje., comparando dos ciudades, el
87% de los casos la ciudad que tiene equipo de
fútbol que juegue en 1ª Divisón tiene más
habitantes, la validez ecológica de la clave es del
0.87.

XOSÉ VALES. CURSO 2019/2020 32


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

• Regla de discriminación. Una clave discrimina entre dos objetos si uno de ellos tiene un valor
positivo en la clave y el otro no lo tiene.
• Principio de sustitución de la clave. Como se observa en el diagrama de flujo de la figura 6.9,
si la clave discrimina, se para la búsqueda de nuevas claves. Si la clave no discrimina se vuelve
al paso 2 y se continua la búsqueda hasta que se encuentra la clave que discrimina
• Regla de maximización para la elección. Se elige el objeto con valor positivo en la clave. El
algoritmo TTB es un procedimiento no compensatorio, sólo la clave que mejor discrimina
determina la inferencia, sin que la combinación de valores de claves diferentes ni la
integración de información puedan contrarrestar la elección basada en la clave con mayor
validez.

El algoritmo “elige el mejor” TTB se enmarca dentro de un modelo de racionalidad ecológica que
permite explicar cómo el sesgo de sobre-confianza se corrige cuando el participante realiza la
inferencia sobre objetos de su entorno natural, que le permiten seleccionar claves probabilísticas
con suficiente validez en relación a una variable derivada de la clase de referencia. Una clave
probabilística válida es aquella capaz de predecir la inferencia adecuada.

5.1.2. El modelo “fuerza-peso” de la confianza en la evidencia.


Griffin y Tversky (1992) replicaron el estudio de Gigerenzer y cols. Seleccionaron al azar una muestra
de 30 pares de estados norteamericanos y pidieron a los sujetos que eligieran qué estado era
superior en 3 atributos:
• Número de habitantes.
• Tasa de participación en el voto.
• Tasa de graduados en bachillerato.

Los resultados reflejaban que el sesgo de sobre-


confianza no podía reducirse solo al nivel de
dificultad. El nivel de eficacia13 en las respuestas
para las variables “voto” y “educación” fue muy
similar y cercana al azar, sin embargo, el sesgo de
sobre-confianza fue significativamente superior
en la variable de “educación”, respondiendo ello
al efecto llamado ilusión de la validez. El
estereotipo americano está más unido a la
educación que a la participación electoral. P. ej.,
se considera que el nivel educativo es superior en
un estado, en función del número de
universidades famosas o eventos culturales que
celebran.
Los resultados delimitan dos variables conceptualmente importantes que intentan explicar sobre las
claves que se recuperan a la hora de emitir un juicio probabilístico. La evidencia disponible para

13“Eficacia se refiere a si responden correctamente a la pregunta y confianza es porque le preguntan después de responder si creen que han
respondido correctamente a la pregunta (confianza). La relación entre eficacia y confianza se calcula dividiendo una a otra y sobre-confianza es
cuando muestran más confianza en sus respuestas que realmente fueron la eficacia de sus respuestas”. ED

XOSÉ VALES. CURSO 2019/2020 33


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

emitir un juicio intuitivo se interpreta de acuerdo con 2 coordenadas: la “fuerza” o saliencia de la


evidencia y su “peso” o validez predictiva. La Teoría estadística y el cálculo probabilístico prescriben
reglas que combinan con precisión fuerza y peso o validez, en cambio el juicio humano no combina
ambos factores, lo que produce sesgos y errores de calibración.

Imaginemos que debemos juzgar la probabilidad con la que una persona será contratada a partir de
una carta de recomendación escrita en términos cálidos y enfatizando en sus cualidades positivas.
En general, las personas focalizamos en la fuerza o carácter extremo del contenido de la carta y
tendemos a predecir un resultado favorable al candidato, sin atender de forma suficiente al peso o
validez predictiva de la carta: la credibilidad de quien la escribe, tendemos a pasar por alto el tamaño
de la muestra; es decir, la frecuencia con la que la persona que escribe la carta lo hace en términos
cordiales y positivos, con independencia de las características específicas del candidato. El modelo
teórico del juicio probabilístico que integra esta dicotomía predice sobre-confianza cuando la fuerza
es elevada y el peso es bajo y sub-confianza cuando la fuerza es baja y el peso es elevado. El hecho
de que la fuerza de la evidencia tienda a dominar su peso responde a que el sujeto se focal iza
inicialmente en la impresión que le produce la evidencia (la calidez de la carta) para después ajustar
el juicio de acuerdo con su conocimiento de su validez (la fiabilidad del que la escribe). El juicio
combina el anclaje en la fuerza de la impresión, basado en este ejemplo en la representatividad de
la evidencia, con un proceso de ajuste que tiene en cuenta el valor predictivo de la evidencia, pero
que resulta insuficiente.

El análisis precedente sugiere que las personas


basamos la confianza en nuestro rendimiento,
en la impresión sobre los resultados sin
observar suficientemente la calidad de los
datos. Lichtenstein y Fischhoff (1977)
demuestran14 en un experimento un efecto de
sub-confianza (un rendimiento objetivo
superior al juicio de confianza) en buena parte
del rango cuando los ítems son “fáciles”, un
efecto de sobre-confianza (un rendimiento
objetivo inferior al juicio de confianza) a lo
largo de la mayor parte del rango cuando los
ítems son “difíciles” y una sobre-confianza
extrema en todo el rango cuando los ítems
eran “imposibles” (un ejemplo de ítem
“imposible” fue discriminar si un párrafo
escrito en inglés había sido escrito por un
británico o por un norteamericano).

14“Según este modelo se produce sub-confianza cuando el rendimiento (la fuerza o evidencia objetiva) fue superior/alto al juicio de confianza
(o peso; preguntas fáciles) mientras que muestran sobre-confianza cuando el rendimiento fue inferior al juicio de confianza (difíciles o
imposibles)”. ED

XOSÉ VALES. CURSO 2019/2020 34


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

5.2. La calibración en el juicio de los expertos


El juicio probabilístico de los expertos no siempre está bien calibrado. La evidencia indica que
también se equivocan, desatienden a las probabilidades a priori de las hipótesis y a la capacidad
predictiva del dato, siendo predictores claros de la calibración sesgada. Koehler, Brenner y Griffin
(2002), proponen un modelo de calibración adaptado al juicio probabilístico sobre un caso
particular, que integra la teoría del apoyo con el modelo de calibración “fuerza-peso” de la confianza
en la evidencia.

Koehler y colaboradores (2002) analizaron los datos de nueve investigaciones, que se agrupan en
tres categorías. Un grupo de médicos realizó el estudio clínico individual de distintos pacientes que
padecían “tos aguda” persistente. Cada paciente era examinado por un solo médico y este rellenaba
una lista de síntomas estandarizada. Luego se pedía al médico que estimara la probabilidad de que
el paciente tuviera neumonía en una escala de 0 a 100 (sin conocimiento de la radiografía) La “tos
aguda y persistente” era el dato y “padecer neumonía” la hipótesis focal. La capacidad predictiva
del dato respecto a la hipótesis focal constituye un indicador de la calidad o el peso de la evidencia.
El parámetro alfa constituía un dato objetivo y su valor aumenta en relación directa con la capacidad
predictiva del dato respecto a la hipótesis focal, frente a otras hipótesis alternativas.

El juicio de los médicos muestra una marcada sub-confianza cuando tanto la probabilidad a priori
como la discriminabilidad son elevadas, una ligera sobre-confianza cuando la probabilidad a priori
es baja y la discriminabilidad es alta, y una sobre-confianza extrema cuando la probabilidad a priori
es muy baja y la discriminabilidad es baja.

Koehler y cols. (2002) interpretan que la “impresión” que causa el síntoma cuando el médico se
enfrenta a un caso particular se ve reforzada por la accesibilidad de la fuente de información: el
carácter vívido de la experiencia personal y la proximidad al paciente. La “saliencia” del síntoma
parece variar en relación inversa con la tasa de la enfermedad en la población. Cuanto más atípica
resulta la enfermedad, mayor relevancia adquiere el síntoma y esta relevancia facilita la
recuperación de la memoria de información coherente con la evidencia, que resulta de mayor
medida disponible. La disponibilidad de síntomas coherentes con la hipótesis focal contribuye a su
proceso de “desempaquetado” en sus síntomas componentes, incrementando así su probabilidad
subjetiva. El sesgo en la focalización inicial del juicio a favor de la hipótesis focal respecto a las

XOSÉ VALES. CURSO 2019/2020 35


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

hipótesis alternativas, restará eficacia al proceso


de ajuste final, que no considerará de forma
suficiente la discriminabilidad objetiva del síntoma:
su validez predictiva real de la enfermedad.

Esta combinación de fuerza (impresión) y peso


(validez predictiva) de la evidencia (tos aguda y
persistente) respecto a la hipótesis focal
(neumonía) se ajusta con bastante exactitud al
marco teórico de Griffin y Tversky (1992). La
combinación de fuerza alta (tasa muy baja) y peso
bajo (discriminabilidad baja) produce sobre-
confianza extrema (línea negra discontinua de
puntos), mientras que la combinación de fuerza
baja (tasa alta) y peso alto (discriminabilidad alta)
produce sub-confianza (línea negra discontinua de
rayas). Cuando la fuerza tiende a ser alta pero
moderada y el peso es elevado la calibración es
bastante ajustada (línea negra sólida), si bien
tiende a la sobre-confianza pero no de forma
significativa.

6. SESGO PREDICTIVO Y SESGO RETROSPECTIVO


La disponibilidad de la evidencia nos hace sobrevalorar la fuera de la evidencia sin que atendamos
suficientemente a la validez de los datos disponibles. El sesgo de sobre-confianza es incluso más
acusado en el caso de los expertos por su mayor resistencia a admitir que se han equivocado. ¿A
qué obedece esta persistencia en las creencias? Daniel Kahneman (2011) denomina a este sesgo
cognitivo “ilusión de validez”. En el caso de la ilusión perceptiva, cuando la persona es advertida de
que no puede confiar en lo que percibe y se le hace ver que ambas líneas son de igual magnitud,
corrige su ilusión perceptiva e informa correctamente de lo que ahora es una creencia basada en la
información objetiva. En contraste con la facilidad con la que corregimos este error perceptivo, la
constatación de nuestros errores de calibración en los juicios predictivos puede contribuir a que
aceptemos el hecho intelectualmente, pero es poco probable que produzca un impacto real sobre
nuestros sentimientos y modifique acciones futuras. La confianza se sustenta en los que denomina
la falacia narrativa, basada en el intento continuo de buscar un sentido al mundo que nos rodea y
una coherencia en los hechos que se suceden.

El sesgo retrospectivo es la otra cara de la moneda de la “ilusión de coherencia”. La ilusión de validez


es cuando el sujeto sobreestima su capacidad de predecir un resultado futuro (incierto). En cambio,
la ilusión de coherencia es la necesidad de ordenar y dar sentido y coherencia a los acontecimientos
para reducir la incertidumbre. Una de las cosas que peor soporta el ser humano es la incertidumbre
y con ella pone en marcha toda una maquinaria de sesgos para disminuir la incertidumbre y ganar
tranquilidad. La ilusión de validez nos hace confiar en exceso en nuestros juicios predictivos si son
coherentes con la evidencia presente, mientras que el sesgo retrospectivo revisa y reestructura

XOSÉ VALES. CURSO 2019/2020 36


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

nuestra concepción sobre un hecho del pasado si la evidencia disponible la contradice. Este sesgo
es extremadamente robusto demostrado a lo largo de todas las etapas evolutivas de la vida.

Blank y fischer (2000), realizaron el experimento en el cual los participantes predecirían los
porcentajes de voto que obtendrían los distintos partidos políticos en las elecciones y recordar las
predicciones después de las elecciones. Los participantes recordaron haber estimado un porcentaje
de voto que difería en un punto del porcentaje real, desviándose de forma significativa de sus
predicciones iniciales. Se les preguntó si el resultado les sorprendía. La mitad no se sorprendió
afirmando que los resultados coincidían con su predicción personal. El resto afirmaron que los
resultados no podían ser de otra manera y ofrecían distintas razones que justificaban la necesidad
del resultado. Los tres componentes del sesgo retrospectivo identificados inicialmente por Fischhoff
y cols.:
• Las impresiones de necesidad. Reflejan el grado en que los resultados de un acontecimiento
se perciben como determinados casualmente. Se explica porque las personas elaboramos
antecedentes consistentes con el resultado de forma que parezca en mayor medida
predeterminado.
• Las impresiones de predictibilidad. Asumen las percepciones y juicios coherentes con el
hecho de que los resultados podrían haberse anticipado. Efecto de “siempre supe que iba a
ocurrir”. La predictibilidad implica consideraciones metacognitivas que presuponen que el
resultado podría haberse anticipado en algún momento.
• Las distorsiones de la memoria. Revelan el recuerdo erróneo de que sus predicciones
estuvieron muy cerca de lo que de hecho lo estuvieron. Estas distorsiones están gobernadas
por procesos de memoria que se concretan en el anclaje en el resultado y la reconstrucción
de la predicción inicial.

Blank, Nestler, van Collani y Fischer (2008) definen los procesos psicológicos que subyacen a cada
uno de estos componentes. En el caso de la atribución causal las personas elaboramos antecedentes
consistentes con el resultado de forma que parezca en mayor medida predeterminado. La impresión
de predictibilidad implica consideraciones metacognitivas que presuponen que el resultado podría
haberse anticipado en algún momento. Finalmente, las distorsiones en el recuerdo están
gobernadas por procesos de memoria que se concretan en el anclaje en el resultado y la
reconstrucción de la predicción inicial. El denominador común no dista de ser el resultado de la
construcción narrativa basada en la búsqueda de coherencia.

XOSÉ VALES. CURSO 2019/2020 37


CAPÍTULO 6. RAZONAMIENTO PROBABILÍSTICO

Versión web Autoevaluación

XOSÉ VALES. CURSO 2019/2020 38


Capítulo 7. TOMA DE DECISIONES

REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA,
I. (2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
• Aclaraciones ED.
CAPÍTULO 7. TOMA DE DECISIONES

1. INTRODUCCIÓN
Los juicios probabilísticos son parte del proceso de toma de decisiones porque la incertidumbre se
encuentra presente en el proceso de decisión. El primer paso es el planteamiento general de cuál es
la decisión que hay que tomar. Este planteamiento de la decisión determina las alternativas que se
generan, lo que da lugar a resultados completamente diferentes. Por ejemplo, Luisa tiene 50 años
no encuentra trabajo y tiene que decidir qué hacer: ¿cuál será la mejor forma de lograr un buen
trabajo? Son alternativas centradas en aspectos económicos. Pero si, por el contrario: ¿qué pude
podría ampliar su formación? ¿Pido ayuda a mi hermana para que me enchufe en una de las
subcontratas que trabajan para su empresa? ¿Atraco un banco? Las alternativas serán diferentes.
Esto mismo ocurre en decisiones políticas o sociales. Las alternativas generadas, la decisión, será
completamente distinta según el tipo de preguntas que se haga el individuo.

Este planteamiento general está determinado por las metas de la persona. Los sujetos con metas a
corto plazo o a largo plazo decidirán de forma diferente. Una persona que desea trabajar los dos
meses de verano para ganar dinero e invertir en sus estudios futuros, puede elegir un empleo de
muchas horas (aunque sea ilegal) y con mucha dedicación, y con un buen sueldo. Sin embargo, con
metas a largo plazo, elegirá empleos que le permitan mantener calidad de vida, y ganar algo menos
de salario.

Ante una decisión importante (deliberada y consciente) el siguiente paso sería la generación de las
alternativas u opciones, sin desechar a priori ninguna de ellas. Serán diferentes en función del
conocimiento y de los valores de la persona, así como de los factores socioculturales. Normalmente
discriminar entre alternativas está determinado por la accesibilidad de la información, al decidir
entre varios productos. Se tiende a tener en cuenta la información presentada y sólo en la forma
que se presenta, ignorando a la vez datos que han de inferirse, transformarse o recuperarse de la
memoria. P. ej. Al comprar un coche en función de la publicidad evaluamos las características más
salientes, atendemos a los accesorios, diseño o detalle que el fabricante ha merecido hacer hincapié.
Una vez generado un número suficiente de alternativas, se evalúan con el fin de elegir la mejor. En
la compra del coche pocas personas evalúan la fiabilidad, el consumo, o la seguridad. Una decisión
correcta debería tener en cuenta tanto la probabilidad de que la característica se de (la tasa de
fiabilidad de la marca elegida), como las consecuencias, que equivaldrían al valor o a la importancia
que la persona da a esta característica.

Las estimaciones de la probabilidad se encuentran determinadas por el uso de heurísticos concretos


y éstos a su vez influyen sobre la elección final de la opción. P. ej., las personas que sobreestiman la
probabilidad de ocurrencia de una enfermedad grave por el impacto de una noticia. Este aumento
de la probabilidad percibida producido por el heurístico de accesibilidad puede llevar a tomar
decisiones sobre aplicar tratamiento o vacunación no siempre indicado. Estas sobreestimaciones de
las probabilidades ocurren con las alternativas más deseables, y la subestimación con las menos.
Esta tendencia es conocida como Principio de Pollyanna (protagonista de novela que siempre tenía
alguna razón para ser feliz). Se da igualmente en los concursos o juegos de lotería en los que las
personas que juegan sobreestimas las posibilidades de ganar el premio. También pueden darse
otros sesgos, como el exceso de confianza en el juicio emitido o el sesgo retrospectivo consistente

XOSÉ VALES. CURSO 2019/2020 1


CAPÍTULO 7. TOMA DE DECISIONES

en la creencia, una vez conocido el resultado final, de que las cosas no podían suceder de distinta
forma y que ya lo habíamos predicho.

En relación con la evaluación de las consecuencias de los resultados, es habitual conceptualizarlas


en términos de ganancias o pérdidas. Es frecuente estudiar la toma de decisiones en los juegos de
azar con situaciones de elección entre dos apuestas. Se ha tratado de investigar con los de elección
bajo riesgo con un solo atributo en cada alternativa (ganancia o pérdida económica tras la ocurrencia
o no del suceso); cuando es un tanto más compleja y cada alternativa muestra una serie de atributos,
y requieren tanto de experto en el tema sobre el que se trata como de experto en el análisis de la
decisión; y en otros casos se evalúa simultáneamente las probabilidades y las consecuencias porque
éstas afectan a toda la población (análisis de campañas de vacunación contra enfermedades de baja
prevalencia, pero cuyas consecuencias son graves que no permiten correr riesgos). En otros casos,
la persona realiza una elección bajo incertidumbre evaluando expectativas y sus consecuencias. Las
alternativas tienen cualidad para el individuo (beneficiosa o no) y una importancia determinada
(según el grado de beneficio o perjuicio) que son diferentes para cada persona y que también varían
en la misma en distintas situaciones (intraindividual).

2. TEORÍA NORMATIVA DE LA DECISIÓN


Una decisión es una respuesta a una situación
en la que existe más de un curso posible de
acción (opción o alternativa de elección). Suele
basarse en las expectativas que tenemos sobre
la ocurrencia de futuros acontecimientos y en
la evaluación de las consecuencias de dichos
acontecimientos en función de nuestras metas
y valores. Imaginemos que llegamos de una
jornada de trabajo agotados y nos invita un
amigo a ir al cine. Ante tal situación se ha de
elegir el quedarse en casa descansando o ir a
ver la peli en buena compañía, pero con el
riesgo de dormirnos en la misma. Los cursos de
acción serían ir al cine o quedarnos en casa. Por
cada una de esas opciones tenemos unas
expectativas de lo que puede suceder. A la vez
tenemos unas expectativas de lo que puede
ocurrir: Desconocemos la probabilidad de
ocurrencia de estos acontecimientos, pero
podemos estimar su probabilidad y así
evaluaremos sus consecuencias. En una escala
de satisfacción entre 0 y 100 (ver figura 7.1).

En el diagrama en forma de árbol de decisión


de la situación estamos combinando las propias

XOSÉ VALES. CURSO 2019/2020 2


CAPÍTULO 7. TOMA DE DECISIONES

expectativas con los intereses y los deseos personales. El árbol de decisión no proporciona una
solución, pero sí la representación de las expectativas sobre la ocurrencia de los hechos futuros y de
la evaluación de sus consecuencias. Ello permite visualizar gráficamente cuál es la alternativa que
brinda una mayor satisfacción y su expectativa según nuestros criterios.

En la toma de decisiones se suelen diferenciar tres situaciones relacionadas con las expectativas:
• Aquellas en las que se conocen las probabilidades (comprar un billete de lotería).
• En las que se desconocen las probabilidades y éstas se pueden estimar (seguir trabajando en
la empresa familiar o poner negocio propio).
• Situaciones en las que hay certeza sobre las opciones y sólo se ha de elegir entre las mismas
(pedir carne o pescado en el restaurante) La certeza indica que no hay dudas sobre los
acontecimientos futuros y la decisión se toma bajo este supuesto.

Las expectativas se definen como el grado de creencia o probabilidad de que ocurra un


acontecimiento concreto. Generadas éstas, se evalúan sus consecuencias asociadas en función de
criterios personales. Se considera que la decisión se toma en un contexto de riesgo cuando se
conocen las probabilidades, en un contexto de incertidumbre cuando éstas se estiman y en uno de
certidumbre cuando se conoce con seguridad la ocurrencia. “Esta es la terminología habitual en
toma de decisiones. Como se explica en este punto, la elección de una opción tiene en cuenta las
expectativas sobre la ocurrencia del acontecimiento. Para diferenciar aquellas situaciones en las que
se conocen las probabilidades de ocurrencia de aquellas otras en las que no se conocen se utilizan
los conceptos de contexto de riesgo (conocido) frente a contexto de incertidumbre (estimado). La
compra de un billete de lotería se clasifica como un contexto de riesgo porque se conoce cuál sería
la probabilidad de que salga su número”. ED

La teoría normativa asume que cuando decidimos, lo hacemos eligiendo aquello que tiene el
máximo valor en los resultados que se esperan obtener. Unos matemáticos del XVII y XVIII
(Bernoulli) consideraron estudiar la probabilidad y la toma de decisiones en los juegos de azar como
pauta de comportamiento óptima. El objetivo era encontrar la forma de cuantificar el valor de una
apuesta en los juegos o en decisiones bajo condiciones de riesgo. Bajo este supuesto se
denominaron Modelos del valor esperado coincidiendo este valor con la esperanza matemática el
juego.

El Valor esperado de una alternativa es la suma


del producto de cada valor por su probabilidad
de ocurrencia y la mejor elección será aquella
que obtenga el máximo valor esperado.
La alternativa 1 es la mejor porque tiene un valor
esperado de 900 euros frente a 404 de la 2ª. Esta
cantidad es promedio ponderado de los
resultados que se esperan ocurran en el futuro.
Se pondera cada resultado posible con respecto
a la frecuencia con que se espera. También se

XOSÉ VALES. CURSO 2019/2020 3


CAPÍTULO 7. TOMA DE DECISIONES

puede obtener a partir de estimaciones subjetivas, y es el valor esperado la representación de las


creencias personales sobre la ocurrencia del posible resultado.

Según la teoría del valor esperado los sujetos buscan maximizar sus ganancias y elegirán la opción
1. No obstante, no todos se ajustan a la elección y prefieren la opción 2, en la que se gana menos,
pero se gana siempre. Ello hizo que el “valor esperado” fuera sustituido por el concepto de la utilidad
esperada, entendida como el grado en que las consecuencias de una opción alcanzan las metas
personales en una situación determinada.

La primera objeción importante a este criterio


fue en el S.XVIII y se atribuye a Nicolás Bernoulli,
aunque fue su primo Daniel Bernoulli el que
desarrolló y lo publicó como “Paradoja de San
Petersburgo”. En la paradoja de San
Petersburgo se planteaba un juego de azar entre
dos jugadores de la siguiente forma. El jugador
A plantea la regla del juego y el jugador B tiene
que decidir cuánto dinero está dispuesto a pagar
por participar en dicho juego. La regla consiste
en que el jugador A lanzará una moneda hasta
que caiga en el lado de la cara y el número de
lanzamientos necesarios para conseguir obtener
el lado de la cara determinará la cuantía del
premio. Si el jugador A lanza una moneda y sale
cara en la primera tirada, entonces pagará 2
ducados al jugador B y termina el juego. Si la primera cara de la moneda sale en la segunda tirada,
entonces pagará 4 ducados, si sale en la tercera tirada, pagará 8 ducados y así sucesivamente. La
pregunta que se plantea en la paradoja es la siguiente: ¿Cuánto pagaría el jugador B al jugador A por
participar en este juego?

Según el criterio del valor esperado, el jugador B debería participar en el juego si el valor esperado
es mayor que la suma exigida para entrar a jugar y rechazar la propuesta cuando ésta sea menor.
Para calcular el valor esperado total del juego se suman todos los valores esperados en cada
lanzamiento (1+1+1+1+1+…+…=∞), dando como resultado un número infinito de “ducados”. La
paradoja surge porque con un valor infinito se debería apostar cualquier cantidad de dinero. Al señor
B le interesa que salga cara lo más tarde posible. Los resultados evidenciaron que generalmente no
están dispuestas a apostar más de 20 monedas por participar. Pone de manifiesto que no es realista
asumir que B espere poder jugar durante tiempo ilimitado para obtener número infinito de monedas
a cualquier precio.

Para resolverlo, Daniel Bernoulli (1738) propuso la noción de utilidad esperada como valoración
subjetiva de las posibles consecuencias monetarias del juego. Es en función de la riqueza de cada
individuo y está en relación inversa a su nivel de riqueza. Ganar o perder 200 euros no es lo mismo

XOSÉ VALES. CURSO 2019/2020 4


CAPÍTULO 7. TOMA DE DECISIONES

para un rico que para un pobre, y cuánto más dinero se tenga menos se valorará dicha ganancia o
pérdida. El autor también comenta de utilidad marginal decreciente al señalar que la función de
utilidad es siempre creciente, pero crece cada vez más despacio. Es necesario diferenciar entre el
valor esperado (cantidad objetiva) y la utilidad esperada que depende de las circunstancias
subjetivas de cada uno. En la paradoja descrita los individuos están dispuestos a pagar distintas
cantidades por participar en el juego según su criterio, aunque el valor esperado sea infinito. Esta
distinción permite analizar la toma de decisiones bajo riesgo considerando las valoraciones
subjetivas que hacemos. Daniel Bernoulli cuenta con el reconocimiento de haber sentado las bases
de la moderna teoría de la decisión al lograr demostrar que el valor del dinero no es el mismo para
todos y que las personas lo valoran en proporción a la utilidad que pueden obtener de él.

2.1. Teoría de la utilidad esperada


El concepto de utilidad esperada de Daniel Bernoulli fue retomado por Neumann y el economista
Oskar Morgenstern (1944) . La teoría de la utilidad esperada de Neumann y Morgenstern ha sido el
modelo estándar de la decisión individual en situaciones de riesgo. Esta teoría del ámbito de la
economía está interesada en “qué” deciden las personas más que en “cómo” deciden. Su interés se
centra en el análisis de la relación entre aquello que se decide y los valores personales que le han
llevado a ella. El resultado del análisis permite entender los actos de elección como las actitudes que
tiene una persona hacia el riesgo.

Los autores proponen unos axiomas que garantizan la coherencia en el proceso de toma de
decisiones. Se necesita una escala de preferencias con la que poder evaluar las opciones. La noción
de utilidad es la escala de preferencias con mayor aceptación de los modelos normativos. Con esta
se está asumiendo que las metas u objetivos de las personas se expresan en sus preferencias,
buscando resultados acordes con los valores que se tienen.

Se asume que los atributos de una opción son independientes y que cada uno tiene un peso o
importancia. Implica ello que cada uno tiene una utilidad que indica el grado en que esa propiedad
contribuye a alcanzar las metas y objetivos. Las personas conocen su entorno, son capaces de
ordenar las alternativas según el criterio de utilidad y eligen la de mayor proceso de maximización.
La decisión óptima será aquella que refleje sus preferencias.

Como modelo normativo, la teoría de la utilidad esperada también presenta las siguientes ventajas:
• La consideración de toda la información disponible sobre las diferentes opciones.
• La comparación entre cualquier par de opciones dado que comparten una misma escala de
preferencias.
• El establecimiento de una estructura de preferencias coherente a partir de la determinación
de la utilidad de cada opción.

2.1.1. Los axiomas de la teoría de la utilidad esperada


El trabajo de van Neumann y Morgenstern es una aproximación metodológica al estudio de la toma
de decisiones bajo riesgo que ofrece un conjunto de axiomas para poder construir una escala de
utilidades en la que la representación de los valores de las consecuencias se ajuste a una concepción

XOSÉ VALES. CURSO 2019/2020 5


CAPÍTULO 7. TOMA DE DECISIONES

ordinal de la utilidad. Los axiomas son principios fundamentales e indemostrables sobre los que se
construye una teoría. Son proposiciones claras y evidentes que se admiten sin demostración, pero
pueden no serlo. A veces estos axiomas pueden no ser necesariamente evidentes, pero su expresión
lógica se utiliza para la deducción y así poder generar conceptos a partir de ellos.
Savage (1954) generalizó la teoría de la utilidad esperada para permitir la inclusión de las
probabilidades subjetivas basadas en las creencias propias u opiniones sobre probabilidad de los
hechos. Edwards (1954) denomina a esta ampliación “el modelo de la utilidad subjetiva esperada”
en un artículo que fue el primer intento de la psicología por acercarse a este dominio. Sin embargo,
no es habitual hacer una distinción porque los axiomas y teoremas sistematizados de Savage cumple
las leyes de la teoría de la utilidad esperada y las probabilidades subjetivas que contempla, cumplen
las leyes de la probabilidad.

AXIOMAS DE LA TEORÍA DE LA UTILIDAD ESPERADA


“En los axiomas de esta teoría se utilizan las letras mayúsculas para representar a las alternativas y
las minúsculas a las probabilidades asociadas con estas alternativas. En el axioma de cierre la
expresión ApB se refiere a la probabilidad (p) de la alternativa A. La probabilidad complementaria 1-
p de la alternativa B no se hace explícita porque es complementaria de la probabilidad de A”. ED
• Axioma de completitud u ordenamiento completo: (A > B); (B > A); (A ≈ B). A y B son
alternativas del conjunto S, entonces siempre es cierto uno y solo uno de los siguientes
enunciados:
o A se prefiere a B
o B se prefiere a A
o Se prefieren las dos, y por tanto, son indiferentes ante un conjunto de alternativas, las
personas pueden ordenarlas según las preferencias asumiendo que es posible ser
indiferente (A ≈ B).
Con este axioma damos por supuesto que, ante un conjunto de alternativas, las personas
pueden ordenarlas según sus preferencias (de más a menos preferidas). P. ej.,
Supongamos que han convocado elecciones y tenemos que elegir entre votar PP o VOX,
según este axioma tendríamos 3 opciones: Votar PP, votar Vox o nos da igual votar PP o
VOX.
• Axioma de transitividad: Si (A > B) y (B > C),
entonces (A > C). Este axioma permite
relacionar el orden de preferencias entre 2
alternativas a través de una tercera en común.
Siguiendo el ejemplo de las elecciones si el
votante prefiere votar a VOX antes que al PP, y
a su vez prefiere votar al PP antes que votar Cs,
según este axioma se debería votar a VOX.
• Axioma de cierre: si A y B son alternativas de
un conjunto S, entonces ApB también lo son.
La expresión ApB del axioma de cierre indica
que ambas probabilidades (p y 1-p) también
pertenecen al mismo conjunto S. Este axioma

XOSÉ VALES. CURSO 2019/2020 6


CAPÍTULO 7. TOMA DE DECISIONES

expresa una relación de pertenencia. Enuncia la capacidad de las personas para


conceptualizar las probabilidades asociadas con las alternativas. Si A y B son alternativas de
un conjunto S, entonces la probabilidad de la alternativa A (p) y la probabilidad de la
alternativa B (p-1) también forman parte de ese conjunto. En el ejemplo de las elecciones
tanto VOX (P) como el PP (P-1) forman parte del mismo conjunto (neoliberalismo). “El axioma
de cierre permite obtener la probabilidad complementaria de un suceso. Si sabemos que los
sucesos A y B pertenecen al mismo espacio muestral, entonces saber la probabilidad de A (p)
permite saber cuál es la probabilidad de B (1-p). Esto no quiere decir que la probabilidad de
A sea mayor que la de B porque B es 1-p, y por lo tanto, se prefiere elegir A que B. Lo único
que quiere decir es que si conocemos la probabilidad de A (p), entonces también conocemos
la probabilidad de B (1-p). Por ejemplo, si sabemos que la probabilidad de A es de 0.25 (p),
entonces también sabemos que la probabilidad de B es de 0.75 (1-p)”. ED
• Axioma de reductibilidad: [(ApB)qA´]≈(ApqB)]. Este axioma introduce la distribución de
probabilidades entre alternativas para poder descomponer una alternativa compuesta en
una simple. Alguna de sus consecuencias es también una alternativa. Las reglas de la
probabilidad permiten reducir toda alternativa compuesta a una simple que sea equivalente.
Supongamos que en el ejemplo de las elecciones existe una probabilidad del 75% de votar
VOX (alternativa A) y de un 25% de votar PP
(alternativa B). A su vez la probabilidad de que
VOX privatice la sanidad pública es del 80%, y
un 20% de que no lo haga. “Una alternativa
compuesta está constituida por otras
alternativas con sus probabilidades. En el
ejemplo, la alternativa piña tiene una
probabilidad de 0.75, pero a su vez esta
formada de otras alternativas, piña dulce con
una probabilidad de 0.80 y piña insípida con
una probabilidad de 0.20. La alternativa pera
tiene una probabilidad 0.25 (1-p). La notación
ApqB indica que hay una segunda
probabilidad q en la alternativa A. En concreto
y siguiendo el ejemplo, la alternativa piña con
una probabilidad de 0.75 (Ap) está a su vez
compuesta por piña dulce con una
probabilidad de 0.80 (A’, q= 0.80) y piña
insípida con una probabilidad de 0.20 (B’, 1-q=
0.20). La descomposición de esta alternativa
compuesta en una alternativa simple se
obtiene multiplicando piña (0.75) por piña
dulce (0.80) para obtener la probabilidad de
piña dulce 0.60 como alternativa simple y
multiplicando piña (0.75) por piña insípida
(0.20) para obtener la probabilidad de piña

XOSÉ VALES. CURSO 2019/2020 7


CAPÍTULO 7. TOMA DE DECISIONES

insípida (0.15). Efectivamente la probabilidad de piña insípida es de 0.15. La probabilidad de


0.40 es una errata de la primera edición del manual antiguo. Al descomponer piña en una
alternativa simple precisamente lo que se quiere mostrar es que las probabilidades se
mantienen: descomposición de la alternativa compuesta piña: probabilidad de piña dulce
(0.60) + probabilidad de piña insípida (0.15) = 0.75, que es la probabilidad de la alternativa
compuesta piña. Probabilidad complementaria de pera: 1- [probabilidad de piña dulce (0.60)
+ probabilidad de piña insípida (0.15)] = 0.25”. ED
• Axioma de consistencia: (A > B) si y solo si A > (ApB) > B. Este axioma es básico y nos indica
que, si la alternativa A se prefiere a B, entonces la A se prefiere siempre que se presente con
cierta probabilidad. Siguiendo con las elecciones, si preferimos VOX al PP (A>B), entonces
también preferimos cualquier alternativa que permita que VOX tenga poder, en este caso se
preferiría la opción VOX y PP, antes que PP en solitario.
• Axioma de independencia: (A > B) si y solo si
(ApC) > (BpC). El orden de preferencias entre
dos alternativas simples no cambia por la
adición de una nueva alternativa. P. ej., si
preferimos VOX al PP (A > B) como opción
política, entonces deberíamos preferir una
alternativa compuesta por VOX y Cs (ApC)
frente a otra compuesta por el PP y Cs. (BpC).
• Axioma de continuidad: Si (A>B>C),
entonces existe una probabilidad p tal que B
≈ (ApC). Este axioma es importante para la
construcción de la escala de utilidad porque
asume que habrá un valor entre 0 y 1 que
permite que la persona sea indiferente.
Siguiendo con el ejemplo de las elecciones si
VOX (A) es preferido al PP (B) y el PP (B) es
preferido a Cs (C), entonces siempre es posible encontrar una probabilidad p para que la
alternativa PP sea equivalente a la combinación de la probabilidad p de VOX con la
probabilidad 1–p de Cs (VOX p Cs). Con esto se asegura que no haya una alternativa mejor o
peor a las otras y se puede localizar en la escala la opción B entre A y C. “El axioma de
continuidad es un principio de la teoría de la utilidad esperada que garantiza que habrá un
valor B que permitirá la indiferencia entre A y C. El axioma de continuidad permite colocar el
orden de preferencias en un continuo. Siguiendo con el ejemplo de los restaurantes, si se
prefiere un restaurante japonés A, pero hay pocos en la ciudad (p= 0.25) frente a un
restaurante italiano C que hay muchos en la ciudad (p=0.75), entonces según este axioma
existe un punto B en el continuo entre A y C en el que la probabilidad de B (por ejemplo, hay
una probabilidad de 0.60 de encontrar un restaurante chino en la ciudad) permite que la
persona sea indiferente ante la elección entre A y C. Según el ejemplo anterior, el restaurante
chino es ese punto B que hace que la persona sea indiferente entre un restaurante japonés
(A) y un restaurante italiano (C)”. ED

XOSÉ VALES. CURSO 2019/2020 8


CAPÍTULO 7. TOMA DE DECISIONES

Cuando se cumplen estos axiomas la función de utilidad establece lo siguiente:


• (x) se prefiere a (y) si y solo si la utilidad de (x) es
mayor o igual a (y). [U(x)≥U(y)]
• La utilidad de una alternativa es igual a la utilidad
de cada resultado ponderada por su probabilidad:
[U (x1p1….xnpn) = p1u(x1) + p2u(x2) + …….. pnu(xn)]

A partir de estas dos propiedades se puede construir la


curva de la función de utilidad. Supongamos que
tenemos que elegir entre 2 alternativas:
• OPCIÓN A: una ganancia segura de 240 euros.
• OPCIÓN B: un 25% de probabilidades de ganar
1000 euros y un 75 % de ganar 0 euros.

Si eligen la opción A, sabemos que han asignado una


utilidad mayor al valor esperado de 240 euros que al valor
esperado de 250 euros, lo que es compatible con una
persona con aversión al riesgo. Calculamos:
U(B)=0.25 U (1000€) + 0.75 U(0€) = 250€
U(A)= U(240€)
U(A)>U(B)

Si la utilidad esperada fuera proporcional a la cantidad del


valor esperado, sería lineal y representaría una actitud
neutral hacia el riesgo. La utilidad B, U(B) sería = U(A).

También encontramos personas que presentan


preferencia por el riesgo al elegir situaciones con mayor
riesgo por una mayor cantidad de dinero de menor riesgo
y menor cantidad de dinero. Supongamos las opciones
son otras:
OPCIÓN A: una ganancia segura de 260 euros.
OPCIÓN B: un 25% de probabilidades de ganar 1000
euros y un 75 % de ganar 0 euros.

U(B) 0.25 U(1000€) + 0,75 U(0€) = 250 euros


U(A) = U(260€)
U(B)>U(A)

Esta utilidad describe las preferencias de un sujeto y los axiomas imponen las restricciones sobre
sus posibles relaciones, aunque no determinen cuáles son estas transferencias. Esta teoría proponía
que para ser racionales en la toma de decisiones no hacía falta compartir la misma función de

XOSÉ VALES. CURSO 2019/2020 9


CAPÍTULO 7. TOMA DE DECISIONES

utilidad, sino que bastaba con ajustarse a los mismos axiomas normativos en esa búsqueda por
alcanzar la máxima utilidad esperada que había sido definida individualmente.

2.2. Objeciones a la teoría de la utilidad esperada


Los axiomas anteriores fueron objeto de críticas entre las que destacan las conocidas como
paradojas de Allais (1953) y Ellsberg (1961). Estas paradojas indicaban como se podían violar algunas
de las restricciones impuestas, cuestionando así el concepto de racionalidad subyacente de la teoría.

La paradoja formulada por Allais se centra en la violación del axioma de independencia. Si una
alternativa A se prefiere a B, entonces cualquier combinación de A y C con una probabilidad
determinada debe ser preferida a otra combinación de B con C con la misma probabilidad. Allais
describió dos situaciones:
Primera situación:
Alternativa A: ganar 1 millón de euros con la probabilidad 1 (con total certeza)
Alternativa B: ganar 2,5 millones con la probabilidad de 0,10. ganar 1 millón con la probabilidad
de 0,89, o ganar 0 euros con probabilidad de 0,01.

En esta primera la mayoría opta por la alternativa A en la que se gana 1 millón con certeza. Para
hacer el cálculo de la utilidad esperada entre ambas alternativas se considera la ganancia de 1 millón
eliminando la probabilidad de la misma de la alternativa B y conservando la probabilidad restante
en la alternativa A (1 – 0,89=0,11). Las alternativas quedarían de la siguiente forma:
Alternativa A: ganar 1 millón con probabilidad de 0,11
Alternativa B: ganar 2,5 millones con probabilidad de 0,10 y ganar 0 euros con probabilidad de 0,01

Elegir la opción A implica que la utilidad U(A) 0,11 es mayor que la utilidad de la alternativa B , donde
U(B) 0,25.
U(A)0.11>U(B)0.25
U(A)=0.11 U(1 millón)=0,11
U(B)=0.10 U(2.5 millones)+0,01U(0€)=0.25

La paradoja se plantea cuando se presenta la segunda situación en la que las dos alternativas
comparten una ganancia de 0 euros.
Segunda situación:
Alternativa C: ganar 1 millón con la probabilidad de 0.11; ganar 0 euros con probabilidad de 0.89
Alternativa D: ganar 2,5 millones con probabilidad de 0.10 ganar 0 euros con probabilidad de 0.90

Considerando la ganancia común de 0 euros en C y conservando la probabilidad restante en la


alternativa D (0.90 – 0.89 = 0.01) la situación sería:
Alternativa C: ganar 1 millón con probabilidad de 0.11.
Alternativa D: ganar 2.5 millones con probabilidad de 0.10 ganar 0 euros con probabilidad de 0.01.
La mayoría de las personas prefieren la alternativa D inicialmente. Implica que U(C) 0.11 es menor
que la utilidad de la alternativa D, U(D) 0,25.

XOSÉ VALES. CURSO 2019/2020 10


CAPÍTULO 7. TOMA DE DECISIONES

U(C) 0.11 < U(D) 0.25


U(C) = 0.11 U(1 millón)= 0.11
U(D) = 0.1 o U(2.5 millones)+ 0.01 U(0 €) = 0.25

“El resultado del cálculo de la utilidad es el mismo para ambas situaciones, pero las respuestas de
los sujetos son diferentes dependiendo de cómo se presente el problema. Las situaciones primera y
segunda en la paradoja de Allais son equivalentes: la utilidad de A= 0.11, la utilidad de B= 0.25, la
utilidad de C= 0.11 y la utilidad de D= 0.25. Según el principio de independencia, las personas que
eligen A en la primera situación deberían elegir C en la segunda y las personas que eligen B en la
primera situación deberían elegir D en la segunda. El axioma de independencia se viola porque el
cambio en la formulación del problema no debería producir un cambio en el orden de las preferencias
entre las alternativas”. ED
Savage (1954) hace un análisis de la paradoja de Allais ampliando el axioma de independencia con
el principio denominado aspecto cierto (sure-thing). Este principio afirma que, si dos alternativas
comparten un resultado concreto, la preferencia será independiente del valor de este resultado
común. Las personas descartan el resultado seguro y basarán su elección en los posibles resultados
diferentes entre alternativas. Como se puede ver, la alternativa A se ha colocado en todas las casillas
porque ofrece una ganancia segura en todos
los rangos de probabilidad. Al comparar las
casillas entre las alternativas A y B
encontramos que el aspecto seguro se
encuentra en la ganancia de 1 millón€ con una
probabilidad 0.89 (tercera casilla). Por tanto,
este resultado se descartará y la decisión
entre las alternativas A y B se centrará en
elegir entre la probabilidad 0.01 de ganar 1
millón€ ó 0€ y la probabilidad 0.10 de ganar 1
millón€ ó 2.5 millones€.

Para las alternativas C y D, el aspecto seguro se encuentra en la casilla de la ganancia de 0€ con una
probabilidad de 0.89. La ganancia de 0€ también se ha colocado en la casilla con una probabilidad
de 0.01 para completar la probabilidad de 0.90 de la alternativa D (0.89 + 0.01 = 0.90). En la
alternativa C, la ganancia de 1 millón€ con probabilidad 0.11 se ha colocado en las casillas con
probabilidades de 0.01 y 0.1 O (0.01 + 0.1 O = 0.11). Cuando se descarta el aspecto cierto entre las
alternativas C y D se puede comprobar que la decisión sigue siendo elegir entre la probabilidad 0.01
de ganar 1 millón€ ó 0€ y la probabilidad 0.1 O de ganar 1 millón€ ó 2.5 millones€.

La elección de las alternativas A y D contradice la coherencia del orden de preferencias. Es opuesta


dependiendo de cómo se presente el problema, lo que contradice el principio descrito por la teoría
de la utilidad. En la primera situación, se prefiere la opción A con ganancia segura menor que en B
en la que existe una probabilidad aún pequeña de quedarse sin nada. En la segunda situación, la
pequeña diferencia existente entre probabilidades de las dos alternativas queda compensada por la
gran diferencia entre ganancias.

XOSÉ VALES. CURSO 2019/2020 11


CAPÍTULO 7. TOMA DE DECISIONES

La segunda paradoja planteada por Ellsberg (1961) se basa en el concepto de ambigüedad . Se ex-
traen bolas de colores. 90 bolas: 30 rojas, 60 negras y amarillas en proporción desconocida. La
extracción al azar supone ganancia distinta en función del color. Se presentan dos situaciones:

La mayoría prefiere la opción A en la primera situación y la D en la segunda. La elección indica la


preferencia por ganancias con probabilidades conocidas, evitando la ambigüedad de la probabilidad
de obtener una bola negra o amarilla. También violan el axioma de independencia. El aspecto cierto
entre las alternativas se encuentra en las bolas amarillas.

Por tanto, la teoría de la utilidad esperada se ha descartado como modelo normativo válido de la
toma de decisiones. Se puede considerar que es una guía prescriptiva adecuada o un buen criterio
para el hombre racional, pero no un modelo descriptivo de decisiones. Analiza cómo debería de ser
una decisión correcta, para una correcta planificación, inversión o estrategias políticas, pero no es
buena descripción de las elecciones de las personas en su vida diaria.

“El principio del aspecto seguro afirma que cuando dos alternativas tienen un aspecto en común,
entonces las personas descartan este aspecto compartido y su elección se basará en otros aspectos
de las alternativas.

En la tabla 7.3 tiene una representación de la paradoja de Ellsberg. En esta tabla puede ver que el
aspecto seguro se encuentra en las bolas amarillas porque en las alternativas A y B las bolas
amarillas comparten el mismo valor de 0€ y en las alternativas C y D comparten el mismo valor de
100€. Cuando se descartan estos aspectos comunes (la última columna de la tabla de las bolas
amarillas), entonces puede ver que la alternativa A frente a la B es igual a la alternativa C frente a
la D (primera y segunda columnas).

El principio de invarianza establece que la elección de una alternativa frente a otra no debe cambiar
cuando se modifica la descripción o el procedimiento de elección entre dichas alternativas. Por ello
cabría esperar que las personas que eligieran la alternativa A en la primera situación también
eligieran la alternativa C en la segunda. Sin embargo, se encuentra que la mayoría de las personas
eligen la alternativa A en la primera situación y la alternativa D en la segunda.” ED

XOSÉ VALES. CURSO 2019/2020 12


CAPÍTULO 7. TOMA DE DECISIONES

3. TEORÍAS DESCRIPTIVAS DE LA DECISIÓN


Las personas asignan probabilidades subjetivas tal y como se establece sino en base a atajos
cognitivos, aunque estos sean erróneos. Pronto la evidencia empírica y los resultados
experimentales mostraron que los axiomas se violaban repetidamente. Se expone un ejemplo de
que no se cumple el axioma de la transitividad donde A >B y B > C, entonces se prefiere A sobre C.
Según Tversky se da dentro de un entorno cotidiano la decisión no correcta: Estudiante que quiere
completar sus estudios y debe elegir entre psicología, sociología y antropología.

Descubriendo que ha de inscribirse rápidamente por pocas plazas considera inicialmente su


preferencia hacia la psicología con mayor calidad de enseñanza. Mientras espera piensa que su
mayor interés es la sociología y podría obtener calificación mayor. Parece mejor optar por esta
alternativa, pero sigue pensando y considera que el curso de antropología tiene calidad mayor, con
posibilidad de calificación mejor, por lo que definitivamente opta por esta. Aún así sigue pensando
en su elección inicial...

Esta descripción de la violación de la transitividad en las elecciones se presenta a menudo incluso


en casos simples como el expuesto. Slovic y Tversky (1974) encontraron que los sujetos eran
inconsistentes en sus preferencias ante situaciones de elección semejantes a la conocida paradoja
de Allais:

Las cantidades de dinero son las mismas


en las 2 situaciones, pero las
probabilidades de la situación 2 se han
dividido. Según la utilidad esperada,
aquellos que elijan la alternativa A
deberían elegir la C, y si eligen la B, luego
debían optar por la D. La mayoría (78%)
prefería la alternativa A en la situación 1, al elegir esta opción mostraban aversión al riesgo porque
preferían ganar 30 $ sin riesgos que ganar más con un riesgo de 0,20 o no ganar nada. En la segunda
situación la mayoría (58%) elegían la alternativa D donde mostraban que preferían ganar 45 $ con
un riesgo de 0,80 que 30 $ con un riesgo de 0,75, demostrando lo indicado por Allais con el axioma
de independencia de la teoría de la utilidad esperada. Lo denominaron “efecto de la certeza” porque
la reducción de una ganancia segura a una ganancia con una probabilidad de 0,25 tiene mayor
impacto, que la correspondiente reducción de una probabilidad de 0,80 a 0,20.

Otros resultados, también discrepantes con la teoría de la utilidad esperada muestran la violación
del principio de invarianza. Este es un supuesto básico implícito para la coherencia sustentada por
los axiomas. Establece que la relación entre las preferencias no debe depender de la descripción de
las alternativas o del procedimiento utilizado para hacer la elección. A continuación vamos a ver los
resultados de dos estudios que muestran cómo las personas muestran una actitud diferente ante el
riesgo según se presenten los problemas en términos de ganancias o pérdidas (Tversky y Kahneman,
1981 ). Las situaciones de elección que se presentaron a los sujetos fueron las siguientes:

XOSÉ VALES. CURSO 2019/2020 13


CAPÍTULO 7. TOMA DE DECISIONES

En términos de la utilidad esperada, ambos


problemas son idénticos. Las dos situaciones
plantean una elección entre 400$ seguros o
500 $ y 300 $ con una probabilidad de 0,50. Los
resultados mostraron que la mayoría (72%)
elegía la alternativa A en la situación 1 y la
alternativa D (64%), en la situación 2. El valor
esperado es igual, pero se encuentra que
cuando el problema se formula en términos de
ganancias, los sujetos muestran actitud
aversiva al riesgo. Y cuando se presenta en
términos de pérdidas, se muestra una
preferencia por el riesgo. Este efecto es
conocido como el efecto del marco (framing
effect) o de la inversión de las preferencias sin
limitarse a aspectos monetarios.

En otro estudio de Tversky y Kahneman (1981), se planteaba la elección entre dos programas
saniarios:

Los programas A y B tienen el mismo valor


esperado (salvar 200 frente a 400) y los
programas C y D son idénticos a los programas
A y B, (400 muertes frente a salvar 200 vidas).
En la 1ª situación la mayoría (72%) elegía
opción A, mostrando la aversión al riesgo y el
efecto de certeza. En la 2ª situación, la mayoría
(78%) eligieron el D, mostrando una
preferencia por el riesgo y evitando una
pérdida segura. Un claro ejemplo de la
inversión de las preferencias (framing effect)
para las ganancias y las pérdidas puesto que
las dos situaciones son idénticas y de la
violación del principio de invarianza. Este nos recuerda que las elecciones no deberían cambiar en
función de la descripción de la situación o de la formulación de los problemas, siempre que
contengan la misma información.

En otro estudio de Tversky, Sattah y Slovic (1988) relacionado también con la violación el principio
de invarianza. Las preferencias manifestadas no deberían cambiar si cambia el método por el cual
se obtienen. Siguiendo este principio, los autores partieron del supuesto de que, si los sujetos

XOSÉ VALES. CURSO 2019/2020 14


CAPÍTULO 7. TOMA DE DECISIONES

prefieren una determinada alternativa en una tarea de elección, entonces también deberían preferir
esa misma alternativa cuando en otra tarea se les pide asignarle un coste. En este estudio se
describía la siguiente situación:
A un grupo se le pedía elegir entre los dos
programas y la mayoría (67%) opto por el
programa X. Preferían salvar 70 vidas que
ahorrar 43 millones. A un segundo grupo
se le presentaba lo mismo, pero sin indicar
costo del programa Y (12 millones) y
debían estimar el coste que considerasen
necesario para que las dos alternativas
fuesen atractivas por igual.
El coste de Y debería ser menor que en el
programa X pues morían más. Si se tiene en cuenta solo el coste, será preferible la alternativa más
barata y podemos inferir qué prefieren los sujetos a partir de la cantidad asignada para igualarlas.
Si establecen el coste superior a 12 millones significa que prefieren el programa X porque la
diferencia entre ambos se reduce. Si lo establecen menor, prefieren el Y dado que la diferencia se
incrementa. Cuando se pedía este tipo de respuesta se prefería el Y en su mayoría (96%). Los autores
lo explican por la importancia relativa a los atributos (vidas salvadas) pero pierden peso cuando se
trata de tasar o poner precio. Concluyen este estudio sugiriendo que las personas mostrarán su
apoyo a una iniciativa pública de forma diferente según se pregunte en las encuestas por sus
preferencias o por su opinión sobre la cuantía de sus costes. “Considerando que el programa Y salva
menos vidas, entonces su coste debería ser menor que el coste del programa X para que también
fuera atractivo. Si aumenta el coste del programa Y dejaría de ser el programa más atractivo debido
a que ya no es tan barato. Por este motivo cuando se reduce la diferencia en el coste de ambos
programas se infiere que se prefiere el programa X y cuando se aumenta esta diferencia se infiere
que se prefiere el programa Y”. ED

Esta violación del principio de invarianza también se presenta cuando la persona toma una decisión
de elección de una alternativa y cambia por la decisión de rechazarla. En una decisión binaria no
debería influir la elección o el rechazo: si A se prefiere a B, entonces se rechazará B frente a A. Shafir
(1993) encontró que los atributos positivos son más importantes cuando se trata de una elección y
los negativos cobran importancia cuando se trata de un rechazo. En este estudio se pedía a un
primer grupo de sujetos que tomaran la decisión
de concederle la custodia a uno de los dos
progenitores y a un segundo grupo la decisión de
denegarla. Para poder tomar la decisión se
presentaban datos relacionados con el estatus
económico, social y emocional de ambos
progenitores.

Como se puede apreciar, la información


correspondiente al progenitor A es una

XOSÉ VALES. CURSO 2019/2020 15


CAPÍTULO 7. TOMA DE DECISIONES

información media, sin atributos que destaquen en lo positivo o negativo. Sin embargo, en la
información sobre el progenitor B hay una combinación de atributos que sobresalen en ambos
sentidos. Los resultados mostraron que la mayoría de los sujetos elegían tanto otorgarle la custodia
como denegarle su concesión al progenitor B. Esta discrepancia muestra cómo dos tareas que en
principio son lógicamente equivalentes dan lugar a dos elecciones distintas.
Las personas no atienden únicamente a la utilidad de los componentes de cada alternativa para
decidir sobre la utilidad global. Prefieren la alternativa cierta cuando se ofrece ganancia y prefieren
arriesgarse cuando se trata de pérdidas de la misma magnitud. No siguen leyes lógicas de
transitividad o independencia, en muchas ocasiones las preferencias dependen de alguna variable
del contexto y de la tarea. Aún cuando parecen ajustarse a la lógica, no significa que traten de
maximizar el valor o la utilidad de las alternativas. Por tanto, hay que considerar los aspectos
subjetivos o propios de la persona.

3.1. Teoría de la Perspectiva


La teoría de la perspectiva1 de Kahneman y Tversky (1979, 1992) es una modificación de la teoría
de la utilidad esperada basada en la descripción de las decisiones de los sujetos. Pretende remediar
las deficiencias anteriores. Introduce dos conceptos nuevos: el valor y el peso de las alternativas. La
Teoría de la perspectiva asume que el valor de una opción es el resultado de la suma del producto
del valor asignado a cada resultado X por el peso otorgado a la probabilidad de obtener X.
V=w(p1)v(x1) + w(p2)v(x2)+………… w(pn)v(xn)
El concepto de utilidad se sustituye por el concepto de valor, que se define en términos de ganancias
y pérdidas desde un punto de referencia y no absolutos. La función del valor tiene forma de “S” y es
asimétrica, donde el valor que se atribuye a cada nueva unidad es cada vez menor (pierde
pendiente) y esto explica que en términos de ganancias se prefiera una segura a otra mayor pero
solo probable (aversión al riesgo) y que en términos de pérdidas se prefiera asumir el riesgo de una
pérdida mayor en lugar de evitar la pérdida menor pero segura. La asimetría explica los resultados
que muestran mayor sensibilidad al grado de desviación de un resultado con respecto a un punto
de referencia que al resultado por sí solo (se observa mayor impacto en el ámbito de las pérdidas
que en el de las ganancias).

Si nos fijamos en la figura 7.8, vemos la forma de S de la función del valor, que en el caso de las
ganancias es cóncava y en caso de pérdidas es convexa. Además, el valor que se atribuye a cada

1 “La teoría de la perspectiva de Kahneman y Tversky no es ningún juego de palabras. Ambos investigadores son psicólogos y las aportaciones de
sus trabajos dieron lugar a la concesión del Premio Nobel 2002 de Economía a Daniel Kahneman, Amos Tversky había falleció en 1996.
La preferencia por el riesgo hace referencia a aquellas situaciones en las que la persona está dispuesta a arriesgarse. ¿Cuándo sucede esto? Según
esta teoría hay que ver cómo se conjugan el valor (entendido como ganancia o pérdida) y el peso decisorio (la valoración subjetiva de la
probabilidad). Con la conjugación de estos dos valores se obtienen dos situaciones en las que las personas están dispuestas a arriesgarse
(preferencia por el riesgo):
(1) cuando la probabilidad de la ganancia es baja. Por ejemplo, se compra un billete de lotería con la esperanza de ganar.
(2) cuando la probabilidad de la pérdida es alta. Por ejemplo, cuando en una situación de quiebra se sigue pidiendo préstamos. Se tiene la
esperanza de evitar la pérdida.
La aversión al riesgo hace referencia a aquellas situaciones en las que la persona evita el riesgo. ¿Cuándo sucede esto? En las siguientes
situaciones:
(1) cuando la probabilidad de la ganancia es alta. Se prefiere ir sobre seguro y no arriesgar. Por ejemplo, cuando invertimos dinero en depósitos
bancarios (poco interés, pero seguro). Se tiene temor a la decepción.
(2) cuando la probabilidad de la pérdida es baja. Por ejemplo, se contrata un seguro contra incendios. Se tiene temor al desastre”. ED

XOSÉ VALES. CURSO 2019/2020 16


CAPÍTULO 7. TOMA DE DECISIONES

nueva unidad es cada vez menor, de ahí que pierda


pendiente. Esto explica que en términos de ganancia
se prefiera ganancia segura a otra mayor pero
probable (aversión al riesgo), y que en términos de
pérdidas se prefiera asumir el riesgo a una pérdida
mayor en lugar de evitar una pérdida menor pero
segura (preferencia por el riesgo).

En relación con el tratamiento de las probabilidades


de las alternativas, la teoría de la perspectiva
considera que los sujetos en sus decisiones no
ponderan las alternativas con sus probabilidades
objetivas, sino que lo hacen con unas ponderaciones
que denominan pesos decisorios. Como podemos ver
en la Figura 7 .9, los pesos decisorios guardan una
relación no lineal con las probabilidades objetivas: los
pesos son mayores cuando las probabilidades son
bajas (sobreestimación), van perdiendo pendiente y
son menores a partir de los tramos centrales de las
probabilidades (subestimación) y se recuperan
cuando las probabilidades son altas (efecto de la
certeza).

Las aportaciones principales señalan que la función


del valor subjetivo es cóncava para ganancias y
convexa para las pérdidas y su inclinación es mayor
cerca del punto de referencia (sensibilidad a ganancias
o pérdidas en mayor en la primera unidad +10 y -10).
Se postulan que se subestiman las probabilidades
moderadas y altas, y se sobreestiman las
probabilidades pequeñas y la certeza.

En la Tabla 7.4. podemos ver el patrón habitual de las actitudes hacia el riesgo encontrado por
Tversky y Kahneman (1992).

XOSÉ VALES. CURSO 2019/2020 17


CAPÍTULO 7. TOMA DE DECISIONES

Se distinguen dos fases: “edición” revisión preliminar de las alternativas y “evaluación” que da lugar
a la elección de la alternativa que haya obtenido el valor más alto.
La fase de “edición” organiza y reformula las alternativas para simplificar los siguientes procesos de
evaluación y elección. Se aplican las operaciones:
• Codificación de los resultados en pérdidas y ganancias. Estos se definen en relación con un
punto de referencia. Si corresponde con el estado del problema, las ganancias y pérdidas
coinciden, pero este punto de referencia puede cambiar por la formulación del problema o
expectativas de la persona.
• Combinación de las probabilidades asociadas a resultados idénticos. Permite simplificar el
conjunto de alternativas: 200 euros con probabilidad de 0,25 más otros 200 euros con
probabilidad de 0,25, puede reducirse a 200 euros con probabilidad de 0,50.
• Segregación de los componentes ciertos de los componentes con riesgo. Una alternativa de
300 euros con probabilidad de 0,80 y 200 euros con probabilidad de 0,20 se puede
descomponer en una ganancia segura de 200 euros y una ganancia de 100 euros con
probabilidad de 0,80. Al final serán 280 euros.
• Cancelación de los componentes compartidos por todas las alternativas. La opción común
se cancela.
• Simplificación por el redondeo o por eliminación de las alternativas muy poco probables.
101 euros con probabilidad de 0,49 euros pueden considerar como 100 con probabilidad de
0,50.

Editadas se pasa a la fase de “evaluación” que comprende la función del valor subjetivo y la función
de la probabilidad ponderada de obtener un resultado. Las estimaciones del valor de una
alternativa son cambios de riqueza o bienestar y no en estados finales. El valor es tratado como una
función con dos aspectos: una posición inicial que sirve de punto de referencia y la magnitud del
cambio desde ese punto de referencia. La teoría se basa en una ecuación básica que describe la
forma en la que se combinan la probabilidad y el valor subjetivo para determinar el valor global de
las alternativas. Puede aplicarse a elecciones que implican otros atributos como calidad de vida etc.
y no sólo a cantidades de dinero. Lo único que precisa es que los resultados esperados sean
codificados como ganancias o pérdidas en relación a un punto de referencia y que las pérdidas sean
percibidas como más graves que las ganancias del mismo tamaño.

3.2. Teoría Portafolio (Coombs, 1969;1975)


Otros enfoques describen sencilla y naturalmente el proceso de elección entre alternativas
centrados en la relación entre el valor esperado y el riesgo. Consideran dos aspectos: 1) la promesa
de ganancia potencial de cierta cantidad, 2) el riesgo como posibilidad de sufrir una pérdida.
Coombs (1969;1975) centra su interés en analizar el riesgo y su relación con el valor esperado,
señalando que tomamos decisiones bajo riesgo adoptando compromiso entre maximizar el valor
esperado y optimizar el riesgo. Sostiene que las personas tenemos niveles de riesgo diferente y que
cada una elegiríamos la alternativa que más se aproxime a nuestro nivel de riesgo ideal.

La teoría Portafolio incluye el riesgo percibido de cada alternativa como determinante de la elección
de las personas siendo en función de la probabilidad de perder y también de la cuantía de esa

XOSÉ VALES. CURSO 2019/2020 18


CAPÍTULO 7. TOMA DE DECISIONES

pérdida. Para cada nivel del valor esperado existe también un nivel óptimo: riesgo ideal, donde la
persona elige la alternativa A frente a B poniendo de manifiesto que A se encuentra más cercana al
riesgo ideal que B. Cuando presentan el mismo valor esperado la elección será función únicamente
del riesgo. Los resultados experimentales de Coombs y Huang (1970) confirmaron que los sujetos
elegían la alternativa con el mayor valor esperado cuando la diferencia entre los diferentes niveles
de riesgos y el riesgo ideal era la misma. Encontraron que este nivel de riesgo ideal y persona no era
el mínimo nivel de riesgo posible. Estas diferencias individuales no deberían considerarse como
rasgo de personalidad estable sino como las diferencias que se muestran en su percepción de los
riesgos y de los beneficios de una situación determinada en un momento concreto. Por ejemplo, los
estudiantes de países occidentales daban mayor peso a las probabilidades de las ganancias y la
percepción del riesgo disminuía a medida que mejoraban los resultados en el juego, mientras que
los estudiantes orientales concedían mayor peso en la magnitud de las pérdidas y la influencia de
los resultados positivos era mucho menor en su percepción del riesgo.

Figner y Weber (2011) señalan que la idea de riesgos en la toma de decisiones depende de factores
que se agrupan en términos como quién, dónde y las diferentes interacciones entre ambos. Cada
individuo tiene un nivel óptimo de tensión entre la ganancia que desea obtener y la presión de riesgo
que puede soportar. Según Coombs y Huang (1970), un nivel de tensión entre codicia y el miedo,
donde existe un umbral de aceptación de la alternativa en ambas dimensiones donde no se elegirá
una alternativa cuya ganancia sea menor que su umbral de ganancias, ni la que el riesgo sobrepasa
el umbral de riesgo establecido. Para ser aceptable la alternativa no debe violar ninguno de los dos
umbrales. Son reglas dentro de las estrategias de decisión no compensatorias. Así ninguno de los
dos criterios puede contrarrestar al otro: un riesgo alto no compensa una gran ganancia y un riesgo
muy pequeño tampoco compensaría una ganancia pequeña.

4. LOS HEURÍSTICOS PARA LA ELECCIÓN ENTRE ALTERNATIVAS


4.1. Aspectos básicos del enfoque del procesamiento de la información
El enfoque del procesamiento de la información se apoya en el concepto de “racionalidad
restringida” propuesto por Simon (1983), quien postula que las limitaciones cognitivas conducen a
la elaboración de modelos simplificados de los problemas y a tomar decisiones que sean coherentes
con dichos modelos. Al simplificar la tarea de elección, se sustituye el principio de maximización
por el principio de satisfacción. Por ejemplo, una persona que se plantea comprar una vivienda y
tiene mucha información sobre el mercado inmobiliario, no tiene recursos de procesamiento
suficientes como para poder maximizar su utilidad esperada. Para tomar la decisión tendrá que
seleccionar previamente un conjunto limitado de casas para luego compararlas hasta elegir aquella
que mejor se ajuste a sus aspiraciones. Este enfoque trata de sustituir el concepto de una persona
racional que cuenta con toda la información, con preferencias estables y una capacidad de cómputo
ilimitada por el concepto de una personal racional, pero con limitaciones en el procesamiento de la
información, tales como capacidad de memoria limitada, recursos atencionales escasos, etc.
Además, se debe reflejar la intersección entre estas limitaciones y las demandas impuestas por los
diferentes ambientes en los que se toma una decisión. También hay que considerar el hecho de que
lo que cada persona evalúe satisfactorio pueda cambiar con el tiempo y la experiencia a medida que
el nivel de aspiración cambie (suele suceder con los tatuajes).

XOSÉ VALES. CURSO 2019/2020 19


CAPÍTULO 7. TOMA DE DECISIONES

El objetivo de este enfoque consiste en describir los distintos procedimientos mediante los cuales
las personas toman sus decisiones. Se requieren procedimientos heurísticos sencillos que permitan
seleccionar y procesar. Ahora la elección no se basa en un análisis exhaustivo de todas las
alternativas hasta encontrar la óptima sino la satisfactoria.

Payne, Bettman y Johnson (1992), señalan que las personas tienen más de una estrategia de elección
y éstas pueden ser en algunas ocasiones deliberadas, otras veces, el resultado de aprendizajes
previos y en otras pueden ser intuitivas. La interacción ocasiona que el conjunto de estrategias para
la elección comprenda un abanico amplio de heurísticos, desde los rápidos y apropiados para las
decisiones bajo presión de tiempo y poca capacidad de cómputo, hasta los de procesamiento
secuencial lento y apropiado para decisiones más complejas y deliberadas.

La metodología utilizada en los estudios tratará de identificar el proceso para luego describirlo. Por
ello, algunos de los métodos que se utilizan, denominados métodos para el rastreo del proceso
tratan de observar directamente la estrategia empleada mediante el análisis de los protocolos
verbales, el análisis de los movimientos oculares, la monitorización de la búsqueda de información
y el análisis de la actividad cerebral mediante técnicas como la resonancia magnética funcional
(Payne y Venkatraman, 2011). En otros casos se infiere dicha estrategia a partir de estudios en los
que se presentan pares de alternativas (X, Y) de forma que si el sujeto está usando una regla
determinada elegirá X y si usa otra regla llegará a la respuesta Y. Con estas técnicas tratan de cubrirse
dos objetivos fundamentalmente: en primer lugar, descubrir qué estrategias y reglas elementales
emplean los sujetos y, en segundo lugar, qué rasgos de la tarea y del contexto determinan la
selección y uso de estas estrategias.

4.2. Criterios de elección bajo incertidumbre


Las situaciones de incertidumbre son las que mejor se ajustan a la toma de decisiones de la vida
cotidiana y las situaciones de riesgo caracterizan mejor la toma de decisiones en los juegos de azar
y en los ámbitos profesionales. También los criterios de elección son conocidos como reglas de
decisión, heurísticos de elección, estrategias de decisión y estrategias de procesamiento de
información.

4.2.1. Criterios de elección entre alternativas


• CRITERIO ADITIVO LINEAL. Se ajusta al modelo normativo. Se asigna a los atributos una
ponderación por importancia para luego multiplicarlos por el valor determinado de ese
atributo. Por ejemplo, en la compra de la casa asignamos un 9 (escala de 0 a 10) al atributo
precio. A continuación, se analizará cada alternativa asignándole una ponderación al valor
concreto del atributo. A una vivienda con precio medio asignamos un 5, y se multiplica por 9
(45), se suma el resultado obtenido en cada uno de los atributos para cada alternativa y se
elige la de mayor puntuación. La estrategia maneja toda la información disponible y es una
estrategia compensatoria porque la alternativa que tenga puntuación baja en un atributo
puede compensarse con otra alta en otro. “Tal vez el ejemplo quede más claro con una tabla.
Supongamos que está interesada en la compra de una vivienda. En este momento está
dudando entre dos viviendas (vivienda 1 y vivienda 2) y hay tres atributos que va a tener en

XOSÉ VALES. CURSO 2019/2020 20


CAPÍTULO 7. TOMA DE DECISIONES

cuenta (precio, distancia con el trabajo y metros cuadrados). Lo primero es ponderar la


importancia de los atributos, por ejemplo, en una escala de 0-10: al precio le damos una
importancia de 9, a la distancia con el trabajo de 5 y a los metros cuadrados de 7. Luego
ponderamos el valor concreto de ese atributo para cada una de las viviendas. La Vivienda 1
como tiene un precio medio le damos un 5 y a la Vivienda 2 que es muy cara un 2. Como la
Vivienda 1 está mucho más lejos del trabajo que la Vivienda 2, le asignamos a la primera una
ponderación de 4 y a la Vivienda 2 una ponderación 6. Por último, ponderamos los metros
cuadrados de la Vivienda 1 con un 5 y con un 8 los metros cuadrados de la Vivienda 2 por ser
mucho más grande. En este ejemplo, se elige la Vivienda 2 por ser la alternativa con la mayor
puntuación”. ED

IMPORTANCIA VIVIENDA 1 VIVIENDA 2


ATRIBUTOS
(9) PRECIO 45 (9 x 5) 18 (9 x 2)
(5) DISTANCIA 20 (5 x 4) 30 ( 5 x 6)
(7) METROS 35 (7 x 5) 56 (7 x 8)
TOTAL 100 104

• CRITERIO DE LA “RAZÓN INSUFICIENTE” DEL LAPLACE. Se intenta paliar la poca información


en situaciones bajo incertidumbre para hacer estimaciones según modelo normativo. Se
desconoce la probabilidad de resultados y se asume su equiprobabilidad. La probabilidad de
todos los resultados (n) es la misma (1/n) y una vez calculado se elige la alternativa con mayor
utilidad esperada.
• CRITERIO DE DOMINANCIA. Criterio coherente con modelo normativo, pero sólo para
aquellas decisiones en las que exista la mejor o peor alternativa. Se exploran todas para
encontrar la mejor y elegirla o la peor y eliminarla. Generalmente resulta difícil, pero es un
criterio útil para un análisis preliminar con el fin de discriminar las más débiles (dominadas)
y reducir el número de ellas a considerar.
• CRITERIO “EL MÁXIMO DE LOS MÁXIMOS” (MAXIMAX). Es el enfoque optimista y consiste
en elegir aquella que presenta el mejor resultado considerando que éste ocurrirá (máximo
de los máximos). Si son utilidades, se elige la de mayor utilidad y si son costes, la que presente
el coste más bajo.
• CRITERIO “EL MÁXIMO DE LOS MÍNIMOS” (MAXIMIN). Enfoque pesimista o conservador. Se
comparan los peores resultados de c/alternativa y se elige el que ofrezca el mejor de los
peores resultados (máximos de los mínimos). Se toma pensando que el peor ocurrirá y
pretende asegurar una ganancia mínima con el menor perjuicio.
• CRITERIO DE HURWICZ. Ni todos somos optimistas ni pesimistas, Hurwicz describió el
comportamiento intermedio como la suma ponderada de los extremos: H= α (peor
resultado) + (1- α) (mejor resultado). Se estima la probabilidad subjetiva del peor resultado
y la subjetiva del mejor. La elección de este valor α (0≤ α ≤ 1) determina el grado de
pesimismo u optimismo de la persona. Si a fuera igual a 1, entonces sería pesimista (maximín)
y si a fuera igual a 0 sería optimista (maximax). “Este criterio es pesimista porque se parte del

XOSÉ VALES. CURSO 2019/2020 21


CAPÍTULO 7. TOMA DE DECISIONES

supuesto de que va a ocurrir lo peor. Precisamente para evitar esta postura extrema, Hurwicz
propuso una vía intermedia entre el maximín y el maximax”. ED
• CRITERIO DE LA PÉRDIDA DE OPORTUNIDAD DE SAVAGE (NINIMAX). También conocido
como arrepentimiento porque considera que las personas también lamentan no haber
escogido una alternativa. Se busca reducir el arrepentimiento al mínimo. Se elige el mejor
resultado y se sustituye por cero (0) Este representa que no hay arrepentimiento. Luego se
encuentra la diferencia entre el resultado óptimo y los demás. Esta diferencia representa la
pérdida de oportunidad o arrepentimiento por no haber escogido la alternativa que diera el
mejor resultado y se elige la que presente el mínimo arrepentimiento.
• CRITERIO DE SATISFACCIÓN CONJUNTIVA. Este criterio es semejante al general de
satisfacción propuesto por Simon. Se establece una línea de corte o umbral para cada uno de
los atributos y se elige la que alcance este nivel de satisfacción en todos los atributos. Se
utiliza para el análisis preliminar de un conjunto amplio de alternativas con el fin de
seleccionar el subconjunto de las mejores o para elegir la alternativa satisfactoria.
• CRITERIO DE SATISFACCIÓN DISYUNTIVA. Semejante al anterior, pero se eligen las
alternativas que alcancen el nivel de umbral de satisfacción en cualquiera de los atributos,
no en todos (alternativa destacada en al menos un atributo).
• CRITERIO DE RECONOCIMIENTO. Existe tan poca información sobre las alternativas que se
eligen las que reconocen o que les resulta familiar. Forma parte de las estrategias heurísticas
“rápidas y frugales” porque requieren poco esfuerzo cognitivo en términos de recursos y
tiempo.

4.2.2. Criterios de elección entre atributos de las alternativas


Los criterios para la elección interalternativas son en los que se compara el valor de cada una de las
consecuencias o atributos de todas las alternativas:
• CRITERIO DE LA DIFERENCIA ADITIVA. Se ajusta al modelo normativo. Va comparando cada
uno de los atributos en un par de alternativas Se asignan todos los valores a los atributos
ponderados por su importancia y se compara un par de alternativas, luego se suman las
diferencias entre ellos y se elige la alternativa superior. Posteriormente se compara ésta con
otra y se vuelve a proceder hasta que solo quede una. Toma toda la información disponible
y es compensatorio.
• CRITERIO LEXICOGRÁFICO. Se determina primero cuál es el atributo más importante y luego
se elige la alternativa que presente el valor más alto en dicho atributo. Se denomina
lexicográfico porque los atributos se ordenan en función de la importancia de forma análoga
a cómo están ordenadas alfabéticamente las palabras en un diccionario. Es de los criterios
más comunes.
• CRITERIO DE LA ELIMINACIÓN POR ASPECTOS (Tversky, 1972). Similar al anterior, pero
establece líneas de corte para el valor de cada atributo. Se empieza por determinar el más
importante y su nivel de satisfacción y se eliminan todas las alternativas que no llegan a él.
Se continúa con el siguiente sucesivamente. P. ej., Elegir restaurante cerca de casa. Podemos
elegir como primer atributo que tenga cocina tradicional y como línea de corte, que tenga
buen pescado. La línea de corte eliminará cualquier restaurante que no cocine pescado. El
segundo atributo puede ser el rango de los precios, eliminando los que tengan precios más

XOSÉ VALES. CURSO 2019/2020 22


CAPÍTULO 7. TOMA DE DECISIONES

altos que los aceptables. Otro el tipo de local que nos guste y así hasta que nos quede solo
una opción.
• CRITERIO DE LA RAZÓN ÚNICA (Gigerenzer y Todd; 1999; Gigerenzer y Selten, 2002). La
decisión se toma basándose en un único atributo y forma parte de los heurísticos “rápidos y
frugales” Similar al lexicográfico, pero con dos heurísticos de búsqueda para la selección del
primer atributo:
o El heurístico “escoge el mejor”, lo escoge por la validez que haya tenido en
experiencias anteriores para la discriminación entre buenas y malas y los ordena de
mayor a menor validez.
o El heurístico “minimalista” realiza la comparación entre atributos de forma aleatoria
hasta encontrar la alternativa con el atributo de mayor validez.
Los criterios de decisión que acabamos de ver también se clasifican como estrategias
compensatorias, dado que una puntuación alta en un atributo puede equilibrar una baja puntuación
en otro, y estrategias no compensatorias porque no se permiten intercambios entre las
puntuaciones de los atributos. Las reglas compensatorias son más completas porque tienen en
cuenta todos los atributos y las posibles relaciones entre los mismos, como al adquirir una vivienda
que un precio alto, puede compensarse por la cercanía al puesto de trabajo. Sin embargo, estas
compensatorias y coherentes con el modelo normativo son costosas cognitivamente y poco viables
para decisiones con muchas alternativas multiatributo.

Elegir una u otra estrategias dependerá:


• Del análisis de la relación entre el coste de optimizar el proceso y el beneficio de simplificarlo.
• De factores contextuales y del entorno de la tarea.
• De la representación del problema.

XOSÉ VALES. CURSO 2019/2020 23


CAPÍTULO 7. TOMA DE DECISIONES

Algunas variables como la presión del tiempo, información distractora, dificultad de la tarea influyen
en el uso de la estrategia y por tanto en las distintas respuestas. En diferentes investigaciones, se
observa que las personas modifican la estrategia empleada cambiando a más simples centradas en
los datos negativos que permiten la eliminación de ciertas alternativas. Se observa también el
proceso de cadenas de estrategias o reglas, de forma que primero se usan las que permitan
descartar y luego se evalúa más detalladamente. Parecen útiles en diferente contexto, pero no se
puede olvidar que el descarte inicial puede llevar a despreciar alternativas atractivas.

5. ALGUNOS ASPECTOS COLATERALES DE LA TOMA DE DECISIONES


Uno de los aspectos que acompañan a la toma de decisiones es la necesidad de justificación de la
respuesta emitida. Según Shafir, Simonson y Tversky (1993) el análisis de las razones por las cuales
se toma una decisión permite una mejor aproximación a los aspectos psicológicos de este proceso
y puede arrojar luz a la inconsistencia de los modelos normativos.

Esta necesidad de justificar está relacionada con el fenómeno estudiado por Festinger (1964) sobre
la necesidad de reducir la disonancia cognitiva. Las personas suelen estar satisfechas de sus
decisiones porque no conocen el resultado obtenido en caso de haber elegido otros, y por la
tendencia a eliminar la disonancia. Desde una perspectiva teórica más comprensiva, Svenson (1996)
considera que la toma de decisiones es en gran medida el arte de resolver conflictos por medio de
la reconciliación o negación entre metas contradictorias, siendo esta resolución además
dependiente del problema, el contexto y las diferencias individuales. Se ha de tener en cuenta que
la decisión no es un proceso estático, sino que debe reconsiderarse repetidamente a medida que
surgen otros elementos o varían las condiciones. Nuestros valores o utilidades son inestables,
muchas veces por desconocimiento. Es preciso tener en cuenta el cono- cimiento de la persona
experta frente a la ingenua. Además, cada uno lleva a cabo varios roles en la vida y cada uno de
éstos determina una perspectiva diferente que variará la utilidad para cada dimensión. El estado
anímico dará lugar a juicios más positivos o negativos, modificando las decisiones. El más positivo
dará lugar a búsqueda de alternativas variadas y a la sobrevaloración de la ocurrencia de estados
favorables, y a la inversa.

A veces las decisiones están “cargadas” emocionalmente. Algunas personas no pueden considerar
detalles monetarios a la posibilidad de salvar vidas o salvaguardar el medio ambiente. Tetlock (2002)
las considera como compensaciones tabú, puesto que hay una resistencia a enfrentar lo sagrado y
lo profano. Pueden ante esto negarse a decidir, dejar que otros lo hagan por ellos, optar por
alternativa que mantenga el estatus quo o que puede justificar fácilmente ante ellos y los demás,
utilizando estrategias no compensatorias; o bien intentar abordar el tema con esfuerzo de recursos
y tiempo ponderando aspectos emocionales como importantes.

Payne y Bettman (2004), señalan que las ventajas y desventajas de las decisiones, se encuentran
directamente relacionadas con los siguientes objetivos:
• Maximizar la precisión de la decisión.
• Minimizar el esfuerzo cognitivo.
• Minimizar el impacto de las emociones negativas durante el proceso y una vez tomada.

XOSÉ VALES. CURSO 2019/2020 24


CAPÍTULO 7. TOMA DE DECISIONES

• Maximizar la facilidad con la que se pueda justificar la decisión.

Versión web Autoevaluación

XOSÉ VALES. CURSO 2019/2020 25


Capítulo 8. SOLUCIÓN DE PROBLEMAS

REFERENCIAS:
• RESUMEN M. GORETTI GONZÁLEZ
• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA, I. (2019).
PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
• Aclaraciones ED.
CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

1. INTRODUCCIÓN
La solución de problemas hace referencia a una de las manifestaciones del pensamiento más
extendidas y con un rango muy amplio de aplicaciones. Impregna todo aquello que se encuentra
relacionado con nuestra actividad cotidiana. Esta capacidad nuestra forma parte de nuestro
repertorio de procesos cognitivos básicos en distintos dominios de conocimiento, estando
implicados procesos básicos, como, percepción, memoria, categorización, razonamiento, lenguaje,
aprendizaje, ... asociada la misma a la inteligencia y la creatividad de uno. En general, la solución de
problemas comprende cualquier situación en la que se tiene una meta y se desconoce cómo poder
alcanzarla. Las personas intentaremos con mayor o menor éxito el objetivo.

Para abordar el estudio de este proceso de solución hace falta partir del análisis de al menos 4
componentes:
• Estado inicial de conocimientos.
• Estado meta que se quiere conseguir.
• Los procedimientos, acciones u operaciones que se pueden utilizar para ello.
• Las limitaciones directas e indirectas impuestas por el contexto.

Cuando nos enfrentamos a un problema partimos de un estado inicial, tenemos un estado meta al
que queremos llegar y unas imposiciones que se deben respetar para alcanzar la meta. Por ejemplo,
tendríamos un problema si el día del examen tenemos un infarto, y no podemos realizar el examen.
El estado inicial será no poder realizar el examen, realizar el examen sería el estado meta y la
imposición es estudiar el temario. Por solución se entiende el procedimiento que se ha empleado
para alcanzar la meta, pero sería más adecuado utilizar el término solución para denotar el producto
final del proceso (estado meta) y el término resolución para hacer referencia al procedimiento.

2. EL LEGADO DE LA PSICOLOGÍA DE LA GESTALT


La psicología de la Gestalt ofreció alternativa a la psicología experimental iniciada por Wundt (1911)
y al conductismo norteamericano de Watson (1930). Es un enfoque contrario al método analítico
defendiendo que la totalidad no podía entenderse como la mera suma de sus partes constituyentes,
sino en términos de sus interrelaciones en dicha totalidad de la que forman parte. La Gestalt se
centra en el uso de protocolos verbales que pudieran exteriorizar el pensamiento libres de
interferencias.

Frente al enfoque asociacionista (conductismo) que explicaba la solución de problemas como una
conducta observable basada en el número y fuerza de las conexiones estímulo-respuesta, la Gestalt
se interesó por la obtención de soluciones ante situaciones no conocidas. Según el enfoque
conductista, el sujeto intentaría resolver recurriendo a sus conocimientos o experiencias previas en
las que hubiera obtenidos buenos resultados. Contaría con un conjunto de recursos (asociaciones
estímulo-respuesta), para afrontar nuevas situaciones y de no existir éstas, procedería por ensayo-
error. La Gestalt postula que el aspecto esencial del proceso era la transformación o reorganización
súbita de los aspectos críticos del problema.

XOSÉ VALES. CURSO 2019/2020 1


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

“Gestalt” es término alemán que no tiene una traducción exacta, una aproximación puede ser
configuración, estructura, forma... pero ninguno transmite el carácter dinámico del concepto
alemán. Wertheimer (1910; 1912; 1923; 1945) lo explicaba como si la Gestalt fuese una pompa de
jabón, donde el grosor de la textura jabonosa debía ser uniforme en toda la estructura, en
interacción dinámica y con la propia totalidad, de tal forma que, pinchada, se presentaba el cambio
en la estructura de la misma.

Una aportación importante para la solución de problemas es el concepto de organización y


reorganización. Según el principio de la pregnancia, en las totalidades, existe una organización
inherente caracterizada por ser la más simple y la mejor organización posible con coherencia y
sentido. Sin embargo, en el proceso de solución de problemas se parte de situación opaca, confusa
y sin sentido. Por medio de la reorganización se podrá alcanzar una mejor comprensión de la
naturaleza del problema. En el problema de los nueve puntos se aprecia tanto la organización y la
reorganización.

En la formulación del problema de los nueve


puntos se pide conectar todos los puntos
con cuatro líneas o menos sin levantar el
lápiz del papel. Resulta difícil por el principio
de pregnancia, que impone la organización
de los nueve puntos en un cuadrado como
la forma más coherente y sencilla. Las
personas asumimos que las líneas deben
dibujarse dentro de esos límites imaginarios
haciendo su resolución. Cuando se logra
romper esta organización, se puede
reorganizar diferente.
En 1945, Wertheimer distingue entre
pensamiento reproductivo y productivo. El
reproductivo es un proceso automático que
aplica ciegamente los conocimientos y
procedimientos aprendidos. El pensamiento
productivo es dinámico, avanza
constantemente hasta conseguir aprender
la raíz de la situación planteada en el
problema. Por medio del productivo se
reorganizan aspectos esenciales de la
situación y se puede diferenciar lo relevante
de lo irrelevante. Se da una experiencia
fenomenológica del “¡ah, ya lo tengo!”. Esa
experiencia se denomina Insight o
comprensión súbita y hace referencia al
paso de ese estado inicial confuso a otro en

XOSÉ VALES. CURSO 2019/2020 2


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

el que se obtiene una comprensión de la naturaleza del problema y su posible solución. El


pensamiento reproductivo se aplica mecánicamente y puede llegar a ser incluso obstáculo para el
descubrimiento de una estrategia de solución mejor y más simple del mismo problema.

Duncker (1945), publicó uno de los estudios más completo sobre la solución de problemas como
proceso de reestructuración en tareas en las que los sujetos no tenían experiencia previa. Durante
la realización de la tarea se pedía a los sujetos que pensaran en voz alta mientras resolvían el
problema con la finalidad de analizar cómo los sujetos progresaban hacia la solución. Las soluciones
se desarrollaban por medio de las inferencias establecidas entre una representación mental del
problema y la generación y evaluación de un conjunto de soluciones posibles.

El término de fijeza funcional es opuesto al de


insight pues hace referencia al bloqueo mental
que impide darle una nueva función a un objeto
ya conocido, de modo que el aprendizaje previo
interfiere en la reorganización necesaria para
resolver el problema. En el “problema de las
cajas” de Duncker (1945) se presentaba una
vela, una caja de cerillas y chinchetas y se pedía
a los sujetos que fijaran la vela encendida en un
tablón. Problema que no resultaba nada fácil
resolver. La solución surge cuando se cambia la
función contenedora de la caja de cerillas por la función de soporte que puede fijarse al tablón con
las chinchetas. Ilustra el ej. el cómo el uso habitual de la cajita genera fijación funcional, bloqueando
las posibles utilidades distintas.

Luchins (1942) demostró cómo la aplicación repetitiva del mismo procedimiento para resolver un
problema puede bloquear la aplicación de otros procedimientos alternativos y más eficaces. Utilizó
el problema de las jarras de agua; la tarea de los sujetos consistía en obtener una cantidad
determinada de agua utilizando para ello tres jarras con diferentes medidas. Este conjunto de
problemas recibió el nombre de einstellung (actitud) para denotar esa disposición hacia la utilización
de procederes conocidos. En la Tabla 8.1 se presentan los problemas clasificados en problemas
einstellung (problemas 2-6), y problemas críticos (problemas 7-8 y 10-11 ), las dos soluciones
alternativas de los problemas críticos y los resultados obtenidos en los grupos control y experimental
de niños y adultos. El problema 9 no se podía resolver con el procedimiento empleado en los
problemas previos y se había introducido con el fin de interrumpir la aplicación mecánica del
procedimiento anterior y así permitir que los grupos experimentales pudieran dar la solución directa
a los problemas 10 y 11 . Como se puede apreciar por los porcentajes obtenidos en las distintas
soluciones, los grupos control obtenían unos porcentajes significativamente superiores de
soluciones directas y rápidas para los problemas críticos que los grupos experimentales. Por el
contrario, los grupos experimentales obtenían porcentajes superiores de soluciones einstellung en
todos los problemas, incluso en los problemas 10 y 11. El diseño básico de este experimento lo aplicó
Luchins a más de 900 sujetos encontrando los mismos resultados del efecto einstellung.

XOSÉ VALES. CURSO 2019/2020 3


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

“Fijeza funcional y einstellung son conceptos semejantes. En el caso de la fijación funcional se está
haciendo referencia al bloqueo de una nueva función y en el caso del efecto einstellung al bloqueo
de un nuevo procedimiento”. ED

Los estudios sobre fijación funcional de Dunker (1945) fueron bien recibidos por la comunidad
científica de la época. El autor estaba interesado en saber cómo se generaba la solución y cuál era
la estructura y la dinámica del propio proceso de solución de problemas. Uno de los problemas más

XOSÉ VALES. CURSO 2019/2020 4


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

estudiados para alcanzar estos objetivos fue el problema de la radiación: “Si una persona tiene un
tumor de estómago inoperable y existen unos rayos de alta intensidad que destruyen el tejido
orgánico, ¿cuál sería el procedimiento para eliminar el tumor con la aplicación de estos rayos, pero
evitando al mismo tiempo la destrucción del tejido sano que lo rodea?”
Los sujetos que participaron en las sesiones debían resolver el problema pensando en voz alta todo
aquello que se les iba ocurriendo mientras intentaban llegar a una solución. El método de pensar en
alto es distinto al introspectivo porque en el primero el sujeto se encuentra centrado en el problema
y verbalizando su pensamiento, mientras que en otro el sujeto pensante se convierte en objeto de
su propia atención. Duncker encontró que generalmente la solución no se alcanza en un solo paso
sino en varios a partir de la obtención de las propiedades esenciales o el principio general de la
solución. A este principio lo denominó valor funcional de la solución, y consiste en una
reformulación del problema original, puesto que la solución final se alcanza a medida que este
proceso general se va concretando en cada paso. Su interés era conocer cómo se desarrollaba y se
integraba una solución dentro del sistema de conocimiento del propio sujeto y no tanto en la
viabilidad de las propuestas de solución en sí mismas.

Las distintas propuestas de solución que daba el sujeto, según iba pensando en voz alta, se
agruparon en tres principios generales:
• Evitar el contacto entre los rayos y el tejido sano.
• La inmunización del tejido sano.
• La reducción de la intensidad de los rayos en su trayecto por el tejido sano.

XOSÉ VALES. CURSO 2019/2020 5


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

A partir de estos 3 principios generales se desarrollaban otras fases mediadoras más concretas
encaminadas hacia la solución del problema. Estas fases reformulaban el problema original en otro
más concreto. En el caso de la primera fase, el problema se concretó en la búsqueda de una vía libre
hacia el estómago con el fin de evitar dicho contacto y se encontró como solución el esófago. Según
Duncker: “...cada una de las fases posee en sentido retrospectivo el carácter de una solución y en
sentido prospectivo, el de un problema”.

Durante el proceso de solución lo habitual era encontrar que el sujeto iba tanteando de forma
alternativa la viabilidad de los principios generales y de las distintas fases mediadoras. P. ej., un
sujeto podía empezar desde arriba con el principio, para luego volver a retomarlo en la fase en que
lo dejó. Podría empezar desde abajo porque conocía soluciones semejantes que podrían aplicarse a
la situación planteada por el problema, o incluso las restricciones de éste, podían sugerir una
solución como el estar el tumor situado en el estómago podría contemplar la solución del esófago
por proximidad anatómica. Las aportaciones de la psicología de la Gestalt contribuyeron a que la
psicología cognitiva desarrollara el estudio de la solución de problemas como búsqueda de las
interrelaciones entre las partes del problema que diera como resultado una comprensión
estructural del mismo.

3. PROCESO DE SOLUCIÓN DE PROBLEMAS


A partir de la década de los años 60 del S.XX el enfoque del procedimiento de la información sustentó
el marco teórico y metodológico de la investigación sobre la solución de problemas. “El enfoque del
procesamiento de la información se basa en una analogía funcional entre el funcionamiento del
ordenador y el funcionamiento humano. Ambos se entienden como procesadores de información. De
acuerdo con esta analogía funcional, nosotros somos un sistema que computa y que tiene almacenes
de memoria, operadores, receptores sensoriales y efectores motores. Cuando se habla de
solucionador se está haciendo referencia a la persona que tiene que resolver un problema” ED. Los
modelos computacionales ofrecían su descripción y explicación dentro del marco formal y riguroso
que necesitaba la psicología cognitiva. El “Solucionador General de Problemas” de Newell y Simon
(1972) constituye el inicio y marco de referencia como proceso de búsqueda heurística y
estructuración y reestructuración de la representación del problema planteado por la Gestalt.
Newell y Simon describen “la solución de problemas” como la interacción entre un sistema de
procesamiento de la información (sistema de cómputo con almacenes de memoria, operadores,
receptores sensoriales y efectores motores, con limitaciones también), un solucionador y un
ambiente de la tarea que comprende los factores externos relevantes para esa determinada
situación. El solucionador al enfrentarse al ambiente representa esta situación como un espacio del
problema, y este espacio es la particular representación que el sujeto hace del ambiente de tarea
configurado por las interacciones entre las limitaciones inherentes al sistema de procesamiento de
la información y al ambiente de la tarea. Este espacio del problema viene definido por los estados,
los operadores, las restricciones, las funciones de evaluación y las estrategias de búsqueda.

Dentro del marco de la psicología cognitiva, las investigaciones se han centrado fundamentalmente
en dos aspectos: los procedimientos que conducen a las soluciones, y las representaciones internas
de los problemas.

XOSÉ VALES. CURSO 2019/2020 6


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

3.1. Tipos de problemas


La mayoría de los estudios sobre solución de problemas coinciden en que hay al menos cuatro
componentes básicos el proceso de solución:
• El estado inicial del que se parte.
• Estado meta al que se quiere llegar.
• Una serie de pasos para conseguir la meta.
• Unas restricciones impuestas.

Una de las primeras clasificaciones se basaba en el grado de definición de los estados iniciales y
metas de la situación es la de Reitman (1965) postula cuatro tipos de problemas:
• Problemas donde tanto estados iniciales y meta están bien definidos.
• Problemas donde el estado inicial está bien definido y la meta no.
• Problemas donde la meta está bien definida pero no así el estado inicial.
• Problemas donde tanto el estado inicial como la meta están mal definidos.

Sin embargo, la clasificación general más aceptada los agrupa en bien definidos o cerrados y mal
definidos o abiertos. Los problemas bien definidos (anagramas o ajedrez) son aquellos que
contienen en sí toda la información que permite resolverlos y cuya estructura impone unas
limitaciones. Se identifican con facilidad la meta, los requisitos y el punto de partida para resolver el
problema y los pasos u operadores necesarios para su solución.

Los problemas mal definidos requieren del sujeto que construya la información necesaria para
alcanzar la solución. Se dice que los problemas están mal definidos puesto que falta información
sobre algunos de los componentes básicos del proceso: la meta, el estado inicial, los pasos hacia la
solución o las restricciones. Para resolver los problemas mal definidos, que son más característicos
de la vida diaria, se recurre al conocimiento y a la experiencia, como, p. ej., en la solución de
problemas por analogía.

Según Simon (1973) los procesos generales para resolverlos ambos tipos de problemas son los
mismos y lo característico del proceso de solución de los abiertos es estructurar lo desestructurado,
para que terminen siendo cerrados o bien definidos.

Greeno (1978) propuso otra clasificación basada en los procesos empleados en la solución:
• Problemas de inducción estructural.
• Problemas de transformación.
• Problemas de reordenación.

Esta clasificación puede ser útil como una primera aproximación a los problemas, pero no todos los
problemas pueden clasificarse tan fácilmente bajo esta tipología, pues se dará frecuentemente la
combinación entre categorías.

En los problemas de inducción estructural se identifica el patrón de relaciones que existe entre
elementos que lo conforman. Hay que descubrir las relaciones entre las partes individuales para

XOSÉ VALES. CURSO 2019/2020 7


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

luego poder generar una representación integrada del patrón observado. Las analogías identifican
aspectos estructurales compartidos entre dos situaciones que extrapolan la solución, p. ej., la
analogía verbal es su presentación de 4 términos: “Vox es a la democracia como el Covid19 a la
salud” (A:B como C:D).

Los problemas de transformación se resuelven por la aplicación de unos procedimientos al estado


inicial para alcanzar el estado meta gradualmente. En el conocido problema de “La torre de Hanoi”
tenemos que pasar los tres discos del primer pivote A al tercero C para que queden en la misma
disposición, sin mover más de uno a la vez y sin colocar un disco mayor encima de uno menor.

En los problemas de reordenación la solución se obtiene por nueva disposición de los elementos en
función de algún criterio. Ejemplos de este tipo de problemas son los rompecabezas, los anagramas
o la criptoaritmétrica. El siguiente problema propuesto por Greeno es un ejemplo de
criptoaritmétrica.

En el problema se presentaban tres nombres y los números comprendidos del 0 al 9. Consistía en


sustituir letras por números de modo que el resultado fuera correcto. Se suele indicar que la letra D
corresponde al nº 5. La solución es la siguiente: D = 5, T =0, E= 9, R = 7, A= 4, L = 8, G = 1, O = 2, N =
6 y B = 3. 526485 + 197485= 723970.

Greeno y Simon (1988) modifican la tipología anterior con dos conceptos: Acción cognitiva y
representación cognitiva. Tanto la acción como la representación cognitiva son necesarias y
complementarias en cualquier teoría del pensamiento humano. La acción cognitiva comprende el
conocimiento de las acciones que se pueden realizar y el conocimiento estratégico para establecer
la meta y planificar sobre ello. La representación cognitiva se refiere a la representación de los
objetos comprendidos en la situación, la meta del problema, operaciones y estrategias que se
pueden utilizar, así como a las restricciones que existan. “El concepto de acción hace referencia a los
procedimientos del planteamiento general para resolver el problema y la representación cognitiva a
todo aquello que se encuentra descrito en la formulación del problema. Ambos conceptos están
relacionados y son complementarios. En función de estos dos conceptos propusieron los tres tipos de
problemas que se explican en el texto: problemas bien especificados, problemas de diseño y
reordenación y problemas de inducción”. ED. Teniendo esto en cuenta, analizaron los problemas en
tres categorías:

• Problemas bien especificados: procedimiento y metas bien definidos. Comprenden una


situación inicial, un conjunto de operaciones para pasar de un estado a otro, y un estado
meta. La tarea es encontrar una secuencia de acciones con la aplicación de las operaciones
permitidas. Comprende además los problemas de transformación de la tipología vista antes
y añade unos subtipos:

XOSÉ VALES. CURSO 2019/2020 8


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

o Problemas nuevos, dirigidos por metas de los que no se tiene conocimiento o


experiencia (Torre de Hanoi).
o Problemas familiares, implican metas específicas y conocimientos específicos
(problemas matemáticos).
o Problemas que especifican un procedimiento en lugar de una meta (ejercicios de
mates en los que se pide encontrar expresiones algebraicas).
o Problemas de representación, en los que los sujetos tienen experiencia (interpretar
uno de física).

• Problemas de diseño y reordenación: las metas se especifican en función de criterios


generales en lugar de estados o procedimientos específicos. La meta es conseguir una nueva
disposición de los objetos. Comprende la categoría, problemas de reordenación de la
tipología anterior, además del conjunto de problema de diseño y los siguientes subtipos:
o Problemas de formación de disposiciones (anagrama contiene letras desordenadas y
la meta es reordenar para que formen palabra -> hocac -> cacho).
o Problemas de modificación de disposiciones (tablero ajedrez).
o Problemas de construcción de nueva formulación o representación (problemas de
insight, cajas de Duncker).
o Problemas complejos de composición y diseño (escribir ensayo, composición
musical...).

• Problemas de inducción: tratan de encontrar un principio general coherente con los objetos
o contenido del problema. Categoría que permanece igual que en la tipología anterior,
analizando mayor número de problemas inductivos (inducción categórica, extrapolación de
secuencias, inducción de estructuras relacionales y el diagnóstico).

En cuanto a la distinción entre razonamiento y solución de problemas, Greeno y Simon (1988)


sostienen que tanto el razonamiento deductivo como el inductivo son procesos de solución de
problemas. Según estos, hacen referencia a tipos de problemas y no a procesos. En este sentido
analizan silogismos categóricos como pertenecientes a la categoría de los problemas bien
especificados (problemas nuevos con metas específicas que no requieren conocimiento), pero los
silogismos transitivos serían aquellos de problemas de inducción, puesto que la representación
integrada de la información es por inducción de la estructura ordenada de relaciones expresadas
en las premisas.

Una propuesta más global es la de Jonassen (2000), que considera que el análisis de los problemas
ha de tener en cuenta las dimensiones:

• Características de la naturaleza del problema.


• Características del contexto en que se presenta o representa.
• Las diferencias individuales para resolverlo.

XOSÉ VALES. CURSO 2019/2020 9


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

Jonassen señala que la naturaleza de los problemas varía en función de su grado de estructuración,
complejidad y abstracción:

• Estructuración. Estos problemas presentan estado inicial bien definido, un estado meta
conocido (define la naturaleza de la solución), y un conjunto de operadores que permiten
resolver el problema. Pero los de la vida cotidiana y en el ámbito profesional, no suelen estar
bien estructurados (elementos desconocidos, soluciones múltiples o ninguna, o incluso
solución influida por otras variables alternativas) y esto implica no conocer los
procedimientos necesarios para la solución, por lo que se recurre a las creencias u opiniones
particulares.
• Complejidad. La complejidad se define por el número de elementos o variables que presenta
el problema, su interrelación, el tipo de relación funcional y la estabilidad entre las
propiedades. Los más complejos son aquellos dinámicos debido a la situación de tarea y sus
variables inestables. Cuánto más complejo mayor será el número de operaciones necesarias
para solucionarlo y mayor carga cognitiva (memoria de trabajo). La complejidad y la
estructuración se solapan. Los mal estructurados suelen ser los más complejos, aunque
también pueden ser sencillos (no saber cómo vestirse para una entrevista de trabajo...). Los
bien estructurados son menos complejos puesto las variables tienen un comportamiento
predecible (no incertidumbre), y si aumentan en complejidad es por causa de aumento de
variables y operadores (cálculo y diseño del túnel ferroviario de Pajares).
• Abstracción. Los problemas bien estructurados son más abstractos por no estar en un
contexto concreto y no tener contenidos específicos de dominio de conocimiento. Se
resuelven con los procedimientos generales, los métodos débiles. Los métodos fuertes
suelen estar mal estructurados, situados en contexto concreto y dependientes de contenido
específico.

XOSÉ VALES. CURSO 2019/2020 10


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

Lehman, Lempert y Nisbett (1988) encontraron que el tipo de formación universitaria determinaba
el rendimiento en diferentes tipos de problemas. Los de psicología y medicina resolvían mejor los
problemas metodológicos, estadísticos y de razonamiento condicional que los de derecho y química.
Estos resultados manifiestan que, si la solución de problemas se encuentra en contexto determinado
y es dependiente del contenido, se desarrollarán procedimientos también específicos y concretos.
Sin embargo, los problemas bien estructurados también pueden situarse en contexto y dotarse de
contenido (formulado como una historieta) y los mal estructurados, presentarse de forma abstracta
(dilemas).

Con respecto a la representación de los problemas hay que destacar la importancia del contexto,
formato y modalidad. Los problemas cotidianos y profesionales se encuentran inmersos en
contextos propios. P. ej., al diseñar un vídeo juego para salir al mercado de ventas con éxito, la
representación de éste en el ámbito profesional será distinta de la que se tenga en el profesional.
Otras variables que influyen son las posibles presiones del tiempo impuesto para resolver el
problema, imposiciones reguladoras de contextos (sociales, religiosos, políticos, culturales...) y las
distintas interacciones sociales que pudieran ser según el grupo o ambiente (ambiente competitivo
vs colaborativo). Además, señalar el abanico de diferencias individuales que pueden mediar en el
proceso de solución de problemas es muy amplio. En la Tabla 8.2. solamente se recogen algunas y
merece destacar la consideración que se hace de las dimensiones afectivas y conativas. P. ej.,
algunos estudios muestran que las actitudes y las creencias que se tienen sobre el problema y su
ámbito de conocimiento conjuntamente con el nivel de autoconfianza influyen significativamente
sobre el rendimiento y la perseverancia en encontrar una solución al problema.

3.2. Procedimientos de solución de problemas


Newell y Simon (1972) propusieron una metáfora espacial que describe el proceso de solución como
un procedimiento de búsqueda a través de un espacio delimitado por unos estados y unas
secuencias de acciones que conforman los caminos o trayectos metafóricos hacia la solución.
El espacio es la representación que el solucionador hace del problema y está constituida por 4
elementos:
• Descripción del estado inicial.
• Descripción del estado meta.
• Conjunto de operadores o acciones que permiten pasar de un estado a otro.
• Restricciones impuestas sobre los diferentes trayectos que conducen a la meta.

El procedimiento utilizado para encontrar la solución comprende la secuencia de operadores que


pueden transformar el estado inicial en el estado meta de acuerdo con las limitaciones impuestas
por el trayecto. De esta forma se entiende que el proceso de solución de problemas es un
procedimiento de búsqueda del mejor trayecto para alcanzar el estado meta

El espacio del problema comprendería el conjunto de todos los estados potencialmente alcanzables
mediante la aplicación de los operadores disponibles. Las personas tenemos una memoria de
trabajo limitada que hace inviable un proceso de búsqueda exhaustivo. P. eje., una jugada de ajedrez
puede comprender como sesenta movimientos con media de treinta alternativos legales en cada

XOSÉ VALES. CURSO 2019/2020 11


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

paso. Esto es un ejemplo típico de implosión combinatoria, donde se da el hecho de que el tamaño
del espacio de búsqueda aumenta exponencialmente a medida que se profundiza en el mismo
proceso de búsqueda. Por tanto, las personas utilizan unos métodos de búsqueda heurística. Ello
permite reducir el conjunto total de alternativas a un número más manejable, agrupando a las
alternativas que se aproximen a la solución. P. ej., un jugador de ajedrez puede anticipar entre tres
y cuatro jugadas, y un jugador experto anticipará el mismo número, pero entre las mejores jugadas.
Sin embargo, ello no garantiza que se llegue a la solución óptima. En la búsqueda se apuesta por
aquellos trayectos que mejor puedan conducir a una solución, por alcanzar soluciones satisfactorias,
pero no la mejor. Newell y Simon (1972), propusieron un número reducido de métodos heurísticos
de carácter general denominados métodos débiles por no usar información específica sobre el
dominio del problema.

3.2.1. Heurístico “subir la cuesta”


También denominado “método de reducción de diferencias”, es
un procedimiento sencillo que reduce la diferencia entre el estado
inicial y el estado meta, tratando de aplicar un operador que
cambie el estado inicial a otro estado que se aproxime lo máximo
al estado meta. “Subir la cuesta” recuerda el camino que se
emprende hacia delante cuando se quiere alcanzar la cima de una
cuesta. Al avanzar se reduce paso a paso, la distancia que separa
de la cima.
Este heurístico es similar al método de ensayo y error selectivo.
Las personas eligen en cada paso la ruta que parece llevarlos
directamente a meta. Es útil encontrar una solución
mínimamente satisfactoria (máximo local), sin garantía de que
sea la mejor opción posible (máximo global) dentro del espacio
del problema. La desventaja es la dirección pues siempre es hacia
meta. Se trata de una estrategia sencilla y útil con ciertos
inconvenientes. El solucionador puede quedarse atrapado en un
punto máximo local con una solución satisfactoria, pero distinta
del estado de meta. Otro inconveniente es que no se pueden
generar estados que momentáneamente se alejan de la meta,
siempre se trabaja hacia delante, no permitiendo dar un paso
hacia atrás porque esto supondría alejarse de la meta. La Torre
de Hanoi consiste en pasar los tres discos del primer pivote al
tercero para que queden en la misma disposición, sin mover más
de un disco a la vez y sin colocar uno mayor encima de menor (ver
la Figura 8.4). Se trata de una representación del espacio del
problema completa con un total de 27 estados. El estado 1 es el
estado inicial, el estado 8 es el estado meta y cada estado se
encuentra vinculado con otro estado por el movimiento de un
disco. Como se puede apreciar en esta representación, existen
varias formas de resolver el problema, aunque la más rápida

XOSÉ VALES. CURSO 2019/2020 12


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

viene representada por los siete movimientos consecutivos comprendidos entre los estados del 1 al
8. Si el solucionador está utilizando el heurístico de “subir la cuesta” y ha ido avanzando el estado 1
al 5, la aplicación llevaría al estado 23, (parecido al de meta). Sin embargo, el estado 6 conduce más
rápidamente a lograr la meta que el 23. Kotovsky, Hayes y Simon (1985) encontraron que los sujetos
utilizaban en primer lugar el método de la reducción de diferencias (subir la cuesta) para resolver el
problema de la Torre de Hanoi y cuando fracasaban e en encontrar la solución, entonces aplicaban
el heurístico análisis medios-fin.

“En la Figura 8.4 puede ver que cuando se aplica el heurístico subir la cuesta y, por ejemplo, se llega
al paso 5, entonces el solucionador pasaría al paso 23 porque estaría más próximo al estado meta.
El paso 23 no es el estado meta que se quiere alcanzar, pero se aproxima más a este estado que el
paso 6. Sí, con el heurístico análisis medios-fin, por el contrario, se puede retroceder al pivote 1 y se
pasaría al paso 6. El heurístico análisis medios-fin descompone la meta en submetas y combina la
búsqueda hacia delante y hacia atrás para llegar a la solución. Sí, en el trayecto del paso 5 al paso
23 con el heurístico subir la cuesta se va avanzando hacia el estado meta pero no se alcanza. A partir
del paso 23 se puede ir un paso hacia atrás en el sentido de alejarse del estado meta y utilizar el
heurístico análisis medios-fin de dos formas: (1) pasar del estado 23 al estado 6 o (2) pasar del estado
23 al estado 24”. ED

XOSÉ VALES. CURSO 2019/2020 13


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

3.2.2. Heurístico “análisis medios-fin”


Este heurístico reduce la diferencia entre el estado inicial y el estado meta. La diferencia principal
entre este y el de “subir la cuesta” consiste en descomponer el estado meta en varios estados
submeta. La búsqueda hacia atrás, parte del estado meta y mediante la identificación de los
operadores se pretende ir generando los diferentes estados que logran terminar el estado inicial. Se
trata de uno de los métodos más conocidos fruto de la combinación de la búsqueda hacia delante y
hacia atrás.

La reducción de diferencias entre el estado inicial y la meta se logra estableciendo submetas o


estados intermedios que cada vez se aproximan más al estado meta. Aplicando los operadores se
reducen las diferencias hasta que desaparezcan. Si no se logra reducirla se genera un nuevo estado
submeta para aplicar el operador y así poder ir reduciéndolas. P. ej., supongamos que nuestro
estado inicial es que estamos un fin de semana en casa aburridos y con ganas de salir de excursión
al campo, nuestro estado meta. En este caso uno de los operadores que permitiría reducir la
diferencia entre el estado inicial (aburridos en casa) y el estado meta (excursión al campo) sería
coger el coche para acercarnos al sitio deseado. Si ocurre que nuestro coche está en el taller,
entonces nos veríamos obligados a generar un nuevo estado submeta (amigo con coche) para aplicar
el operador. Podríamos, en este caso, llamar a un amigo con coche (nuevo estado submeta) para
que juntos fuéramos de excursión al campo. Si nuestro operador falla por cualquier motivo, nuestro
amigo no está en casa o no tiene ganas de ir de excursión, entonces buscaríamos otro operador, por
ejemplo, viajar en tren, para así poder ir de excursión al campo.

XOSÉ VALES. CURSO 2019/2020 14


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

El heurístico análisis medios-fin reúne características importantes para este proceso de solución de
problemas:
• La búsqueda se encuentra explícitamente guiada por el conocimiento de la meta.
• El estado inicial puede conducir a otros estados submetas que descomponen el problema en
partes más pequeñas y más fáciles de alcanzar.
• El método puede aplicarse recursivamente hasta conseguirlo.

El proceso de planificación es una parte importante de la solución de problemas al permitir anticipar


las consecuencias de las posibles acciones. Con esta anticipación de las consecuencias se pueden
identificar puntos muertos en el trayecto y evitar errores irreversibles o no, o bien errores
irrelevantes pero que supongan pérdida de tiempo. Al descomponer el problema en subpartes, se
mejora la búsqueda con la anticipación de soluciones tentativas, permitiendo la corrección e
integración de las distintas partes.

La Torre de Hanoi genera las primeras submetas cuando se libera el disco mayor del primer pivote.
Para alcanzarla se traslada el disco pequeño al tercer pivote. Luego se mueve el disco mediano al
segundo pivote y se alcanza la primera submeta. Liberado el disco grande debemos moverlo al tercer
pivote. Podemos anticipar que liberar el tercer
pivote colocando el disco pequeño encima del
disco grande sería un error. La anticipación de las
consecuencias negativas corrige el trayecto y
permite colocar el disco pequeño encima del
mediado en segundo pivote. La tercera meta es
mover el disco grande del primer pivote al tercero.
El análisis del espacio del problema es una
descripción abstracta que difícilmente puede ser
representada e implementada en distintos
modelos computacionales. Sin embargo, se
encuentra vinculada al modelo formal “Sistema de
Producción” (Newell,1973) Está constituido por
reglas con condiciones y acciones (si cumple
condición, ejecuta acción).

Las reglas de condición-acción representan el


conocimiento para la aplicación de un operador.
Las condiciones específicas cuándo se puede
aplicar el operador y las acciones describen las
consecuencias de su aplicación. Las
representaciones de los distintos estados del
problema se emparejan con aquellas reglas que
satisfagan las condiciones especificadas y entonces
se dispara la acción correspondiente.

XOSÉ VALES. CURSO 2019/2020 15


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

Los sistemas de producción fueron diseñados para modelar el proceso de solución de problemas,
pero se han extendido a otros ámbitos de aplicación y han sido propuestos como modelo de
funcionamiento cognitivo en general. El razonamiento condicional se encuentra representado como
un sistema de producción. Diversos modelos cognitivos alternativos basados en éstos comparten un
lenguaje teórico común que fomenta la comunicación entre las diversas disciplinas.

Los problemas bien definidos o cerrados como la Torre de Hanoi, no son representativos de la
mayoría de los problemas. Sin embargo, facilitan la investigación sobre el proceso de solución
porque:
• El análisis de la tarea es riguroso. El sujeto conoce las reglas y procedimiento pues estos son
dados por el enunciado. Permite obtener un diagrama en el que se identifican todas las rutas
posibles. Se cuenta con una descripción formal que permite estudiar la generación de la
solución e identificar cómo se aproxima el sujeto a ese estado meta por los sucesivos
movimientos entre los diferentes estados del espacio del problema. Se podría estudiar cómo
mejora el rendimiento con el ejercicio y cómo se puede ser “experto”.
• Estos problemas no requieren conocimientos específicos y esto permite una mínima
intervención de los conocimientos previos del sujeto.
• La estructura bien definida permite generar problemas semejantes para así poder estudiar el
proceso de transferencia del aprendizaje bajo distintas circunstancias.

3.3. Representación del espacio del problema


Según Newell y Simon (1972), las personas representan el
ambiente de la tarea como espacio constituido por
posibles estados en los que se realizará la búsqueda de la
solución. El ambiente es una descripción externa del
problema, y el espacio es la representación interna que
hace el sujeto de dicho ambiente. En la generación del
espacio del problema se debe considerar la interacción
entre las fuentes de información externas e internas. Las
externas se encuentran definidas por el ambiente de la
tarea y las internas por conocimientos que tiene el sujeto
sobre situaciones similares y sobre la propia información
que se va acumulando durante el propio proceso de
solución.

En los estudios sobre fuentes de información externa se


han utilizado versiones isomórficas de los problemas bajo
el supuesto de que, si la estructura del espacio para los
procedimientos de búsqueda heurística es idéntica,
cualquier diferencia observada en el rendimiento se
deberá a diferencias en la representación de los
enunciados. Versiones diferentes a la Torre de Hanoi son
los problemas de Los Monstruos y se presentan en dos

XOSÉ VALES. CURSO 2019/2020 16


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

versiones: Los monstruos se pasan los globos, y Los monstruos cambian el tamaño de los globos que
sostienen.
En el isomórfico de movimiento, los globos pasan de un monstruo a otro como en los discos en los
pivotes del problema de la Torre de Hanoi. En el problema isomórfico de cambio los globos
permanecen con el monstruo, quien puede cambiar el tamaño de los globos. Ahora se han
cambiado los papeles que desempeñan los pivotes y los discos: el globo es como el pivote y el
monstruo como disco. Tanto en la Torre de Hanoi como en el problema isomórfico de movimiento,
las imposiciones recaen sobre el tamaño de las unidades que pueden moverse (discos y globos)
ubicadas en un mismo sitio (pivotes y monstruos) En el de cambio, las imposiciones sobre el cambio
del tamaño del globo recaen sobre el tamaño de los monstruos (discos) que sujetan globos (pivotes).

Los resultados de estos estudios pusieron de


manifiesto que los problemas isomórficos
presentaban diferentes niveles de dificultad a
pesar de compartir la misma estructura del espacio
del problema, y se correspondían con las distintas
imposiciones (movimiento frente a cambio) y
modalidades de presentación (visuales frente a
escritas) de la tarea. En concreto se encontró que
el problema más difícil era la versión isomórfica de
cambio presentada por escrito y el problema más
fácil había sido el clásico de la Torre de Hanoi. La
explicación de esas diferencias se centra en los
distintos niveles de carga de la memoria de trabajo
que eran necesarios para la solución de estos
problemas. Kaplan y Simon (1990) estudiaron la
influencia del ambiente en la tarea con el “tablero
de damas mutilado”. Este problema está asociado
al insight descrito por la Gestalt y plantea lo
siguiente: “Un tablero de damas está formado por
64 cuadrados. Estos 64 cuadrados pueden cubrirse
con 32 piezas de dominó de forma que cada pieza
cubra dos cuadrados. Si se eliminan dos cuadrados
de los extremos del tablero, ¿se podrían cubrir los
62 cuadrados restantes con 31 piezas de dominó?”
Cuando los sujetos se enfrentan a éste, emplean
mucho tiempo intentando encontrar un patrón que
permita colocar las 31 piezas sobre el tablero
mutilado sin éxito. El espacio del problema es
grande y el enunciado no impone restricciones
sobre el heurístico de búsqueda por lo que al final
terminan abandonando el problema. Es
imprescindible cubrir el tablero de damas mutilado

XOSÉ VALES. CURSO 2019/2020 17


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

con 31 piezas de domino. En este los cuadrados adyacentes son siempre de dos colores alternos
(rojos y negros) y que al colocar una pieza de dominó se cubrirá un cuadrado rojo y otro negro. Al
eliminar dos cuadrados del mismo color (negro) quedan 30 negros y 32 rojos.
Kaplan y Simon se plantearon estudiar la facilitación en la resolución de este problema por medio
de la presentación de distintos indicios del concepto de paridad (comparar) que pudieran restringir
la representación del espacio del problema. Con este fin presentaron el tablero de damas de 4
formas distintas:
• Tablero don todos los cuadrados en blanco.
• Tablero con cuadrados en dos colores.
• Tablero en blanco con palabras de los 2 colores escritas dentro de los cuadrados.
• Tablero en blanco con palabras escritas [pan] y [mantequilla].
Los resultados manifestaron que tardan menos en responder que no se podía resolver los
enfrentados al tablero con las palabras “pan” y “mantequilla”. Estas transmitían el concepto de
paridad necesario para obtener la solución. Le seguía el grupo con el tablero de las palabras escritas
de los dos colores, el de dos colores y el de los cuadros en blanco.

La explicación de la dificultad del problema es que se parte de una representación inapropiada y


para resolverlo hay que reiniciar la búsqueda de otra representación del espacio del problema con
un número mayor de restricciones. Cuando se variaron las formulaciones de los problemas de modo
que enfatizaran el concepto de paridad se encontró que los sujetos lograban resolver el problema y
que algunas formulaciones eran mejor que otras. Los autores comentan que la experiencia
fenomenológica del insight de la Gestalt puede explicarse como proceso de búsqueda semejante al
utilizado con el resto de los problemas, pero en este caso se busca una reestructuración del espacio
del problema. La dificultad de estos problemas se puede predecir por la disponibilidad de las fuentes
de información del ambiente de la tarea que permiten constreñir dicha búsqueda. “En este punto se
estudia la representación del espacio del problema asumiendo que el heurístico de búsqueda es
idéntico porque los problemas comparten la misma estructura (problemas isomórficos) y se varía el
ambiente de la tarea en lo referente a los enunciados de los problemas. Estas fuentes de información
se denominan externas porque es la información que la persona tiene que representar. El problema
del tablero de damas mutilado es un problema que no tiene solución y las personas no advierten que
no lo pueden resolver. Los autores (Kaplan y Simon) de este estudio partieron de la hipótesis de que
al introducir algún indicio del concepto de paridad en el enunciado del problema se facilitaría que las
personas se dieran cuenta de que este problema no tiene solución. El concepto de paridad en este
contexto hace referencia a la relación entre las piezas de dominó (32) y los colores de los cuadrados
del tablero (64): una pieza de dominó cubre un cuadrado rojo y otro negro. Los resultados mostraron
que la condición con las palabras pan y mantequilla fue la que presentó los mejores resultados. Esta
condición fue la más fácil porque los sujetos tardaron menos tiempo en darse cuenta de que este
problema no tiene solución”. ED

La Teoría del Control Progresivo sostiene que los sujetos utilizan el heurístico de subir la cuesta para
resolver problemas asociados al insight, resolviéndose cuando se relajan las imposiciones sobre el
espacio del problema. Esta teoría explica cómo se alcanza un punto muerto en el proceso, cuáles
son las condiciones necesarias para que surja el insight y por qué este es tan poco frecuente. En

XOSÉ VALES. CURSO 2019/2020 18


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

estas investigaciones se utilizó el problema de los 9 puntos. Según los autores, el estado meta no
se encuentra bien definido en la mayoría de los problemas asociados al insight y los sujetos
seleccionan un criterio de progreso satisfactorio hacia unas metas parciales que se infieren de la
descripción del problema o de estado interno generado en el proceso en sí. La reestructuración del
espacio del problema puede ocurrir, por la influencia de fuentes externas como por la propia
información generada internamente.

Los sujetos no logran resolver este problema debido al gran número de movimientos posibles que
parecen ajustarse al criterio de un cuadrado. Se llega a un punto muerto cuando el heurístico de
búsqueda ya no puede más estados que cumplan el criterio de progreso satisfactorio. Este fracaso
permite relajar las imposiciones del espacio del problema para buscar otros estados. El sujeto puede
volver a una solución anterior tentativa en la que utilizó una línea para unir los puntos fuera de los
límites imaginarios del cuadrado. El insight es poco frecuente pues se ha de ajustar al criterio de
llegar a la cuarta línea. Es necesario anticipar mentalmente el trazado para darse cuenta del fracaso
del criterio satisfactorio y reestructurar el problema sin los límites imaginarios del cuadrado.

La teoría del cambio representacional se centra en la información interna como obstáculo para una
buena representación del espacio del problema. La que se hace inicialmente puede ser inadecuada
porque el conocimiento previo y las experiencias anteriores activan la construcción del problema
infructuoso. Para poder reestructurar este espacio del problema existen 2 mecanismos:
• Relajación de las imposiciones: decremento en la activación de algún elemento de
conocimiento que restringe la aplicación de los operadores comprendidos en el espacio del
problema (p. ej., Fijación funcional observada en el problema de las cajas de Duncker –
función contenedora de la cajita de cerillas opera como soporte de la vela.)
• Disgregación de las agrupaciones con significado del problema: implica la ruptura de las
conexiones establecidas por los componentes de una unidad con significado (p. eje., El efecto
einstellung en el problema de las jarras de Luchins). Ahora la unidad que hace falta disgregar
son los procedimientos aprendidos que conducen a una representación inapropiada. Ello
permitirá bloquear la aplicación mecánica y reestructurar el espacio del problema de modo
que se puedan encontrar los procedimientos que resuelven los problemas críticos.

4. EL SOLUCIONADOR DE PROBLEMAS EXPERTO


Las investigaciones que hemos comentado hasta el momento se han centrado en tareas
experimentales que minimizaban la intervención de la experiencia anterior del sujeto para resolver
el problema, donde la información necesaria para la solución del problema se encontraba disponible
y limitada en el propio enunciado del problema, reduciendo de esta forma los efectos de la
recuperación del conocimiento almacenado. El diseño de estas tareas persigue el análisis y la
identificación de los aspectos generales y básicos de los procesos implicados en la solución de
problemas. Una vez identificados estos procesos básicos, es necesario analizar el papel que
desempeña el conocimiento en la representación del espacio del problema. Con el objetivo de
delimitar los conocimientos y experiencia del solucionador, las investigaciones se han ceñido a un
ámbito concreto de conocimientos con una muestra de sujetos clasificada en expertos y novatos.

XOSÉ VALES. CURSO 2019/2020 19


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

4.1. Características generales del solucionador experto


El estudio de la naturaleza del “experto” se enfoca desde una perspectiva absoluta o relativista. La
perspectiva absoluta se centra en la identificación, descripción y evaluación de la pericia. Es
necesario contar con una definición operativa de experto y con instrumentos de medida que puedan
cuantificarlo. La perspectiva relativista aborda el estudio del experto en comparación con el novato.
La pericia se sitúa en un continuo con distintos grados de conocimientos y años de experiencia en
los que se pueden ubicar los sujetos. Los estudios del solucionador experto han adoptado ésta bajo
el supuesto de que las capacidades y procesos básicos de expertos y novatos son semejantes y que
las diferencias entre ambos se deben a los conocimientos adquiridos en el ejercicio de una actividad
determinada. A continuación, comentaremos los aspectos principales en los que destacan los
expertos frente a los novatos (Chi, 2006):
• Los expertos generan lo mejor de forma más rápida. De Groot (1946) abordó el estudio de las
diferencias en conocimiento y experiencia en el juego de ajedrez. Utilizó protocolos verbales en
amplia muestra con distintos niveles de maestría. Ello permitió identificar las diferencias entre
jugadores según iban tomando decisiones sobre sus movimientos. Los resultados mostraron que
diferencia en el comportamiento de un jugador experto era la rapidez con la que podía
considerar las mejoras jugadas sin necesidad de búsqueda exhaustiva (captan rápidamente la
estructura de las posiciones de las piezas, exploraban los posibles movimientos, evaluaban las
consecuencias de estos movimientos y elegían las mejores jugadas). Chase y Simon (1973),
encontraron que el experto de ajedrez identificaba configuraciones del tablero asociadas con los
mejores patrones de jugadas. Expertos y novatos recordaban aproximadamente el mismo
número de piezas y sus posiciones en el tablero cuando estas piezas se situaban al azar. El
rendimiento de los expertos era significativamente superior cuando las piezas se encontraban
en una configuración de posibles jugadas. Organización establecida por agrupaciones (chunks)
de unidades con significado.
• Los expertos detectan y reconocen aspectos de la información que pasan desapercibas para
los novatos, mostrando una mejor discriminación entre lo relevante e irrelevante. Chi, Feltovich
y Glaser (1981), mostró que estudiantes de cursos avanzados representaban un problema
basándose en el principio abstracto subyacente y los novatos en elementos superficiales (los
bomberos expertos representan el incendio dinámicamente, considerando condiciones
antecedentes al fuego, al cómo será su evolución más probable, ... los novatos se percatan de
características de la llama, color,...).
• Los expertos analizan durante más tiempo. Los expertos muestran una gestión diferente de los
recursos limitados de procesamiento. Dedican más tiempo al análisis del problema (En radiología
se encontró que los expertos empleaban más en fase preliminar al diagnóstico) Esto les permite
resolver el problema de forma más rápida y correcta.
• Los expertos seleccionan las mejores estrategias. Los procesos básicos son similares en ambos
grupos pero los expertos eligen el mejor procedimiento (los profesores de física resuelven
problemas trabajando desde el estado inicial hacia la meta, mientras que los estudiantes lo
hacen hacia atrás, comenzando en el estado meta). También se ha encontrado que en
diagnóstico médico rutinario los profesionales se basan en los datos y los novatos lo hacen desde
la hipótesis. En los expertos la búsqueda heurística está condicionada por conocimiento
estructurado y específico del dominio.

XOSÉ VALES. CURSO 2019/2020 20


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

• Los expertos desarrollan sus actividades con menor esfuerzo. Con la práctica se produce
automatización progresiva del rendimiento, reduciéndose la carga de recursos de
procesamiento. De inicio lento y secuencial, consume recursos, y luego es todo lo contrario y
menos deliberado. (Los jugadores expertos de ajedrez son capaces de jugar no solo una sino
varias partidas a la vez de forma mental). Esto hace que se liberen recursos para otros procesos.
• Los expertos tienen mejor autocontrol. Muestran autocontrol del estado de comprensión y del
proceso de solución (los expertos evaluaban mejor la dificultad de problemas de física y además
estimaban mejor el número de piezas de ajedrez recordadas y el número de veces que necesitan
ver una posición en el tablero para poder recordarla).
• Los expertos aprovechan mejor las oportunidades que tienen para incrementar sus fuentes de
información y los recursos disponibles. De Groot 1946 encontró que los jugadores expertos
seguían aprendiendo al descubrir jugadas nuevas evaluando consecuencias de los movimientos
hipotéticos de una jugada. La práctica deliberada permite corregir los puntos débiles e
incrementar la pericia.

4.2. Desarrollo de una destreza


Los enfoques más tradicionales sobre el rendimiento experto dicen que se adquiere destreza por la
formación y la experiencia. Limitado por sus propias capacidades y habilidades innatas. Entienden
que cualquier persona que se implique activamente en su profesión puede alcanzar el nivel de
experto cuando aumentan los años de experiencia. El desarrollo del rendimiento experto se
describe como secuencia de retos con distintos niveles de dificultad que el sujeto va dominando y
superando a lo largo de los años. Estos niveles de maestría son como situaciones de solución de
problemas diferentes que deben resolverse para conseguir el siguiente nivel. De inicio serán las
tareas sencillas las que den resultado, y aumentando con la experiencia y formación, se darán
soluciones a tareas más complejas hasta alcanzar nivel experto.

Alcanzar una destreza habitual de la vida cotidiana (conducir...) implica paso por tres fases:
• Fase cognitiva: se aprende estructura de la actividad (reglas y procedimientos) recibiéndose
retroalimentación bastante clara de los errores. Los novatos gradualmente aprenderán a
evitar errores y se aproximarán a sus expectativas en la siguiente fase.
• Fase asociativa: se logra nivel funcional estable y satisfactorio. Con más entrenamiento se
alcanza la última.
• Fase automática: rendimiento estable y óptimo con un mínimo esfuerzo.

El objetivo planteado en la adquisición de estas destrezas es alcanzar lo más rápidamente posible


un nivel de rendimiento satisfactorio que sea automático. Los sujetos logran alcanzar este objetivo
porque se implican rápidamente en la comprensión y representación de la estructura de la actividad
a desarrollar para pasar a continuación a las dos fases siguientes que persiguen la mejora y
automatización de los procedimientos. Por otra parte, en actividades recreativas, tales como los
juegos o los deportes, no serían tan populares si ese nivel de rendimiento satisfactorio no estuviera
al alcance de la población media. Por tanto, la adquisición de una destreza de este tipo presenta una
estructura sencilla y se basa en el reconocimiento de patrones y configuraciones que ponen en
marcha las acciones de forma automática.

XOSÉ VALES. CURSO 2019/2020 21


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

Bajo este supuesto, por la instrucción y los años de experiencia, la perspectiva tradicional encuentra
difícil explicar por qué existen diferencias tan marcadas entre las personas con capacidades
semejantes y con una misma formación y antigüedad, y por qué el nivel de excelencia tan sólo lo
consiguen unos cuantos. Hatano e Inagaki (1986) distinguen entre expertos rutinarios y expertos
adaptativos.
• Experto rutinario: es eficaz destacado en rapidez, exactitud y automaticidad, falta de
flexibilidad y capacidad de adaptación ante situaciones nuevas.
• El experto adaptativo: es capaz de utilizar el conocimiento flexible y creativamente, con una
comprensión más profunda de los principios y del marco conceptual de su destreza. Muestra
predisposición a seguir aprendiendo desarrollando destreza. Los nuevos problemas son
desafíos a superar.

El adaptativo aspira a alcanzar nivel de excelencia que supere la fase de automatización, desarrolla
destreza que le permita apoyar un aprendizaje continuado. Por tanto, requiere experiencia como
práctica deliberada para poder contrarrestar la fase de automatización y así adquirir control y
habilidad en la monitorización del propio rendimiento. Reestructuran, reorganizan y refinan su
representación de conocimientos y procedimientos. Los expertos no saben más que los novatos,
sólo lo saben de forma diferente.

4.3. Inteligencia y creatividad


Un problema existe si tenemos una meta y no sabemos
alcanzarla. El proceso de solución consiste en una
búsqueda a través del espacio del problema que está
constituido por el estado inicial, el estado meta y los
operadores que permiten avanzar entre los estados
intermedios y una serie de limitaciones impuestas
sobre los posibles trayectos hacia la solución. En este
sentido, la solución inteligente de problemas consiste
en elegir el heurístico apropiado en un espacio del
problema bien representado.

Es bastante común suponer que inteligencia y creatividad se encuentren relacionadas con la


solución de problemas. Desde el enfoque del procesamiento de la información, Wenke y Frensch
(2003) entienden que la inteligencia es una habilidad intelectual constituida por facultades y
procesos cognitivos básicos que son comunes a todos. Son estables e influyen sobre el rendimiento
en una amplia variedad de tareas. Según esta definición, cualquier aspecto del procesamiento de la
información del sistema cognitivo puede considerarse como parte constituyente de una habilidad
intelectual en potencia y, en este sentido, las diferencias individuales en inteligencia y creatividad
estarían vinculadas con los procesos y representaciones responsables de la solución de problemas.

Para explicar el funcionamiento inteligente Sternberg (1985), propone la Teoría Triárquica de la


Inteligencia. Una persona no es inteligente por sobresalir en todos los aspectos. La persona
inteligente es la que conoce sus puntos fuertes y débiles para saber capitalizar su fortaleza y

XOSÉ VALES. CURSO 2019/2020 22


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

compensar o corregir su debilidad. La Teoría Triárquica de la inteligencia está constituida por tres
teorías:
• Teoría componencial. Esta teoría distingue tres tipos de componentes:
o Los “metacomponentes”, que son procesos ejecutivos de orden superior empleados
en la planificación, control y evaluación de los procesos implicados en la solución del
problema. Sternberg identifica siete metacomponentes en el funcionamiento
inteligente:
▪ Decisión de cuál es exactamente el problema que necesita ser resuelto.
▪ Selección de componentes de orden inferior para resolver la tarea.
▪ Selección de una o más representaciones de la información.
▪ Selección de una estrategia para combinar componentes de orden inferior.
▪ Decisión en cuanto a la asignación de los recursos necesarios para resolver el
problema.
▪ Control del proceso.
▪ Evaluación de la solución y sensibilidad a la retroalimentación externa.
o Los “componentes de actuación y rendimiento”, que son los empleados en la
ejecución de la tarea.
o Los “componentes de adquisición, retención y transferencia”, que se emplean al
aprender nueva información.
• Teoría contextual. Encargada del estudio del uso de los mecanismos mentales en la vida
cotidiana de la persona con el objetivo de lograr un ajuste o adaptación inteligente al entorno
y a las circunstancias externas.
• Teoría de la experiencia. Encargada del estudio del papel modulador y mediador que la
experiencia vital del individuo tiene en la interacción entre sus mundos interno y externo. Un
aspecto importante de la inteligencia hace referencia a un continuum relativo a la habilidad
que los individuos presentan para resolver problemas relativamente nuevos, así como para
automatizar de forma rápida los procedimientos necesarios para resolverlos.

“…se optó por explicar la teoría triárquica de la inteligencia de Sternberg porque asume una
perspectiva integradora en la que encaja la solución de problemas. La teoría de las inteligencias
múltiples de Gardner, que menciona y que fue propuesta en 1983, es una perspectiva modular. La
teoría de Sternberg ha analizado y estudiado con bastante detenimiento los componentes del
procesamiento de la información de varios ítems de las pruebas psicométricas, tales como, las
analogías, las series numéricas o de figuras, silogismos, etc. Estas investigaciones permitieron
integrar la solución de problemas, la inteligencia y la creatividad de forma más unificada.

En relación con su pregunta sobre las otras dos teorías, decirle, en términos generales, que la teoría
de la experiencia, que forma parte de la teoría triárquica de la inteligencia de Sternberg, se centra
en el análisis de la interacción entre la experiencia y conocimientos de la persona y los tres
componentes del procesamiento de la información de la teoría componencial. En su explicación de
la inteligencia, Sternberg también incluye la teoría contextual para analizar cómo es la relación que
establece la persona con su medio exterior”. ED

XOSÉ VALES. CURSO 2019/2020 23


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

El proceso creativo conduce a un resultado


divergente, novedoso y adaptativo. Este
proceso comprende habilidades intelectuales,
conocimiento, estilos cognitivos, rasgos de
personalidad y motivación. El pensamiento
divergente y flexible permite identificar y
definir el problema de diferentes formas y
desde perspectivas alternativas no
convencionales, además de reorganizar la
información con el fin de obtener una
representación más novedosa. P. ej., se ha
encontrado que las personas creativas filtran
menos la información distractora (Eysenck,
1997), de modo que en estas personas
aumenta la probabilidad de encontrar nuevos
patrones de información o detectar sutilezas o
anomalías ocultas en la información
considerada por otros como irrelevantes.
También se han identificado otras variables
que influyen en el proceso de una solución
creativa, tales como, la tolerancia a la
ambigüedad, una disposición general hacia la
identificación de problemas, una actitud
abierta hacia nuevas experiencias, una actitud
crítica hacia las normas establecidas, un alto
nivel de auto-confianza y una alta motivación
intrínseca. Según Amabile (1996), las
diferencias individuales en los aspectos
motivacionales influirán significativamente en
la fase de identificación del problema y en la
generación de posibles soluciones. Esta motivación intrínseca caracteriza a las personas creativas,
quienes se encuentran dispuestas y abiertas a interactuar con su medio en la búsqueda de nuevos
problemas y de formas alternativas de organizar e integrar la nueva información con el
conocimiento almacenado, para poder alcanzar soluciones innovadoras ante los retos que se
plantean.

5. LA SOLUCIÓN DE PROBLEMAS POR ANALÓGIA


El razonamiento analógico se considera un procedimiento cognitivo que se aplica a dominios de
conocimientos desconocidos (poco familiares) basándose en situaciones previas conocidas. P. ej., el
sistema hidráulico del sistema de circulación de la sangre (el corazón bombea sangre por las arterias
y venas como un motor bombea agua por las tuberías) es una analogía que permite una mejor
comprensión (hay que saber que es un sistema hidráulico).

XOSÉ VALES. CURSO 2019/2020 24


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

El concepto crítico en el proceso de solución de problemas por analogía es la transformación de


correspondencias de una estructura relacional entre un dominio familiar y uno nuevo. Estos deben
compartir una estructura similar, aunque en otros aspectos sean diferentes. El paradigma básico
para el estudio de la solución de problemas por analogía consiste en el diseño de dos sesiones
experimentales consecutivas con el fin de que se
produzca la conexión entre el problema análogo
previo y el problema meta. En la primera sesión
experimental se presenta el problema análogo,
conjuntamente con otras historietas irrelevantes,
como tarea de comprensión lectora. En esta
primera sesión (El problema de la Fortaleza), los
sujetos leen una historieta en la que se plantea un
problema y su solución, y luego contestan a una
serie de preguntas.

Transcurrido un periodo de tiempo, que suele


oscilar entre unos minutos y hasta una semana,
se pasa la segunda sesión en la que los sujetos
deben resolver el Problema de la Radiación de
Duncker (1945), como problema meta análogo al
que habían leído en la primera sesión. El grupo
control solamente pasa por esta segunda sesión.
Recordemos que en los estudios de Duncker ya se
había propuesto una reestructuración del
problema por medio del principio general
denominado valor funcional de la solución. “El
valor funcional de la solución es un principio
general que reúne esas propiedades esenciales
que permiten reformular el problema. En el
análisis de los protocolos verbales del problema
de la radiación se encontró que los sujetos
trabajaban con tres principios generales o tres
valores funcionales de la solución: (1) evitar el
contacto entre los rayos y tejido sano, (2) la
inmunización del tejido sano (3) la reducción de
la intensidad de los rayos en su trayecto por el tejido sano. En otras palabras, cada uno de estos
principios generales es un valor funcional de la solución”. ED

Los resultados encontraron que el problema de la radiación resultaba difícil de resolver: 10% del
grupo control, encontraron solución. 30% del grupo experimental lo lograron mostrando haber
establecido la analogía. Sin embargo, es un incremento muy pequeño. Si a los que no lo habían
resuelto se les daba pistas, el 75% de estos, lo resolvían, por tanto, la pista forzó el proceso de

XOSÉ VALES. CURSO 2019/2020 25


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

solución. Se puede entender a este razonamiento analógico como complejo, aunque se entienda
como procedimiento de búsqueda heurística, pero entre dos representaciones.
Los procesos básicos del razonamiento analógico son los siguientes:

• Acceso y recuperación de la memoria a largo plazo de representación del problema análogo.


• Extrapolación de las correspondencias entre el problema análogo y el problema meta.
• Transferencia y aplicación de estas correspondencias para obtener la solución.

También pueden darse otros procesos:

• Reestructuración de las representaciones.


• Generación de reglas.
• Inducción de nuevos esquemas representacionales.

La Teoría de los Esquemas de Razonamiento Pragmático añade que el razonamiento analógico se


encuentra determinado por las metas del sujeto y que los dos dominios de conocimiento deben
estar representados en un nivel óptimo de abstracción. La representación buscará maximizar el
grado de correspondencias entre ambos dominios, y así se evitarán nivel concreto y detallado con
relaciones irrelevantes y nivel abstracto con omisiones de correspondencias importantes. Este nivel
de representación jerárquica consta de los siguientes componentes:

• Estado inicial con subcomponentes (meta, recursos, operadores, restricciones).


• Plan de solución y resultados.

Aunque se trata de dominios distintos (militar y médico) comparten una estructura y solución
semejantes. Consta de relaciones verticales o cadenas causales, y de correspondencias horizontales.
Los componentes del estado inicial se relacionan causalmente con el plan de solución donde la meta
se convierte en resultado, los recursos lo posibilitan y las limitaciones impiden la aplicación de otros
planes alternativos. La dificultad para resolver este problema podría ser el acceso y recuperación
del problema análogo. El mayor obstáculo para establecer la analogía puede ser por los dominios
distintos. Esta disparidad entre ambos (militar, médico) explicaría que los sujetos no estuvieran
predispuestos a buscar solución para un problema médico en aquello que conocen sobre estrategias
militares. La mayoría recurría a analogías médicas y pocos a la militar. La complejidad y el desafío
de la investigación consiste en el explicar cómo se tiene acceso a ese conocimiento almacenado tan
distinto al problema a resolver.
Los problemas de transferencia y aplicación pueden encontrar dificultad en la adaptación del
conocimiento del problema anterior al problema nuevo. En la Transferencia se ponen en
correspondencia ambos espacios del problema dando lugar a distintas extrapolaciones (las minas y
el poder destructivo de un rayo de alta intensidad resulta menos obvia). En la adaptación pueden
surgir problemas con ligeras modificaciones (se tiene que inferir la reducción de la intensidad del
rayo por su correspondencia con la división de tropas). Se asume que se debe dar comprensión a la
representación almacenada para que se pueda transferir y adaptarse para resolver el problema
meta.

XOSÉ VALES. CURSO 2019/2020 26


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

5.1. El proceso de Transferencia Analógica


La solución de problemas por analogía se centra en las correspondencias entre problemas, pudiendo
dar lugar a una transferencia positiva y negativa. Problemas similares aparentemente, pueden
resolverse de formas diferentes y otros distintos de la misma forma. Una de las disposiciones más
aceptadas es la diferenciación entre semejanza superficial y estructural propuesta por Gentner
(1983).
• La estructural hace referencia a aspectos comunes y relevantes para problemas análogo y
meta.
• La semejanza superficial, comprende los aspectos comunes pero irrelevantes y que se
encuentran en los argumentos, redacción, guión y contexto de los problemas.

Por transferencia positiva se entiende el acceso, la recuperación y extrapolación de


correspondencias basado en semejanza estructural. La transferencia negativa se entiende cuando
se han recuperado y extrapolado aspectos basados en la semejanza superficial irrelevantes para la
solución. No obstante, la semejanza superficial puede facilitar el acceso puede facilitar el acceso y
recuperación espontánea y contribuir a la transferencia a la positiva. Algunos estudios indican que
ambas semejanzas intervienen en la recuperación, pero la estructural determina el proceso de
transferencia y la aplicación de las relaciones análogas relevantes. Otras investigaciones manifiestan
interacción entre semejanza y experiencia de los sujetos. Los expertos utilizan estructuras abstractas
accediendo a los análogos más fácilmente. Aún así generalmente, parece que nos apoyamos en la
superficial saliente y prominente para acceder y recuperar información, y luego nos guiamos de
semejanzas estructurales para transferir y aplicar al problema meta.

XOSÉ VALES. CURSO 2019/2020 27


CAPÍTULO 8. SOLUCIÓN DE PROBLEMAS

Versión web Autoevaluación

XOSÉ VALES. CURSO 2019/2020 28


Capítulo 9. Neurociencia del Pensamiento

REFERENCIAS:

• Apuntes Estefanía G. del Moral


• GONZÁLEZ LABRA, M., SÁNCHEZ BALMASEDA, P., & ORENES CASANOVA, I.
(2019). PSICOLOGÍA DEL PENSAMIENTO. MADRID: SANZ Y TORRES.
• Aclaraciones ED
CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

1. INTRODUCCIÓN
La neurociencia cognitiva es una disciplina que integra la psicología cognitiva con la neurociencia. La
neurociencia cognitiva adopta, por tanto, el objetivo de estudio de la psicología cognitiva: el estudio
de la cognición, junto con las tareas experimentales y las perspectivas teóricas. Su inicio se sitúa en
el siglo XIX, aunque los hallazgos claves se producen en el siglo XX.

Desde la perspectiva localizacionista se ha defendido que cada región del cerebro se asocia a una
función cognitiva. Sin embargo, los hallazgos más recientes indican que la cognición depende más
de la actividad conjunta de múltiples áreas (redes o conexiones cerebrales) que de la actividad de
una única región del cerebro. Hoy nos encontramos en un momento donde se ha producido un gran
avance de la tecnología que ha permitido plantear dos grandes retos para los próximos años. Por un
lado, el proyecto conectoma humano que se está desarrollando en las instituciones americanas con
el objetivo de conocer el conectoma o conexiones del cerebro para entender el comportamiento y
las enfermedades mentales. Por otro lado, el proyecto europeo del cerebro humano (Human Brain
Project) que pretende simular el cerebro en sus diferentes niveles.

2. TÉCNICAS DE LA NEUROCIENCIA DEL PENSAMIENTO


En la actualidad existen dos tipos de datos empíricos que se utilizan para dibujar lo que podríamos
denominar la neuroanatomía de la cognición; los procedentes de estudios de pacientes con lesiones
cerebrales y los que se obtienen con las nuevas técnicas de la neurofisiología y la neuroimagen.

XOSÉ VALES. CURSO 2019/2020 1


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Phineas Gage trabajaba en la construcción de una vía de ferrocarril donde usaban explosivos para
hacer agujeros en la montaña. En una de esas explosiones una barra de metal impactó en la cara de
Gage, le atravesó por detrás del ojo izquierdo y salió por la parte superior del cráneo. Estamos en el
año 1848 y a pesar de este aparatoso accidente no tuvo ninguna alteración en el movimiento o el
habla. Seguía siendo inteligente y podía resolver problemas abstractos, tenía buena memoria y
podía realizar nuevos aprendizajes. Sin embargo, «Gage ya no era Gage». Cambió su personalidad
radicalmente, dejó de ser responsable y no cumplía sus compromisos lo que le llevó a la incapacidad
de mantener un trabajo, bien porque él mismo los dejaba o porque le echaban tras continuos
conflictos con sus compañeros. También dejó de ser socialmente habilidoso. Era agresivo e incapaz
de regular sus emociones. Murió doce años más tarde probablemente debido a las consecuencias
de las crisis epilépticas que sufría. Damasio, Grabowski, Frank, Galaburda y Damasio (1994), tras un
exhaustivo estudio del cráneo, concluyeron que probablemente la estructura afectada fuera la
corteza prefrontal ventromedial, área que conecta con núcleos subcorticales como la amígdala y el
hipotálamo, que se encuentran relacionados con la emoción y las funciones vitales básicas,
respectivamente. La corteza prefrontal ventromedial se asocia con el procesamiento emocional, la
regulación emocional y la cognición social.

2.1. Estudios de lesiones


La presencia de una lesión cerebral puede utilizarse como variable independiente para de ese modo
poder estudiar sus efectos cognitivos y conductuales (variable dependiente). Gran parte de los
progresos iniciales en neuropsicología derivan de esta clase de”experimentos naturales” en los que,
bien sea por accidente o por enfermedad, una parte más o menos amplia del cerebro pierde su
función. Un caso famoso es el de Phineas Gage.
“Phineas Gage trabajaba en la construcción de una vía de ferrocarril donde usaban explosivos para
hacer agujeros en la montaña. En una de esas explosiones una barra de metal impactó en la cara de
Gage, le atravesó por detrás del ojo izquierdo y salió por la parte superior del cráneo. Estamos en el
año 1848 y a pesar de este aparatoso accidente no tuvo ninguna alteración en el movimiento o el
habla. Seguía siendo inteligente y podía resolver problemas abstractos, tenía buena memoria y podía
realizar nuevos aprendizajes. Sin embargo, «Gage ya no era Gage». Cambió su personalidad
radicalmente, dejó de ser responsable y no cumplía sus compromisos lo que le llevó a la incapacidad
de mantener un trabajo, bien porque él mismo los dejaba o porque le echaban
tras continuos conflictos con sus compañeros. También dejó de ser socialmente habilidoso. Era
agresivo e incapaz de regular sus emociones. Murió doce años más tarde probablemente debido a
las consecuencias de las crisis epilépticas que sufría. Damasio, Grabowski, Frank, Galaburda y
Damasio (1994), tras un exhaustivo estudio del cráneo, concluyeron que probablemente la estructura
afectada fuera la corteza prefrontal ventromedial, área que conecta con núcleos subcorticales como
la amígdala y el hipotálamo, que se encuentran relacionados con la emoción y las funciones vitales
básicas, respectivamente. La corteza prefrontal ventromedial se asocia con el procesamiento
emocional, la regulación emocional y la cognición social.”

Este caso permitió conocer la relación que existe entre una estructura del cerebro y la función que
se observa afectada. Dos son los elementos claves a la hora de poder establecer una relación de este
tipo:

XOSÉ VALES. CURSO 2019/2020 2


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

• Situar de forma precisa el lugar de la lesión. La neurociencia nos ha dejado contribuciones


como la resonancia magnética para poder determinar las áreas lesionadas.
• Es necesario contar con una amplia batería de pruebas o tareas psicológicas que permitan
analizar el tipo de función alterada. La psicología cognitiva ha sido y es clave en el desarrollo
de este último aspecto.

La interpretación y las conclusiones que extraemos de los estudios de lesiones no es para nada tan
robusta como pueda parecer a primera vista. En el caso descrito de Phineas Gage:
• Disociación simple. Inferencia errónea caracterizada por considerar que una estructura
lesionada que se acompaña de una alteración en una determinada función debe ser de algún
modo responsable último de dicha función. En el caso de Gage sería un ejemplo de
disociación simple asumir que el lóbulo frontal tiene papel necesario y suficiente para las
funciones cognitivas y conductuales que se vieron afectadas. Este tipo de inferencias no
permiten descartar otras interpretaciones perfectamente válidas (lesiones en otras regiones
con consecuencias similares, misma lesión tiene efectos diferentes en otros pacientes…).
• Disociación doble. En la disociación doble se asume que la región A se relaciona con una
función X y que la región B se relaciona con la función Y. Se comparan lo bien o mal que se
ejercen las tareas asociadas a cada función en cada tipo de lesión. Evidentemente este tipo
de comparaciones es más robusta a la hora de mostrar la especificidad de la relación entre
una región cerebral y una función cognitiva.

Sin embargo, las evidencias acumuladas en las últimas décadas utilizando este tipo de diseños y
también investigaciones con técnicas de neuroimagen sugieren que las relaciones específicas entre
áreas y funciones son más la excepción que la regla (Sporns, 2010). De hecho, tales relaciones
parecen observarse de forma clara solamente para las áreas cerebrales dedicadas al procesamiento
sensorial y a la producción de acciones motoras.

Es frecuente encontrar casos en los que el mismo tipo de lesión cerebral produce consecuencias
conductuales distintas debido sobre todo a que el cerebro, como iremos viendo, opera más como
una red interconectada de áreas que como módulos separados e independientes con funciones
conductuales y cognitivas específicas. En los estudios de pacientes con lesiones, este modelo de red
interconectada ofrece varias explicaciones alternativas para los casos en los que se observan efectos
conductuales diferentes para una misma lesión (Feldman Barrett, 2017). Por ejemplo:
• Variaciones en la forma en que se reorganizan las estructuras intactas adyacentes a la región
lesionada. La plasticidad cerebral podría formar nuevas conexiones que permitan suplir las
deficiencias derivadas de la lesión.
• Las diferencias conductuales podrían deberse a que el área lesionada es necesaria para la
función, pero no suficiente. Esta perspectiva es la que mejor encaja con el modelo de redes
o circuitos neurales, donde una función psicológica implica participación de multitud de áreas
cerebrales.
• Otra posibilidad sería que la zona lesionada no participa directamente en la función cognitiva
afectada, sino que medie o haga de puente entre áreas que sí contribuyen de forma más
directa a dicha función. En esta ocasión podríamos cometer el error de indicar su

XOSÉ VALES. CURSO 2019/2020 3


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

participación cuando es un mero enlace entre otras estructuras. Por ejemplo, como sucede
en el caso del fascículo uncinado, que media la conexión del lóbulo temporal anterior y el
lóbulo temporal medial con la corteza prefrontal ventromedial, red que se relaciona con la
regulación emocional.

Parte de las dificultades encontradas por la investigación con lesiones cerebrales deriva de las
limitaciones a la hora de encontrar un número suficiente de pacientes con una lesión similar. Esta
limitación no se ha dado en la investigación animal en la que el experimentador puede producir
directamente las lesiones de interés o estimular directamente zonas cerebrales de dichos animales
usando pulsos eléctricos. Sin embargo, parece obvio que existe una barrera a la hora de generalizar
los hallazgos de la investigación animal a la explicación de la cognición humana. En la actualidad, el
desarrollo de técnicas de estimulación cerebral no invasivas e indoloras, destacando la estimulación
magnética transcraneal y la eléctrica, están facilitando la realización de estudios hasta cierto punto
similares a los realizados en animales. La idea de que más que hablar de una anatomía modular de
la cognición debemos hablar de redes de activación que subyacen al ejercicio de determinadas
funciones cognitivas.

2.2. Estudio funcional del cerebro: neurofisiología y neuroimagen


El segundo tipo de técnicas son las de registro, en las que no se altera la actividad del cerebro sino
que el investigador presenta una tarea donde manipula sus condiciones experimentales (variable
independiente) y registra los cambios cerebrales asociados (variable dependiente). Dentro de estas
técnicas distinguimos entre:
• Técnicas neurofisiológicas. Tienen buena resolución temporal y miden directamente la
actividad de las neuronas. Destacamos la electroencefalografía y la magnetoencefalografía.
o La Electroencefalografía (EEG). Registra la actividad eléctrica de las neuronas
cuando se comunican entre ellas, actividad que se ve modificada por la tarea que se
está realizando. Su buena resolución temporal nos permite identificar con alta
precisión el curso temporal del procesamiento cognitivo.
o La Magnetoencefalografía (MEG). Hemos visto que la EEG registra la actividad
eléctrica de las neuronas. Asociado a esta actividad se genera un campo magnético y
eso es lo que registra la MEG. Cuenta con buena resolución temporal y espacial, pero
su uso es poco frecuente debido al gran coste económico que supone.

• Técnicas de neuroimagen. Tienen buena resolución espacial. Detectan cambios en el


metabolismo o flujo sanguíneo mientras que los sujetos realizan una tarea cognitiva. Destaca
la resonancia magnética funcional y la tomografía por emisión de positrones.
o La resonancia magnética funcional (RMf). Mide los cambios de la cantidad relativa
de metabolitos (oxígeno-glucosa) en cada voxel (unidad de volumen). Cuando las
neuronas se activan el flujo de sangre oxigenada acude a las regiones activadas. Su
buena resolución espacial permite relacionar la estructura del cerebro que modifica
su actividad metabólica con la tarea cognitiva.
o La tomografía por emisión de positrones (TEP). La técnica consiste en inyectar al
sujeto 2-desoxiglucosa (2-DG), una molécula análoga a la glucosa que lleva un

XOSÉ VALES. CURSO 2019/2020 4


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

marcador radiactivo (p.ej. isótopo de flúor) y que, además, no puede ser metabolizada
por lo que se acumula en el interior de las células, en mayor proporción en aquellas
que son más activas. El metabolismo se incrementa en regiones con mayor actividad
neuronal, a su vez asociado con la tarea cognitiva que se está realizando.

3. LESIÓN PREFRONTAL DERECHA/ IZQUIERDA Y PENSAMIENTO


El ejemplo de Phineas Gage nos ha permitido conocer la relación que existe entre el lóbulo frontal
y la planificación, pero esta área se relaciona con otras funciones cognitivas. Por ejemplo, mientras
que la corteza prefrontal derecha se ha relacionado con la resolución de problemas poco
estructurados y la detección de conflictos, la corteza prefrontal izquierda se ha relacionado con la

XOSÉ VALES. CURSO 2019/2020 5


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

resolución de problemas bien estructurados y el lenguaje. Veamos algunos estudios de lesiones que
confirman esta relación entre el lóbulo frontal y sus funciones cognitivas asociadas.

3.1. Tarea de la Torre de Hanói


Tal y como le ocurría a Phineas Gage, los pacientes con una lesión en el lóbulo frontal derecho suelen
tener intacta su inteligencia y memoria a largo plazo. Estos pacientes resuelven correctamente
problemas abstractos, en cambio, tienen dificultades en tareas cotidianas como vestirse o preparar
una comida. Esta dificultad en tareas cotidianas se ha relacionado clásicamente con una dificultad
en la planificación de las tareas y se ha evaluado a través de la tarea de la Torre de Hanói (consiste
en pasar los tres discos del primer pivote al tercero para que queden en la misma disposición, sin
mover más de un disco a la vez y sin colocar uno mayor encima de menor colocar un disco de mayor
tamaño sobre otro menor).

Goel y Grafman (1995), presentaron el problema de la Torre de Hanói a pacientes con la corteza
prefrontal afectada y encontraron:
• El 51% de pacientes resolvieron la tarea frente al 84% del grupo control.
• Los pacientes que acabaron la tarea tardaron el doble y el número de movimientos fue mucho
mayor comparado con el grupo control.
• Los resultados no se explican por incapacidad de planificación sino por dificultades para
mantener en la memoria de trabajo el objetivo. Esto se confirmó a través del modelo
computacional simulado por Goel, Pullara y Grafman (2001), donde manipularon la memoria
de trabajo y confirmaron que las diferencias encontradas entre ambos grupos (pacientes y
grupo control) se debían a sus diferencias en la memoria de trabajo.
“Según la página 259: "Goel y Grafman (1995) presentaron el problema de la Torre de Hanói a
pacientes con la corteza prefrontal afectada." Como ve, no se especifíca si tenían el lado derecho o
izquierdo o ambos afectados. En este caso se compara con un grupo de control.

Más adelante se indica (concretamente, en el apartado 3.2.) que los estudios descritos previamente
presentaron algunas limitaciones, por ejemplo, pocos sujetos y además no se sabe si los resultados
encontrados se deben a la lesión en la corteza prefrontal afectada o cualquier lesión produciría los
mismos efectos. Es entonces cuando se expone un estudio con muchos sujetos y donde se distingue
entre la corteza prefrontal derecha, izquierda, lesión posterior; y ahí se encuentra que la lesión en la
corteza prefrontal derecha parece que perjudica la resolución de problemas poco estructurados de
la vida diaria.

La corteza prefrontal también se relaciona con la memoria de trabajo”. ED

3.2. Tarea financiera


Goel, Grafman, Tajik, Gana y Danto (1997) presentaron una tarea financiera en la que los
participantes (pacientes con una lesión en la corteza prefrontal y un grupo control sin ninguna
lesión) tenían que presentar propuestas para poder garantizar en una familia el pago de los recibos,
la hipoteca, los estudios de sus dos hijos, así como ahorros para la jubilación.

XOSÉ VALES. CURSO 2019/2020 6


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Resultados:
• Los pacientes con lesión en corteza prefrontal presentaban mayor dificultad al proponer
propuestas a largo plazo, además sus propuestas fueron menos elaboradas y detalladas.
Dijeron que la tarea era difícil y no se sentían seguros de sus respuestas.
• Los pacientes se centraron en propuestas para eliminar gastos.
• Grupo control tardó más tiempo en realizar la tarea, ya que generaron diferentes propuestas
tanto para reducir gastos como incrementar ingresos.
• Propuestas a corto plazo fueron similares en ambos grupos.
• Cuando autores dividieron a los 10 pacientes en grupos de alta y baja memoria, no
observaron diferencias entre los de alta memoria y control.
• Resultados favorecen la hipótesis de que diferencias en la realización de esta tarea venían
dadas por la función cognitiva afectada (memoria e inteligencia) más que por la lesión en sí.

En los estudios de Goel y colaboradores (1995; 1997), el grupo control no tenía ninguna lesión
cerebral y esto no nos permite saber si los resultados encontrados podrían deberse a la propia lesión
de la corteza prefrontal o si cualquier lesión del cerebro produciría los mismos efectos. Otra
limitación a destacar sería que presentaron una muestra de tamaño pequeño, diez pacientes, lo que
dificultaría obtener conclusiones robustas.

Un estudio posterior mostró resultados similares y superó las limitaciones del anterior al comparar
pacientes con lesión prefrontal derecha o izquierda, pacientes con lesión posterior y personas sin
lesión. Los pacientes con lesión en corteza prefrontal derecha hacían propuestas más abstractas,
generales e imprecisas al planificar un viaje en pareja, comparados con los otros tres grupos. Los
resultados corroboran a Goel, que destaca que la función de la corteza prefrontal derecha está
ligada a la resolución de problemas poco estructurados (la izquierda se activaría ante problemas
bien estructurados).

3.3. Tarea de silogismos transitivos


Goel y colaboradores (2007) quisieron disociar la función de la corteza prefrontal izquierda y
derecha en una tarea de silogismos transitivos y para ello presentaron silogismos válidos, inválidos
indeterminados e inválidos determinados.
• Silogismos Transitivos Válidos. La conclusión es necesariamente verdadera y no se puede
falsar.
o María es más inteligente que Lucía.
o Lucía es más inteligente que Julia.
o María es más inteligente que Julia.
• Silogismos Transitivos Inválidos Indeterminados. Hay más de una conclusión posible.
o María es más inteligente que Lucía.
o María es más inteligente que Julia.
o Lucía es más inteligente que Julia.
La conclusión: “Lucía es más inteligente que Julia” es una conclusión posible, pero es igual
de posible que “Lucía es menos inteligente que Julia” o “Lucía es igual de inteligente que
Julia”.

XOSÉ VALES. CURSO 2019/2020 7


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

• Silogismos Transitivos Inválidos Determinados. No sigue la conclusión de las premisas.


o María es más inteligente que Lucía.
o Lucía es más inteligente que Julia.
o Julia es más inteligente que María.
La conclusión “Julia es más inteligente que María” no se sigue de las premisas, de
hecho, es falsa.

La tarea de los participantes era indicar si los silogismos eran o no válidos, es decir, si la tercera frase
se seguía de las dos primeras. Los resultados mostraron que:
• Tanto los pacientes con lesión prefrontal derecha como los pacientes con una lesión en la
corteza prefrontal izquierda hacían peor todos los tipos de silogismos comparados con el
grupo control.
• Los pacientes con lesión en corteza prefrontal izquierda eran peores en los silogismos
determinados, válidos o inválidos.
• Los pacientes con lesión en corteza prefrontal derecha obtenían peores resultados en
silogismos indeterminados.

Estos resultados indicarían que la corteza prefrontal izquierda se activa cuando la información es
completa y hay una conclusión válida, necesariamente verdadera; mientras que la corteza prefrontal
derecha se activa cuando hay varias conclusiones posibles, es decir, ante situaciones de
incertidumbre. Estos resultados podrían relacionarse con la detección de conflictos que se ha
relacionado con la corteza prefrontal derecha, pues varias conclusiones posibles generarían un
conflicto entre ellas.

3.4. Tarea de selección de Wason


Destacar el papel de la corteza prefrontal izquierda en el lenguaje. Es bien conocida el área de Broca
situada en la corteza prefrontal izquierda y relacionada con las funciones del lenguaje. Para
comprobar la relación que existe entre la corteza prefrontal izquierda y el lenguaje, Goel, Shuren,
Sheesley y Grafman (2004) presentaron la tarea de selección de Wason con tres tipos de contenidos
siguiendo a Cheng y Holyoak (1985):

En el contenido abstracto arbitrario presentaron el enunciado “Si hay una consonante por una cara,
entonces hay un número impar por la otra”. Se presenta presentan 4 tarjetas (P, E, 7, 2) con letras
por una cara y los números por la otra. Se acompaña de un enunciado condicional en forma de regla
y se pedía a los sujetos que dieran la vuelta a la tarjeta o tarjetas que fueran necesarias para
determinar si la regla es verdadera o falsa. Las respuestas correctas son, P y 2, las únicas que podrían
confirmar (P) o falsar (2) el enunciado. Esta tarea rara vez la responden correctamente las personas
sin lesiones y parece que lo mismo ocurre con pacientes lesionados, cuya ejecución fue igual de mala
que la del grupo control. Las personas rara vez realizan la tarea correctamente y los autores
encontraron los mismos resultados tanto para los pacientes como para el grupo control en la
condición abstracta arbitraria. Estos resultados cambiaron para las condiciones del esquema de
permiso abstracto “Si se va a realizar la acción A, entonces debe satisfacerse primero la precondición
B” y concreto “Si una persona bebe alcohol, entonces debe de tener al menos 18 años” donde los

XOSÉ VALES. CURSO 2019/2020 8


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

pacientes con la corteza prefrontal derecha afectada mejoraron igual que el grupo control, sin
embargo, los pacientes con la corteza prefrontal izquierda afectada mostraron los peores
resultados. Este hallazgo apuntaría a que estos últimos pacientes no se beneficiaban del
conocimiento social abstracto o concreto.

Una limitación de este estudio es que el grupo control no tenía ninguna lesión y como consecuencia
no se podría concluir si este efecto se debía exclusivamente a la corteza prefrontal izquierda u otra
lesión podría provocar los mismos efectos. Por otro lado, lo que parece confirmar este estudio es
que la condición abstracta arbitraria que no presentaba contenido social se relaciona con procesos
analíticos asociados con el lóbulo parietal y en este caso, tanto pacientes como el grupo control
tendrían esta área intacta, de ahí que no se observaran diferencias entre ellos en esta condición.
“¿Cómo entienden las personas el condicional o cual es el significado del condicional (entendido este
como implicación material)? Si nos dicen: Si hay una consonante por una cara, entonces hay un
número impar por la otra. Entendemos o representamos el condicional a través de sus tres
posibilidades verdaderas:

Consonante Impar

No-Consonante Impar

No-Consonante No-Impar

Si levanto la E (No-Consonante) me puede salir un impar o un par y siempre son posibilidades


verdaderas. De igual modo si elijo el impar (7) también va a ser siempre verdadero haya o no una
consonante. Entonces estas dos tarjetas no tiene sentido elegirlas porque realmente para comprobar
una regla tengo que seleccionar aquellas tarjetas que me permitan saber si la regla es falsa.

Realmente es lo que hacemos cuando queremos saber si una regla siempre se cumple hay que buscar
algún ejemplo en el que no se cumple, es decir, hay que falsar la regla. Aunque como veremos las
personas somos grandes verificadores (sesgo de verificación) y vamos atendiendo aquello que hace
verdadero la regla ignorando incluso aquellos ejemplos que falsan la regla”. ED

4. BASES NEUROANATÓMICAS DEL PENSAMIENTO


4.1. Procesos heurísticos y analíticos del pensamiento
Evans (1984; 1989) Evans distingue dos procesos para explicar el razonamiento:
• Proceso Heurístico (o sistema1). Rápido, inconsciente y automático. Asociado al lóbulo
frontotemporal izquierdo.
• Proceso Analítico (o sistema2). Lento, consciente y controlado. Asociado al lóbulo parietal
bilateral.

Dentro del razonamiento deductivo, el efecto del contenido en el razonamiento silogístico


categórico. Con este propósito, Goel, Buchel, Frith y Dolan (2000) presentaron silogismos con
contenido. Por ejemplo:

XOSÉ VALES. CURSO 2019/2020 9


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Todos los perros son mascotas


Todos los caniches son perros
Todos los caniches son mascotas

Silogismos sin contenido:


Todos los B son A
Todos los C son B
Todos los C son A

La tarea de los participantes era indicar si la conclusión era o no


válida. Los resultados mostraron que cuando las personas
resolvían los silogismos con contenido se activaba el lóbulo
frontotemporal izquierdo (proceso heurístico o sub1 de Evans),
mientras que cuando resolvían los silogismos sin contenido se
activaba el lóbulo parietal bilateral (heurístico o sub2de Evans).

Resultados (figura 9.3):


• Se activaba el lóbulo frontotemporal izquierdo mientras
se resolvían silogismos con contenido. (Sistema1 de
Evans).
• Se activaba el lóbulo parietal bilateral mientras se
resolvían silogismos sin contenido (Sistema2 de Evans).

Los autores también manipularon conclusiones creíbles y no


creíbles. En este caso los resultados mostraron que se activaba
la corteza prefrontal derecha, relacionada con la detección de
conflictos, cuando se producía un conflicto entre la validez y la
credibilidad, es decir, ante conclusiones válidas y no creíbles, así como aquellas que eran no válidas
y creíbles.

Es importante señalar que en los estudios de resonancia magnética funcional se presentan como
mínimo dos condiciones experimentales (por ejemplo, la condición con contenido y sin contenido)
y se estudia el efecto, que es la diferencia entre dichas condiciones experimentales. En los estudios
de resonancia magnética funcional, cada condición activa prácticamente todo el cerebro. Lo que se
hace entonces es restar una condición a la otra señalando así el área del cerebro que las diferencia.
Esto es importante porque algunos lectores pueden interpretar erróneamente que en una condición
experimental solamente se activa una estructura del cerebro y más bien lo que se presenta en los
estudios es la diferencia entre ambas condiciones.

En otra investigación sobre razonamiento inductivo, Liang, Goel, Jia y Li (2014) estudiaron la falacia
de la inclusión que consiste en considerar más convincente (más probable) la generalización de una
categoría específica (petirrojo) a una general (pájaro) que la generalización de una categoría
específica a otra específica (p. ej., avestruz). “La falacia de la inclusión es pensar que es más probable

XOSÉ VALES. CURSO 2019/2020 10


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

la generalización de una categoría específica (petirrojo) a una general (pájaro) que la generalización
de una categoría específica a otra específica (por ej., avestruz), pero esto es un error.

Por ejemplo, "los perros tienen cuatro patas" es más probable que otro ejemplar tenga esa
propiedad, "los gatos tienen cuatro patas" que todos los ejemplares de la categoría tengan la
propiedad: "todos los mamíferos tienen cuatro patas". Sin embargo, las personas lo entienden al
revés, de ahí la falacia”. ED

Los autores presentaron un primer argumento formado por una premisa específica y una
conclusión (implícita) general:
Los petirrojos secretan cristales de ácido úrico.
Los pájaros secretan cristales de ácido úrico.

En un segundo argumento formado por una premisa específica y una conclusión (implícita)
específica:
Los petirrojos secretan cristales de ácido úrico.
Los avestruces secretan cristales de ácido úrico.

La tarea de los participantes era indicar qué argumento era más probable. El argumento más
probable era el segundo porque es más probable que dos ejemplares (petirrojos y avestruces) que
pertenecen a una categoría compartan una propiedad que todos los ejemplares de dicha categoría
(pájaros). Esta idea la saben bien las personas. De hecho, los autores presentaron otra condición
donde añadieron el cuantificador “todos” y los resultados cambiaron. P. ej., presentaron un primer
argumento con una premisa específica y una conclusión (explícita) general:

Todos los petirrojos secretan cristales de ácido úrico.


Todos los pájaros secretan cristales de ácido úrico.

Y un segundo argumento con una premisa y una conclusión (explícita) específica:


Todos los petirrojos secretan cristales de ácido úrico.
Todas las avestruces secretan cristales de ácido úrico.

Los resultados conductuales (aciertos y tiempo de reacción) mostraron que los participantes hacían
inferencias correctas con más frecuencia que cometían la falacia de la inclusión en la condición
explícita (precedida por “todos”), mientras que no había diferencias entre ambas respuestas para la
condición implícita (que no estaba precedida por “todos”).

Resultados Resonancia magnética funcional (RMf):


• Se activó el lóbulo frontotemporal izquierdo cuando participantes cometían la falacia de la
inclusión. Recordemos que esta región se asocia a la memoria y acceso al contenido, y que

XOSÉ VALES. CURSO 2019/2020 11


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

este hallazgo coincide con el que encontramos en la primera investigación Efecto del
Contenido.
• Activación del lóbulo frontoparietal derecho en la condición implícita (sin el “todos”) donde
aumentó el número de falacias cometidas por los participantes. Lóbulo parietal se relaciona
con procesamiento analítico, corteza prefrontal derecha con la detección de conflictos entre
respuesta correcta y falaz. Puede ser que la condición implícita resultase ambigua al no
indicar explícitamente a todos los ejemplares.
• También se activa en este tipo de tareas la corteza frontal superior medial bilateral,
relacionada con la respuesta de orientación a la tarea.

Otra tarea diferente donde se encuentran resultados similares es en una versión del problema del
abogado-ingeniero. Ya hemos estudiado en el capítulo del razonamiento probabilístico que las
personas son insensibles a las probabilidades a priori y se dejan llevar por el heurístico de
representatividad, basándose para ello en el conocimiento sobre el estereotipo de ingeniero.
Tomando como referencia el problema del abogado-ingeniero, De Neys y Goel (2011) presentaron
cuatro condiciones:

• Incongruente:
Ratio: en un estudio hay 5 hombres y 995 mujeres.
Descripción: Jo tiene 23 años y está acabando el grado de ingeniería. Los sábados noche le gusta
salir con sus amigos, escuchar música y beber cervezas.
Preguntas: ¿Qué es más probable?
a) Jo es un hombre
b) Jo es una mujer

• Congruente:
Ratio: En un estudio hay 5 suecos y 995 italianos.
Descripción: Marco tiene 16 años, le gusta jugar al fútbol con amigos y salir a tomar pizza o hacer
pasta en casa.
Pregunta: ¿Qué es más probable?
a) Marco es sueco
b) Marco es italiano

• Heurística Neutra:
Ratio: En un estudio hay 5 votantes de Bush y 995 votantes de Kerry.
Descripción: Jim mide 1,70, tiene pelo negro y es padre de dos niñas. Conduce una furgoneta
amarilla cubierta de posters.
Pregunta: ¿Qué es más probable?
a) Jim es votante de Bush
b) Jim es votante de Kerry.
• Analítica neutra:
Ratio: En un estudio hay 500 personas de 40 años y 500 de 17.

XOSÉ VALES. CURSO 2019/2020 12


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Descripción: Rylan vive en Búfalo, le gusta escuchar pop y ahorra para comprarse una casa.
Pregunta: ¿Qué es más probable?
a) Rylan tiene 40 años
b) Rylan tiene 17 años

“Es importante tener presente que los resultados que se ofrecen de la resonancia magnética son la
comparación de dos condiciones. Esto quiere decir que cuando se comparan las condiciones basadas
en razonamiento analítico y razonamiento heurístico se observa una mayor activación del lóbulo
parietal bilateral para el razonamiento analítico mientras que se observa una mayor activación del
lóbulo temporal lateral izquierdo en la condición de razonamiento heurístico.

En la condición incongruente, las personas basaban sus decisiones en la descripción, entonces el


razonamiento es heurístico y se podría activar más el lóbulo temporal lateral izquierdo frente a otra
condición. Recuerde que el cerebro se activa todo en todas las condiciones, pero hay que tener
presente que es una comparación (una resta) y al estar más activado esta área se la relaciona con
dicho razonamiento heurístico. Igualmente, aquellos que responden bien y se dan cuenta de la
incongruencia, activarían como dice la corteza prefrontal lateral derecha más.

La condición congruente tanto la descripción como la información a priori es consistente, entonces


no habría conflicto como dice y muy probablemente la gente basaba sus decisiones en la descripción
pudiéndose activar el área relacionada con el heurístico puesto que ignoran las probabilidades a
priori.

La condición heurística neutra es aquella que la descripción no nos da información (es decir, es
neutra), por ello la gente tendría que atender a la información presentada a priori para responder.
Como esto sabemos que la gente lo ignora de ahí que el número de errores fuese superior que la
condición analítica neutra. Al no haber una descripción sesgada no se activaría ningún razonamiento
heurístico.

La condición analítica neutra es cuando las probabilidades a priori son similares, entonces no
podemos basar nuestra decisión en un razonamiento analítico, sino exclusivamente en la descripción
y activar un razonamiento heurístico”. ED
Resultados conductuales mostraron que las condiciones congruentes y analíticas neutras tenían
más aciertos y se respondían más rápidamente que las otras dos condiciones, siendo la más difícil la
incongruente.

Los resultados de la resonancia magnética funcional (RMf) mostraron que las personas activaban
el lóbulo temporal lateral izquierdo cuando utilizaban el heurístico de representatividad para
resolver el problema, es decir, basaban sus decisiones en su conocimiento; mientras que activaban
el lóbulo parietal bilateral cuando lo resolvían activando los procesos analíticos. También
observaron que las personas activaban la corteza prefrontal lateral derecha relacionada con la
detección de conflictos cuando había una incongruencia entre la probabilidad a priori y la
descripción y respondían correctamente en la condición incongruente.

XOSÉ VALES. CURSO 2019/2020 13


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

En resumen y a la vista de los resultados, con independencia del tipo de problema presentado,
observamos que:
• Se activa el lóbulo frontotemporal izquierdo en respuestas basadas en procesamientos
heurísticos (conocimiento). (Procesos rápidos, inconscientes y automáticos).
• Se activa el lóbulo parietal bilateral en procesos analíticos (lentos, conscientes y controlados).
• Se activa la corteza prefrontal derecha cuando se detecta conflicto entre respuestas que se
basan en procesos analíticos y heurísticos.

4.2. Curso temporal del pensamiento


Hasta ahora hemos visto cómo se activan ciertas áreas neuroanatómicas en procesos de
pensamiento. La electroencefalografía (EEG) tiene una buena resolución temporal, por lo que vamos
a recurrir a ella para abordar este punto donde se pretende dar ejemplos de cómo los estímulos
incongruentes pueden ser procesados rápidamente (técnica de los potenciales evocados) . Con este
objetivo, Bonnefond y Van der Henst (2013) presentaron condicionales tales como:

Si John está durmiendo, entonces está roncando.

Y de forma seguida o previa, presentaron una de las siguientes frases:

Un antecedente congruente: John está durmiendo.


Un antecedente incongruente: John está cantando.
Un consecuente congruente: John está roncando.
Un consecuente incongruente: John está soñando.
Aunque el consecuente incongruente (John está soñando) es coherente con el enunciado, sin
embargo, no es esperado por el participante y generaría incongruencia. El estudio es un diseño 2x2
(premisa menor antes o después del condicional x premisa menor congruente o incongruente con
el condicional).

Resultados EEG:
• El componente P3001 en la región centroparietal era mayor en condiciones congruentes que
incongruentes. Dentro de las condiciones congruentes, el P300 alcanzaba su máxima
amplitud cuando el consecuente era congruente:
Si John está durmiendo, entonces está roncando.
John está durmiendo.
John está roncando.
• La amplitud del P300 en la condición antecedente congruente, presentado después del
condicional, era menor:
Si John está durmiendo, entonces está roncando.
John está durmiendo.

1 El P300 es un componente positivo, de ahí la «P», asociado al procesamiento cognitivo de estímulos esperados congruentes frente a

incongruentes. Indica aumento de actividad, su pico máximo se alcanza alrededor de los 300 milisegundos de presentarse el estímulo.

XOSÉ VALES. CURSO 2019/2020 14


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

• La amplitud del P300 en la condición antecedente congruente era menor que en las dos
anteriores si se presentaba el antecedente antes del condicional:
John está durmiendo.
Si John está durmiendo, entonces está roncando.
• Según los datos, la condición más esperada es la congruente con el consecuente presentado
después del condicional.

Bonnefond y cols. (2012), realizaron un experimento similar, pero presentando un contenido


abstracto; ”Si hay una letra A, entonces hay una letra C”, estudiaron el modus ponens (MP) y la
falacia de la afirmación del consecuente (AC). El modus ponens (MP) consiste en presentar:

El condicional: Si hay una letra A, entonces hay una letra C.


Seguido del antecedente: Hay una letra A.
Y el consecuente: Hay una letra C.
En la Falacia de la Afirmación del Consecuente (AC):

El condicional: Si hay una letra A, entonces hay una letra C.


Seguido del consecuente: Hay una letra A.
Y el antecedente: Hay una letra C.

La tarea de los participantes consistía en indicar si la inferencia es o no válida. La primera inferencia


es válida mientras que la segunda no lo es, aunque la mayoría de las personas la acepten como tal.

Resultados conductuales mostraron:


• Un mayor número de personas aceptaban el Modus Pones (MP) como válido y con mayor
rapidez.
• Se halló que personas que no consideraron válida la Afirmación del Consecuente (AC) tardaron
más que los que la aceptaron como válida.
• Resultados consistentes con la teoría de los modelos mentales, según la cual personas pueden
representar el condicional a través del modelo inicial:
A C

XOSÉ VALES. CURSO 2019/2020 15


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Al presentar el consecuente “Hay una letra C”, entienden que la única inferencia
posible es “Hay una letra A” y de ahí que acepten como válida la Afirmación del
Consecuente, aunque sea errónea.

Personas también pueden representar condicionales a través de Modelos mentales Explícitos (es el
despliegue del modelo inicial o implícito):
A C
No-A C
No-A No-C

Al presentar el consecuente “Hay una letra C”, entienden que hay dos posibles conclusiones, A y No-
A, por tanto, la inferencia “Hay una letra A” no es válida. Esto se traduce en mayor tiempo de
procesamiento, ya que se representan 3 modelos en vez de 1, y es congruente con el resultado de
arriba. Las personas que no consideraron válida la Afirmación del Consecuente (AC) tardaron más
que los que la aceptaron como válida.

Los autores también analizaron los datos de la electroencefalografía. En primer lugar, compararon
la premisa menor para el modus ponens “Si hay una letra A, entonces hay una letra C. Hay una letra
A” y la afirmación del consecuente “Si hay una letra A, entonces hay una letra C. Hay una letra C”.
Los resultados mostraron un mayor P300 centroparietal para el Modus Pones (MP) comparado con
la Afirmación del Consecuente (AC), mientras que el N2002 era mayor para la Afirmación del
Consecuente (AC) comparado con el Modus Pones (MP) en el área frontocentral.

Los hallazgos de este estudio indican que la mayor amplitud del P300 para el Modus Pones (MP) se
asocia a que personas esperaban más el antecedente que el consecuente. Dicho de otro modo,
mayor amplitud del N200 para la Afirmación del Consecuente indica que el consecuente era menos
esperado que el antecedente.

Comparando los datos del EEG, después de la presentación del Modus Pones (MP) y de la Afirmación
del Consecuente (AC), los autores distinguieron entre sujetos que aceptaban la Afirmación del
Consecuente (AC) como válida:
• No había diferencias entre el Modus Pones (MP) y la Afirmación del Consecuente (AC) para
los que aceptaban la Afirmación del Consecuente (AC) como válida, ni en P300, ni en N200.
Esto es porque en ambas inferencias sujetos representarían el mismo modelo inicial (A C).

y sujetos que no aceptaban la Afirmación del Consecuente (AC) como válida:


• En estos últimos observaron mayor P300 para el Modus Pones (MP) comparado con la
Afirmación del Consecuente (AC) .
• Indicaría que el antecedente A no era esperado, ya que No-A también era posible.
• N200 era mayor para la Afirmación del Consecuente (AC) que para el Modus Ponens(MP).

2El N200 es un componente negativo, de ahí la «N», que indica disminución de la actividad, encontrándose su pico máximo alrededor de los
200 milisegundos después del estímulo y se relaciona con la información inesperada o incongruente.

XOSÉ VALES. CURSO 2019/2020 16


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Los componentes N200 y P300 fueron analizados en


otra investigación para estudiar el efecto de supresión.
Si presentamos un Modus Ponens como:
“Si John estudia medicina, entonces aprueba”.
“John estudia”.
“John aprueba”.
La mayoría de las personas aceptamos como válida esta
inferencia, pero si se presentaran alternativas que
interfieran en la conclusión, tales como “John tiene
síndrome de Down” entonces nos costará aceptar la
conclusión como válida. A esa disminución en la
aceptación del Modus Ponens como válida se le
denomina Efecto de Supresión.

Bonnefond, Kaliuzhna, Van der Henst y De Neys (2014)


presentaron condicionales que tenían muchas y pocas
alternativas. Resultados:
• En condicionales con muchas alternativas
posibles se dio Efecto de Supresión con un mayor
N200 en el área frontal.
• El 78% aceptó como válido el Modus Ponens en
la condición pocas alternativas frente al 24% en
la condición muchas alternativas.
• Mayor P300 en condicionales con pocas
alternativas en las áreas centroparietal y
parietal.
• Resultados congruentes con los estudios previos.
P300 en condiciones más esperadas (pocas
alternativas) y N200 en las menos esperadas
(muchas alternativas).

Estos datos confirmarían los estudios previos y en su


conjunto indicarían que nuestro sistema cognitivo es
especialmente sensible a los estímulos incongruentes o difíciles de procesar aproximadamente a los
200 ms, mientras que es sensible o procesa aquellos estímulos esperados en torno a los 300 ms. El
lector debe de ser consciente que a los 200 o 300 ms se procesa una palabra o cómo dicha palabra
se integra en el contexto previo. Esto significa que cogiendo estos momentos temporales tan
tempranos se hace difícil estudiar el pensamiento en sí que suele tardar más tiempo. Además, los
componentes más estudiados y que sabemos con qué tipo de función cognitiva se relacionan suelen
ser tempranos, antes de los 600 ms, lo que complica su uso para el estudio del pensamiento. Ahora
bien, esto no significa que no podamos usar la electroencefalografía para el estudio del
pensamiento.

XOSÉ VALES. CURSO 2019/2020 17


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

4.3. Red cerebral del pensamiento


Krawczyk, McClelland y Donovan (2011) proponen una tarea de analogías de cuatro términos.

Una analogía se presenta como una serie ordenada de cuatro términos en la que la relación que se
establece entre el primer par de términos es análoga a la del segundo par de términos (A:B :: C:D).
P. ej., estos autores presentaron dos objetos relacionados como es el caso de una radio y una oreja
(escuchamos la radio a través de la oreja). Seguidamente aparecía otro objeto (una televisión) y los
sujetos tenían que inferir el cuarto objeto basándose en la relación previa. El razonamiento sería “la
radio es a la oreja como la televisión es a” y de forma general, “A es a B como C es a D”. Por último,
se presentaba el cuarto objeto (un ojo) y la tarea era indicar si cumplía o no la relación previa. En
este ejemplo se respondería afirmativamente porque la radio se escucha (oreja) y la televisión se ve
(ojo). Esta condición experimental se comparaba con dos condiciones de control donde los
participantes tenían que señalar si la relación entre el tercer y el cuarto objeto era semántica (pino-
piña) o perceptiva (anzuelo-bastón) con independencia de la relación entre los dos primeros objetos.
Resultados Rmf:
• Activación de corteza rostro-lateral en tarea de analogías, perceptiva y semántica, sin
diferencias con la tarea de control perceptiva y semantica.
• Indica que la corteza prefrontal rostrolateral se relaciona con el proceso de abstracción, algo
que ocurre en las 3 condiciones.

XOSÉ VALES. CURSO 2019/2020 18


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

• Se activó el giro frontal inferior y la corteza


prefrontal dorsolateral, los cuales sí mostraron
diferencias en la condición de control perceptiva
comparada con las otras dos condiciones. El giro
frontal inferior se ha relacionado con la memoria
semántica, mientras que la corteza prefrontal
dorsolateral con la memoria de trabajo, ambas
funciones son más demandadas tanto en la tarea
de analogías como en la tarea de control
semántica, de ahí su mayor activación en dichas
áreas. “El giro frontal inferior es lo mismo que la
corteza prefrontal ventrolateral, se relaciona con la
memoria semántica. El giro frontal ventromedial se relaciona con la analogía semántica”. ED

Wendelken, Chung y Bunge (2012), en otra tarea de razonamiento analógico, distinguieron entre
analogías semánticas y analogías visoespaciales.

Tarea consistía en responder a las preguntas de primer orden y de segundo orden:


Analogía semántica:
• Preguntas de primer orden: similitud entre dos objetos (barco y cisne) en una dimensión
como la localización (mar o tierra) o la categoría (animal o vehículo).
• Preguntas de segundo orden: similitud entre pares de objetos de la parte superior e inferior.

Analogía visoespacial:
• Preguntas de primer orden: similitud entre figuras señaladas, forma de la figura, líneas curvas
o rectas.
• Pregunta de segundo orden: ¿A es a B como C es a D en dirección y forma?

Los resultados conductuales mostraron que las preguntas de segundo orden eran más difíciles que
las de primer orden en términos de aciertos y tiempo de reacción. Además, la analogía semántica

XOSÉ VALES. CURSO 2019/2020 19


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

era más difícil que la visoespacial. Esto podría deberse a que los participantes necesitaban acudir a
la memoria (conocimiento) para responder sobre la categoría (vehículo o animal) y localización (mar
o tierra), en cambio, para la analogía visoespacial la respuesta sobre la forma y la dirección de las
figuras era más perceptiva. Los resultados de la resonancia magnética funcional encontraron la
activación de la corteza prefrontal rostrolateral izquierda para ambos tipos de analogías. El lóbulo
parietal posterior se activaba en las analogías visoespaciales, relacionado con la cognición espacial,
mientras que se activaba la corteza prefrontal ventromedial en las analogías semánticas.

Knowlton, Morrison, Hummel y Holyoak (2012), presentaron una teoría computacional de las
principales áreas del cerebro relacionadas con razonamiento analógico. Distinguieron dos redes
cerebrales relacionadas con la analogía visoespacial y semántica.

Relacionadas con la analogía visoespacial:


• Conexión corteza prefrontal dorsolateral
(CPFDL), a través de sus conexiones con el
lóbulo parietal, precunio (PC) y unión temporo-
parietal (UTP) a través del fascículo
longitudinal superior (FLS).

Relacionadas con la analogía semántica:


• Mayor activación en Corteza prefrontal
rostrolateral (CPFRL).
• Corteza prefrontal ventrolateral (CPFVL) se
conecta a través del fascículo uncinado (FU)
con el lóbulo temporal anterior (LTA,
relacionado con memoria semántica) y el
lóbulo temporal medial (LTM, relacionado con
la memoria episódica) incluidos hipocampo y
corteza entorrinal.
Krawczyk (2012) resaltó, en su revisión de artículos sobre razonamiento analógico, áreas similares
al estudio previo:
• La corteza cerebral prefrontal es clave en la selección de atención y memoria de trabajo.
• La corteza prefrontal rostrolateral izquierda se relaciona con abstracción (analogía y
búsqueda de similitudes).
• La corteza prefrontal dorsolateral bilateral se relaciona con la memoria de trabajo y el control
inhibitorio de la información irrelevante (función que comparte con el giro frontal inferior
izquierdo, que a su vez tiene función en la memoria semántica, igual que el lóbulo temporal).
• En la analogía visoespacial, se activa el lóbulo occipito-parietal que se conecta con la corteza
prefrontal dorsolateral permitiendo procesamiento de arriba-abajo y viceversa.
• Encontraron resultados similares en un metaanálisis de 27 estudios sobre razonamiento
analógico.

XOSÉ VALES. CURSO 2019/2020 20


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Tik y cols. (2018), estudiaron la red de solución de


problemas en tareas de insight3 o comprensión súbita que
hace referencia al paso de un estado inicial vago y confuso
a otro estado en el que se obtiene una comprensión de la
naturaleza del problema y su posible solución.

Presentaron tres palabras, back, wall y paper y


participantes debían formar palabras compuestas con ellas
(paperback, paperclip, wallpaper). Cuando la averiguaban,
presionaban un botón y se registraba el momento del
insight.

Resultados Rmf:
• Alta conectividad en problemas resueltos con alto insight en:
o El núcleo accumbens, un área relacionada con el refuerzo o recompensa pero también
con la integración y comunicación de información cortical y subcortical.
o El área tegmental ventral relacionada con el sistema dopaminérgico, asociado a su vez
con el sistema de recompensa.
o El hipocampo relacionado con la memoria.
o La corteza prefrontal dorsolateral relacionada con la memoria de trabajo.

La red de insight utiliza la memoria de trabajo para la resolución, la memoria a largo plazo para la
búsqueda de la palabra y que además encontrar la palabra nos produce satisfacción (recompensa).
Resulta que utilizaron la misma tarea anterior pero esta vez medida con la EEG para conocer la
conexión de estas áreas del insight a través de los ritmos o frecuencias de las neuronas cuando se
comunican (recordad que el EEG
pertenece a las técnicas
Neurofisiológicas, que estas miden
directamente las neuronas y que
tienen muy buena resolución
temporal, de ahí que midan el
mismo momento en que las
neuronas realizan las sinapsis).
Encontraron actividad Gamma (40-
48Hz) en la región parieto-
occipital, relacionada con la
atención, seguidamente y en la
misma área, actividad Theta (4-
8Hz), relacionada con la memoria

3 Insight es una palabra utilizada en Psicología que al español se podría traducir literalmente como “visión interna”, pero que sería más
conveniente traducir como “percepción” o “entendimiento”. El insight le permite a la persona captar, internalizar o comprender una verdad
revelada sobre sí misma. Suele hacerse consciente repentina e inesperadamente, aunque generalmente es fruto de un trabajo profundo,
simbólico, o mediante el empleo de diversas técnicas afines.

XOSÉ VALES. CURSO 2019/2020 21


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

episódica. ¿Esto traducido que nos dice? Pues que personas primero atienden al problema y después
echan mano de la memoria para resolverlo. Lo que nos interesa de este estudio es que la actividad
Theta no se asocia sólo con dormir (algo que se ha comentado en el cuadro 9.3 y que puede inducir
error), también influye en la memoria y codificación de estímulos que serán recordados
posteriormente.

5. BASES NEUROANATÓMICAS DE LAS TEORÍAS DE RAZONAMIENTO


Principales teorías de razonamiento en la actualidad:
• Teoría de las reglas. Postula que el razonamiento se basa en las reglas de la lógica, y predice
la activación del hemisferio izquierdo, relacionado con el lenguaje.
• Teoría de los modelos mentales. Las personas utilizan modelos mentales (S1, S2) que son
representaciones visoespaciales no verbales, predice por tanto activación del hemisferio
derecho.

Knauff (2009), (modelos mentales), estudió si había un sustrato cerebral que se pudiera relacionar
con las etapas de los modelos mentales. Para ello, presento silogismos transitivos como:
A está a la izquierda de B.
B está a la izquierda de C.
A está a la izquierda de C.

Observo lo siguiente:
• La lectura de la primera premisa “A está a la izquierda de B” activó el lóbulo occipito-
temporal bilateral. Sujeto crea una imagen mental de dos objetos basándose en su
conocimiento en lenguaje y conocimiento almacenado en la memoria. Es la etapa que Knauff
llama “construcción de una imagen mental”.
• La lectura de la segunda premisa “B está a la izquierda de C” activó la corteza prefrontal
anterior. Participantes debían integrar el tercer elemento (C) dentro de los dos primeros (A
y B) y enunciar una conclusión tentativa. De ahí que la segunda etapa sea “transformación de
una imagen a un modelo”.
• La lectura de la tercera premisa “A está a la izquierda de C” activó la corteza prefrontal
dorsolateral (memoria de trabajo) y el lóbulo parietal posterior (relaciones espaciales). Al
parecer en este momento cesaba la actividad del lóbulo occipital, indicaría que las
representaciones visuales no eran necesarias en esta etapa (hay evidencias que sugieren lo
contrario, que las representaciones visuales facilitan el procesamiento cognitivo y
específicamente el razonamiento transitivo). En esta etapa, que Knauff denomina
“procesamiento de modelos mentales”, los sujetos buscan modelos mentales alternativos de
las premisas para falsar la conclusión tentativa mediante la búsqueda de contraejemplos. Si
no los encuentran > conclusión válida. Si los encuentran > regreso a la segunda etapa.
Muchos estudios han destacado que las representaciones visuales facilitan el procesamiento
cognitivo general y específicamente el razonamiento transitivo pero pocos han señalado que las
representaciones visuales también pudieran interferir o enlentecer el razonamiento

XOSÉ VALES. CURSO 2019/2020 22


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Knauff, Fangmeier, Ruff y Johnson-Laird (2003) estudiaron el papel de la información visual en la


resolución de silogismos transitivos de diferente contenido, donde los participantes tenían que
responder si la conclusión se seguía de las premisas.
Contenido visoespacial: El gato está arriba del perro; el perro está arriba del caballo.
Contenido Visual: El gato está más limpio que el perro; el perro está más sucio que el
caballo.
Contenido espacial: El gato vive más al norte que el perro; el perro vive más al sur que el
caballo.
Contenido control: El gato es mejor que el perro; el perro es peor que el caballo.

Los participantes tenían que indicar si la conclusión sigue de las premisas por ejemplo, “¿es el gato
mejor que el caballo?”. Los resultados conductuales (tiempo de reacción y número de errores)
mostraron que los participantes cometían más errores y eran más lentos en la condición con
contenido visual. Este enlentecimiento y la peor ejecución no se observa en personas ciegas de
nacimiento.

Resultados de la RMf indican que se activaron para los 4 tipos de contenido el giro temporal medial
izquierdo, relacionado con la memoria, y el lóbulo parietal derecho relacionado con el
razonamiento. Los autores concluyeron que la estructura principal del razonamiento era el lóbulo
parietal. La representación visual no explica el razonamiento.

XOSÉ VALES. CURSO 2019/2020 23


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Knauff (2013) defiende que el razonamiento sería más espacial que visual dado que el lóbulo parietal
bilateral se activa en el razonamiento mientras que el lóbulo occipital lo hace exclusivamente
cuando el contenido es visual.

Nuevas evidencias con la técnica de estimulación magnética


transcraneal han corroborado la hipótesis de Knauff,
corroboran que el razonamiento empeora si se estimula el
lóbulo parietal. Hamburger y cols. (2018) presentaron
silogismos transitivos con contenido visual y no visual mientras
se aplicó la estimulación en la corteza visual primaria, que se
relaciona con el procesamiento de la información visual (grupo
experimental) o en el vértex (grupo control), que no tiene
ninguna relación con el procesamiento visual (véase la Figura
9.12).
Los estudios analizados hasta ahora apoyan una
correspondencia entre la teoría de los modelos mentales y el
sustrato neural, pero una revisión más amplia de la literatura
presenta resultados dispares, que no permiten corroborar una teoría frente a la otra. Vendetti,
Johnson, Lemos y Bunge (2015) presentaron también silogismos transitivos mostrando figuras
geométricas a tiempo real, obtuvieron mejores resultados para el hemisferio izquierdo, indicando
así su mayor contribución en el razonamiento transitivo. Ese hallazgo corrobora la hipótesis de la
teoría de reglas, que el razonamiento se basa en reglas sintácticas relacionadas con el hemisferio
izquierdo.

Noveck, Goel y Smith (2004) querían estudiar si el sustrato neural que se activa cuando se resuelve
un condicional se asocia a la teoría de los modelos mentales o a la teoría de reglas. Para tal fin, los
autores presentaron condicionales (por ej., si hay un cuadrado negro, entonces hay un círculo
amarillo) y examinaron el modus ponens:
“Si hay un cuadrado negro, entonces hay un círculo amarillo”
“Hay un cuadrado negro”.
“Hay un círculo amarillo”.

Y el modus tollens:
“Si hay un cuadrado negro, entonces hay un círculo amarillo”.
“No hay un círculo amarillo”.
“No hay un cuadrado negro”.

Los participantes tenían que indicar si el tercer enunciado se seguía o no de las premisas.
Resultados:
• Activación lóbulo frontoparietal izquierdo para ambos tipos de inferencia. En consonancia
con la teoría de reglas.
• Activación de la corteza prefrontal derecha en el modus tollens (tiene sentido, recordemos
que esta área se relaciona con la detección de conflictos).

XOSÉ VALES. CURSO 2019/2020 24


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

• Pudiera ser que la activación de la corteza prefrontal derecha tuviera también que ver con
una sobrecarga en la memoria de trabajo.

Knauff, Mulack, Kassubek, Salih y Greenlee (2002) también examinaron el modus ponens y el modus
tollens usando condicionales. Por ejemplo:
Si el hombre está enamorado, entonces le gusta la pizza.
El hombre está enamorado.
Se sigue que ¿el hombre le gusta la pizza?

Los participantes tenían que indicar si el tercer enunciado se seguía o no de las premisas.
Resultados:
• Activación bilateral en el lóbulo parietal y la corteza visual de asociación, datos que muestran
que el razonamiento es espacial y corroborando la dichosa teoría de los modelos mentales.
• No se activó la corteza visual primaria, mostrando nuevamente que no habría implicación de
las representaciones visuales en el razonamiento.
• Activación de la corteza prefrontal bilateral. Según los autores, la información se procesa en
el lóbulo parieto-occipital y se mantiene en la corteza prefrontal derecha (la de detección de
conflictos, que también se asocia a la memoria de trabajo como hemos visto en el estudio
anterior).

Prado, Chadha y Booth (2011) seleccionaron 28 estudios de neuroimagen sobre razonamiento


publicados entre 1997 y 2010 y analizaron las áreas que se activaron en más estudios. En este
metaanálisis los autores encontraron que el área que mayoritariamente se activaba en estos
estudios seleccionados era el lóbulo frontoparietal izquierdo. Este hallazgo corrobora la teoría de
reglas (Braine y O’Brien, 1998; Rips, 1994) por la dominancia del hemisferio izquierdo en el
razonamiento, los autores también señalaron que los resultados son diferentes según el tipo de
razonamiento.

En el Razonamiento Condicional:
“Si Hay una A, entonces hay una B”
“Hay una A”
“Hay una B”

• Se activó el giro frontal medial, relacionado con


el mantenimiento de reglas abstractas en
memoria y hubo dominancia de hemisferio
izquierdo, ambas en concordancia con la teoría
de reglas.
• Activación del giro precentral izquierdo.
• Activación del lóbulo parietal posterior
izquierdo relacionado con representaciones
visoespaciales, dando la razón a la teoría de los
modelos.

XOSÉ VALES. CURSO 2019/2020 25


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

En el Razonamiento Silogístico Categórico:


“Todos los A son B”
“Todos los B son C”
“Todos los A son C”
• Activación giro frontal inferior izquierdo y
ganglios basales izquierdos.
• Corroboraría la teoría de reglas al depender este
tipo de razonamiento del hemisferio izquierdo.
En el Razonamiento Silogístico Transitivo:
“A está a la izquierda de B”
“B está a la izquierda de C”
“A está a la izquierda de C”
• Activación giro frontal medial bilateral y lóbulo parietal posterior bilateral.
• Dominancia del hemisferio derecho y lóbulo parietal, asociado a cognición espacial.
Wendelken (2015) se preguntaba si el razonamiento es la suma de los procesos más básicos
(procesos analíticos, atención espacial, matemáticas, memoria de trabajo, memoria a largo plazo,
lenguaje) o si es un proceso independiente. Para averiguarlo, realizó otro metaanálisis dirigido a
encontrar la relación del lóbulo parietal posterior en razonamiento. Escogió diferentes estudios cuyo
denominador común era la activación de esta área.
Resultados:
• Mayor activación del hemisferio izquierdo en tareas de razonamiento, en especial en
fonología.
• Hemisferio derecho se activaba en tareas de atención y capacidad visoespacial.
• Se activaban ambos hemisferios en tareas de memoria de trabajo.
• Mayor actividad en estructura media y posterior del lóbulo parietal frente a la anterior para
tareas de razonamiento.
• Mayor actividad en corteza parietal posterior (relacionada con razonamiento) en cálculo
matemático. Menor actividad en atención, capacidad visoespacial, fonología y memoria de
trabajo.

XOSÉ VALES. CURSO 2019/2020 26


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Wendelken concluyo que el lóbulo intraparietal es un área exclusiva del razonamiento (esto es
porque el autor relaciona el razonamiento a las capacidades matemáticas), y por eso la teoría que
explica mejor el razonamiento sería La Teoría de la Probabilidad, que defiende que el razonamiento
es probabilístico y siempre basado en la incertidumbre.

6. BASES NEUROANATÓMICAS DEL PENSAMIENTO Y LA EMOCIÓN


Clásicamente, la emoción y la razón se han mostrado enfrentadas, pero la literatura parece indicar
que la emoción podría mejorar el pensamiento, al menos en algunos casos.

Bechara, Damasio y Damasio (2000) presentaron la tarea de Iowa que consistía en mostrar en el
ordenador cuatro cartas y los participantes tenían que elegir una. Seguidamente se indicaba la
ganancia o la pérdida de la carta elegida. Las cartas A y B tenían ganancias y pérdidas muy altas
comparadas con las cartas C y D. Los participantes eran pacientes que tenían una lesión en la corteza
prefrontal ventromedial. Estos pacientes comenzaron eligiendo las cartas A y B igual que el grupo
control, que no tenía ninguna lesión. Con el transcurso del juego, los participantes del grupo control
se daban cuenta que eran mejores las cartas C y D pues, aunque ganaban menos, también perdían
menos y a largo plazo se beneficiaban; en cambio los pacientes no cambiaron sus respuestas a lo
largo del experimento. Según los autores estas elecciones se daban porque pacientes se centraban
en ganancias inmediatas y por su insensibilidad a los castigos (pérdidas), al ser incapaces de sentir
emociones negativas dada su lesión.

Por otro lado, desde la teoría de la hiperemoción se propone que una emoción puede promover la
atención de todas las posibilidades de un argumento lo que mejoraría el razonamiento. El
razonamiento reforzaría la emoción provocando un nuevo hilo de pensamiento y así sucesivamente.
Emoción y razón se influirían mutuamente.

Gangemi, Mancini y Johnson-Laird (2006) presentan silogismos con contenido neutro y con
contenido depresivo, como:
“Cuando pienso en el futuro, me siento triste”
“Cuando me siento triste, soy muy pesimista”
“Cuando pienso en el futuro, soy muy pesimista”

Los participantes tenían que indicar si el tercer enunciado se seguía o no de las premisas, es decir,
si era válido o inválido. Resultados:
• Las personas con depresión tenían más respuestas correctas en silogismos con contenido
depresivo.
• Se replicó experimento con personas con ansiedad y se obtuvieron resultados similares.
Razonaban mejor cuando el contenido era congruente con sus preocupaciones

Estas evidencias no deben ser tomadas como mecanismo general. Parece que la emoción mejora el
razonamiento cuando el contenido es congruente con aspectos emocionales que evoca. Numerosos
estudios confirman esta hipótesis.

XOSÉ VALES. CURSO 2019/2020 27


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

6.1. Bases neuroanatómicas de la Emoción en el Razonamiento


Goel y Dolan (2003) se plantearon estudiar el efecto del contenido emocional en el silogismo. Para
ello, presentaron silogismos con contenido emocional:
“Algunas guerras no son injustificadas”
“Todas las guerras suponen asesinatos a personas”
“Algunos asesinatos a personas no son injustificados”

Y silogismos con contenido neutro:


“Algunos canadienses no son niños”
“Todos los canadienses son personas”
“Algunas personas no son niños”
Los participantes tenían que indicar si el tercer enunciado se seguía o no de las premisas, es decir,
si era válido o inválido.

Resultados conductuales (medidos en TR y aciertos):


• Mejores resultados para contenido emocional que para neutro.

Resultados RMf:
• Activación de la corteza prefrontal
dorsolateral izquierda (relacionada con
memoria de trabajo), para silogismos con
contenido neutro
• Activación de corteza prefrontal
ventromedial para silogismos con contenido
emocional. Esta área está conectada a las
áreas subcorticales relacionadas con la
emoción, como la amígdala.

En otro estudio, Smith, Balkwill, Vartanian y Goel


(2015) presentaron 80 silogismos con contenido
neutro de forma auditiva. 40 se presentaron en tono
neutro, 20 en tono triste y 20 en tono de ira.

Resultados:
• Se observaron mejores resultados en la
condición ira
• Activación del giro frontal superior derecho,
asociado a la atención selectiva.
• Podría indicarnos que la ira aumenta la
atención y, por tanto, mejoraría la ejecución
del razonamiento.

XOSÉ VALES. CURSO 2019/2020 28


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Blanchette, Gavigan y Johnson (2014) señalan que las


emociones que afectan al razonamiento son aquellas
que son relevantes en relación con el contenido, es
decir, cuando la emoción y el contenido son
semánticamente similares.
Presentaron un condicional (p. ej., si Sally tiene
hambre, entonces comerá) seguido de interferencias
como:
Modus Ponens: Sally tiene hambre, entonces está
comiendo.
Modus Tollens: Sally no está comiendo, entonces no
tiene hambre.
Negación del Antecedente: Sally no tiene hambre,
entonces no está comiendo.
Afirmación del Consecuente: Sally está comiendo,
entonces tiene hambre.

Al mismo tiempo, presentaban también imágenes


relevantes para el contenido (una hamburguesa –
neutra- o una persona con anorexia – emocional-) o
irrelevantes (una persona toxicómana –emocional- y
dos delfines -neutra-).

Resultados:
• Respuestas correctas disminuían y eran más lentas ante imágenes irrelevantes emocionales
(toxicómano) que ante imágenes irrelevantes neutras (dos delfines).
• Hallazgo indicativo de que el procesamiento de emociones requiere mayor atención y por
tanto, mayor tiempo de procesamiento.
• Cuando imágenes eran congruentes con el contenido, no había diferencias en la ejecución. A
favor de la hipótesis de que cuando la emoción es relevante para el contenido, mejora el
razonamiento.
• Se midió también la conductancia de la piel y hubo mayor arousal en la condición irrelevante
emocional.
• Autores concluyen que la relevancia modula el papel de la emoción en el razonamiento.

La emoción perjudica el razonamiento puesto que los estímulos emocionales requieren de mayor
atención y procesamiento. Ahora bien, cuando las emociones son relevantes para el contenido
mejoran su procesamiento. En palabras de los autores, la relevancia es la que modula el papel de la
emoción en el razonamiento.

6.2. Bases Neuroanatómicas de la Emoción en la Toma de Decisiones


Ponemos el foco en las emociones secundarias más complejas, como son los valores morales y el
sentido de la justicia, las cuales parecen interferir en las decisiones racionales.

XOSÉ VALES. CURSO 2019/2020 29


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Greene, Sommerville, Nystrom, Darley y Cohen (2001) presentaron las dos versiones del problema
conocido del tren:
Versión A: Impersonal.
“Un tren se acerca a gran velocidad por la vía y está fuera de control. A 100 m se
encuentran 5 personas. La única posibilidad de que vivan es que tú pulses un botón
para cambiar la dirección del tren y que salga por una vía donde se encuentra una
única persona. ¿Pulsas el botón?”

Versión B: Personal.
“Hay un tren que se acerca a gran velocidad por una vía y está fuera de control. A
cien metros de esa misma vía se encuentran cinco personas. La única posibilidad de
que vivan es que tú tires a un hombre corpulento por un puente y pare el tren.
¿Tirarías al hombre?”

Resultados:
• La mayoría respondían afirmativamente a la versión A y se niegan en la B.
• Las personas muestran racionalidad en la versión A.
• En la versión B mostrarían una actitud moral.
• En la versión A se activaban el giro frontal medio derecho y lóbulo parietal bilateral, ambas
áreas relacionadas con la memoria de trabajo.
• En la versión B se activaban el giro frontal medial, la corteza cingulada posterior y el giro
angular bilateral, áreas relacionadas con la emoción, lo que indicaría que sería la emoción la
que inclinaría a una decisión más moral que racional.

Otro problema conocido dentro de la toma de decisiones es el juego del ultimátum. Este juego
consiste en que un jugador A tiene que repartir una cantidad de dinero a otro jugador B. Si el jugador

XOSÉ VALES. CURSO 2019/2020 30


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

B rechaza la oferta, ningún jugador gana nada y si la acepta se procede a hacer el reparto.
Generalmente las personas aceptan las propuestas que son justas, es decir, aquellas donde se
reparte el dinero a partes iguales. Esta respuesta es irracional porque si uno no tiene nada y alguien
con 10 euros le da 1 euro tiene una situación de ganancia. Sin embargo, las personas prefieren no
ganar nada a aceptar una oferta injusta donde el que reparte se queda con más dinero.

Sanfey, Rilling, Aronson, Nystrom y Cohen (2003) presentaron este juego y comprobaron que:

• Cuando a las personas se les presenta una situación justa, 10 euros a repartir 5 y 5, aceptaban
la oferta, mientras que cuando era injusta (Jugador A 1 o 2 €, jugador B 8 o 9 €), rechazaban
la oferta.
• Los autores también manipularon cuando el jugador A era un ordenador o una persona y
observaron que los participantes aceptaban más las ofertas cuando el jugador A era un
ordenador que cuando era una persona. Parece que las personas entendemos que una
situación es más injusta si la ofrece otra persona que cuando la ofrece un ordenador.
Resultados Rmf:
• Cuando se comparaban las situaciones injustas con
las justas se activaba más la corteza prefrontal
dorsolateral, la corteza cingulada anterior y la ínsula
anterior bilateral.
• La corteza prefrontal dorsolateral (relacionada con la
memoria de trabajo) se mantenía muy activa, tanto
cuando se aceptaba como cuando se rechazaba la
oferta lo que indicaría que su activación se
relacionaba con la propia carga cognitiva de la tarea.
• La corteza cingulada anterior se activa con la
detección de conflictos igual que la corteza
prefrontal derecha.
• La activación de la ínsula anterior se asocia con emociones negativas, destacando el asco y la
ira.

Koenings y Tranel (2007) presentaron el juego del ultimátum a pacientes con la corteza prefrontal
ventromedial afectada y encontraron que rechazaban más ofertas injustas que un grupo control que
no tenía la lesión. Esto podría estar relacionado con la falta de control de impulsos, así como su
incapacidad para regular sus emociones.

Lempert y Phelps (2016) encontraron que las personas cuando sienten tristeza y asco rechazan más
ofertas injustas comparado con un grupo control. Estos resultados fueron corroborados en el
estudio de Van´t Wount, Kahn, Sanfey y Aleman (2006) que mostraron que la respuesta de la
conductancia de la piel era mayor para las ofertas injustas, así de esta forma discriminaba entre las
respuestas de aceptación y rechazo. Un caso contrario lo vemos cuando se presenta este juego a
chimpancés (Jensen, Call y Tomasello, 2007) y niños (Sally y Hill, 2006) que tienden a aceptar más
ofertas injustas. Podría ser debido a que no son conscientes de que la oferta es injusta.

XOSÉ VALES. CURSO 2019/2020 31


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Otro caso diferente es el que presenta De Neys, Novitskiy, Geeraerts, Ramautar y Wagemans (2011)
donde más que una evaluación moral, los autores indican que sería la memoria de trabajo,
concretamente el mayor control cognitivo, lo que llevaría a aceptar más ofertas injustas.
Presentaron el juego del ultimátum y seguidamente el Test de Reflexión Cognitiva (CRT), tres
problemas que intuitivamente tienen respuesta que hay que inhibir, y reflexionar para responder
correctamente:
1. Pelota y bate de beisbol cuestan 1,10. El bate cuesta 1 euro más que la pelota.
¿Cuánto cuesta la pelota? (respuesta correcta, 5, respuesta habitual 10).
2. Si 5 máquinas tardan 5 minutos en realizar 5 teclados, ¿cuánto tardarán 100
máquinas en hacer 100 teclados? (respuesta correcta, 5, respuesta habitual
100).
3. En los alrededores de un lago hay flores. Cada día aumenta el doble de la
superficie. En 48 días se completa toda la superficie, ¿cuántos días necesita para
cubrir la mitad? (respuesta correcta, 47, respuesta habitual 24).

Los resultados mostraron correlación positiva entre mayor aceptación de ofertas injustas y mayor
puntuación en Test de Reflexión Cognitiva (CRT). Esto indicaría que aquellos que aceptaban más
ofertas injustas tenían mayor control cognitivo, es decir, eran más reflexivos.

En el segundo experimento de este estudio


seleccionaron 9 personas que habían aceptado más
ofertas injustas, y por otro lado, los 9 que habían
rechazado más ofertas injustas. Ambos grupos
realizaron la tarea clásica de inhibición GO/NO GO, 600
ensayos en los que aparece la letra M o W en el centro
de la pantalla. En el primer caso, los sujetos debían
presionar una tecla, mientras que en el segundo caso no
tenían que hacer nada. En el 80% de los casos aparece
una M, las personas tendían a responder, de ahí que en
el 20% de los ensayos en los que aparecía la W tenían
que inhibir su respuesta.

Los resultados sólo mostraron diferencias entre ambos


grupos en la condición de NO-GO, siendo mejores
aquellos que habían aceptado más ofertas injustas, lo
que indicaría nuevamente que tienen mayor capacidad
de inhibición y control cognitivo. Además, este grupo mostró menor N200 en la condición de NO-
GO comparado con el grupo que había rechazado más ofertas injustas. Esto indicaría la mayor
dificultad que tenía este segundo grupo para inhibir su respuesta comparado con el primer grupo.

En un tercer experimento los autores presentaron el juego del ultimátum con otra tarea que
consistía en que los participantes tenían que recordar la posición de una serie de puntos distribuidos
en el monitor de un ordenador.

XOSÉ VALES. CURSO 2019/2020 32


CAPÍTULO 9. NEUROCIENCIA DEL PENSAMIENTO

Los resultados mostraron que las personas aceptaban menos ofertas injustas (eran menos
racionales). Parece, que aceptar ofertas injustas se relaciona con el control cognitivo, puesto que al
aumentarlo como consecuencia de otra tarea las personas aceptaban menos ofertas injustas.

Por último, Van´t Wount, Chang y Sanfey (2010) también presentaron el juego del ultimátum a 3
grupos de participantes:
• A uno se le dijo que tenía que regular su emoción a través de la re-evaluación.
• A otro, suprimir la emoción.
• Un grupo control no se le dio ninguna instrucción.

Los resultados mostraron que los participantes que tenían que re-evaluar sus emociones aceptaban
más ofertas injustas, es decir, tenían más ganancias económicas. Además, cuando posteriormente
se les pedía que fueran ellos los que hicieran la propuesta del reparto de dinero, se encontró que
hacían ofertas más generosas que el resto de los grupos. La estrategia de supresión no mostraba
diferencias con el grupo control. La regulación emocional modificaba la emoción y en consecuencia,
la toma de decisiones. “La idea es que a mayor control cognitivo se aceptan más ofertas injustas,
pero si yo "utilizo el control cognitivo" para una segunda tarea, mi tarea principal va a empeorar.
Dicho de otro modo, si nosotros hacemos una tarea y tenemos X rendimiento, casi con toda
seguridad cuando nos ponen esa misma tarea con otra nueva, nuestro rendimiento va a ser peor
(menor de X). Cuando los autores presentan dos tareas necesitamos más control cognitivo, si para
hacer bien la segunda tarea "utilizamos el control cognitivo" digamos que utilizamos menos control
cognitivo para la primera tarea y de esta forma se ve perjudicada. De ahí que se concluya que el
control cognitivo es importante para la realización correcta de la primera tarea”. ED

Versión web Autoevaluación

XOSÉ VALES. CURSO 2019/2020 33

También podría gustarte