Está en la página 1de 264

1

Tema 2 Inducción del razonamiento

1. Introducción
El razonamiento es uno de los procesos cognitivos básicos por medio del cual utilizamos y aplicamos
el conocimiento. Si no hiciéramos inferencias tendríamos que depender de un conocimiento
específico y puntual para cada una de las situaciones a las que hiciéramos frente. Por ejemplo: un
compañero nos dice que su hijo de 8 años es más alto que su sobrino de nueve, pero más bajo que
su hija de siete. De ello podemos inferir: – su hijo e hija son más altos que su sobrino, – su hija de 7
años es la más alta de los tres, (inferencia deductiva) Puede ser válido o no. – su sobrino de nueve
años es el más bajo de los tres, – su sobrino es el mayor en edad, – sus hijos y su sobrino son primos,
– su sobrino es muy bajito, (ejemplo de inferencia inductiva) Es probable o no. – sus hijos son muy
altos. Podemos decir que el razonamiento permite “pasar de una información a otra”, dado que a
partir del conocimiento de uno o más resultados que se encuentren relacionados podemos derivar o
alcanzar una conclusión.
Siguiendo con el ejemplo podemos ver cómo de unos enunciados se deriva a la conclusión y como
en otros casos se ha ido más allá de lo expresado en los enunciados. Las investigaciones sobre el
razonamiento acudieron a la lógica en busca de un criterio para evaluar el curso de las inferencias e
identificar las propias leyes del razonamiento humano.
Las investigaciones psicológicas sobre el proceso de razonamiento han diseñado sus tareas
experimentales de acuerdo con la formalización y el concepto de validez del análisis lógico. Éstas
suelen comprender premisas y conclusiones que serán evaluadas por los sujetos con respecto a su
consecuencia lógica. Los enunciados a partir de los cuales razonamos son las premisas y el enunciado
que se deriva de los otros se denomina conclusión, formando el conjunto de éstos lo que
denominamos argumentos. Tenemos que tener claro que en el caso de la deducción hablamos de un
argumento válido o inválido y en la inducción el argumento es más o menos probable. En uno
deductivo las conclusiones se siguen necesariamente de las premisas mientras que en uno inductivo
las premisas sugieren o apoyan la conclusión.

2. Lógica y razonamiento
En el razonamiento deductivo se parte de unas premisas para alcanzar una conclusión que se siga
necesariamente de las mismas, mientras en el inductivo la conclusión está más o menos apoyada por
las premisas. El deductivo se ha descrito como un procedimiento dirigido “hacia abajo” en el sentido
de que a partir de lo general se llega a lo particular y el razonamiento inductivo como procesamiento
“hacia arriba” en el que se llega a lo general a partir de lo particular. Esta metáfora direccional en la
que el razonamiento asciende o desciende por una especie de “escalera teórica” ha sido empleada
por Platón, Aristóteles y en múltiples tratados de lógica.

Apuntes de M. Goretti González completados y modificados por Marina Uned


2

Skyrms indica que uno de los errores más extendidos es la diferenciación entre deducción e inducción
como aquellos argumentos que proceden de lo general a lo específico para el caso de la deducción y
de lo específico a lo general para el caso de la inducción. La diferencia no se determina por la
generalidad o particularidad de sus premisas y conclusiones sino por las definiciones de validez
deductiva y de fuerza inductiva.
Un argumento es válido sólo si es imposible que su conclusión sea falsa mientras que sus
premisas son verdaderas y que un argumento inductivo es fuerte sólo si es improbable que
su conclusión sea falsa cuando sus premisas son verdaderas.
El conjunto de inferencias, deductivas e inductivas, se define como la transición de uno o más
enunciados en la que las premisas aportan información para poder alcanzar una conclusión. Sin
embargo, las conclusiones deductivas son tautológicas y comprenden sólo la información que viene
expresada en las premisas mientras que las inductivas son probabilísticas, ya que van más allá de la
información contenida. En el razonamiento deductivo la verdad de las premisas garantiza la verdad
de las conclusiones, mientras que en el razonamiento inductivo las conclusiones son más o menos
probables dependiendo del grado en que se encuentren apoyadas por las premisas.

2.1. El razonamiento deductivo


El estudio de la deducción se centra en el análisis de los principios del razonamiento que son
independientes del contenido sobre el que se razona y que permiten alcanzar un razonamiento
formalmente válido.

Desde sus inicios en la filosofía griega, la lógica perseguía la identificación de unas leyes de
razonamiento que fueran universales y por ello se centró en el análisis de la forma y la estructura de
los argumentos. Desde Aristóteles, la deducción era el estudio de las conexiones entre proposiciones.
Las proposiciones son enunciados en los que se afirma o niega algo y en los que se establece una
relación entre sujeto y predicado. El análisis de la deducción se centraba en el establecimiento de
conexiones encadenadas de un silogismo o grupo de silogismos por medio de la cópula “es”. El
silogismo es un argumento que establece una nueva conexión entre las proposiciones a través de un
término medio que las relaciona: “Todos los A son B, Todos los B son C, luego Todos los A son C”. B
es el término medio que ha permitido la conexión.

Frege a finales de siglo XIX, considera que las proposiciones pueden tratarse como funciones
matemáticas, desarrollando un marco de análisis más potente y flexible que la silogística aristotélica.

Es a principios del siglo XX, cuando Whitehead y Russell, desarrollan el cálculo de predicados y
amplían el análisis de las proposiciones a otras formas relacionales que no eran la cópula “es”. Esta
lógica matemática emplea símbolos por analogía con las matemáticas, logrando así el cálculo con
notación simbólica y posibilitando la operación sin la contaminación de los contenidos. La deducción
se entiende como el proceso mediante el cual unos enunciados se derivan de otros de un modo
puramente formal y esta derivación se realiza por la aplicación de las reglas de deducción.

Apuntes de M. Goretti González completados y modificados por Marina Uned


3

De acuerdo con esta notación y utilizando tareas que ejemplifican argumentos con una estructura y
principios lógicos: las proposiciones se representan por letras (p,q,r,s) y los operadores (términos de
enlace) por unos símbolos que determinan la forma de una proposición lógica. La representación
simbólica de las proposiciones son variables y la representación de los operadores son constantes y
se corresponden con los términos “y”, “o”, “no”, “sí,... entonces” y “si... y solo si”.

Los términos de enlace u operadores conectan entre dos proposiciones excepto en el término “no”
que actúa sobre una. Si se ha de utilizar más de un operador lógico se utilizan paréntesis para indicar
el operador que domina. De no haber paréntesis el menos fuerte es la negación, seguido de la
conjunción y la disyunción que tienen la misma potencia y el condicional es el más fuerte.
→ > conjunción = disyunción > negación
Algunos ejemplos:
- “Si estoy enferma entonces estoy en la cama y veo la televisión”.
El condicional actúa como término de enlace entre proposición estoy enferma
(antecedente) y estoy en la cama y veo la televisión (consecuente). El consecuente
está formado por una conjunción.

P → (q Λ r)
- “Si estoy enferma entonces estoy en la cama y a la vez veo la televisión”.
Es una conjunción entre la proposición estoy enferma y entonces estoy en la cama y a
la vez veo la televisión. La primera conjunción está constituida por dos preposiciones
con el condicional como término de enlace.

(P → q ) Λ r
El paréntesis indica que la conjunción domina en esta agrupación.

Apuntes de M. Goretti González completados y modificados por Marina Uned


4

A continuación se presentan las reglas de inferencia que permiten pasar de una proposición a otra.
Las proposiciones formalizadas reciben el nombre de fórmulas lógicas y éstas de corresponden con
las premisas de un argumento. Las reglas de inferencia permiten dar el paso lógico que conduce de
las premisas a la conclusión. Un argumento válido se da cuando la conclusión es una consecuencia
lógica de las premisas gracias a la regla de inferencia.

Apuntes de M. Goretti González completados y modificados por Marina Uned


5

Ejemplo I
“Si sales a jugar, te pones las zapatillas de deporte. Si llevas las zapatillas de deporte, te pones el
chándal. Luego, si sales a jugar te pones el chándal”.
1a premisa: “Si sales a jugar, entonces te pones las zapatillas de deporte” se simboliza A  B
2a premisa “Si llevas las zapatillas de deporte, entonces te pones el chándal” se simboliza B  C
La conclusión “Si sales a jugar te pones el chándal” se simboliza como A  C
La deducción sería la siguiente:
(1) A  B P (1er paso Premisa)
(2) B  C P (2º paso Premisa)

(3) A  C SH 1,2 (3er paso silogismo hipotético)

Ejemplo II
“Si eres socio de un club de fútbol, no tienes que comprar las entradas para los partidos.
W¬O
Manuel va al partido del domingo y es socio del club de fútbol.
G^W
En consecuencia, no tiene que comprar la entrada”
¬O

Apuntes de M. Goretti González completados y modificados por Marina Uned


6

La deducción sería:
(1) W ¬O P
(2) G Λ W P
(3) W S 2 (simplificación)
(4) ¬ O PP 1,3
Los dos primeros pasos son las premisas y en el tercero se deduce W por la regla de simplificación en
el paso 2. El 4º paso, la conclusión, se deduce aplicando el modus ponens a los pasos 1 y 3.

Se puede saber si un razonamiento deductivo es válido cuando a partir de premisas que son
verdaderas se sigue una conclusión verdadera por la aplicación de las reglas de inferencia
anteriormente indicadas, pero este conjunto de reglas no agota el nº de inferencias válidas. Para
tratar cada caso de inferencia proposicional existe un método general que permite demostrar la
validez de un argumento. Se conoce como tablas básicas de verdad, método semántico o teorías de
modelos y es un método rápido y mecánico para comprobar la validez de un argumento. Se parte del
supuesto de que cualquier proposición sólo puede tener dos valores: V o F.

Se establecen todas las combinaciones posibles de los valores de verdad de las proposiciones
(premisas y conclusiones) y se busca alguna combinación en la que las premisas sean verdaderas y la
conclusión falsa. Si no la hay, el razonamiento válido se encontraría en la línea en la que las premisas
y la conclusión sean todas verdaderas.
Ejemplo de inferencia válida de modus tollendo tollens:
Las proposiciones son (p) y (q), las premisas p  q y ¬ q y la conclusión ¬p. Se
construye la tabla de verdad comenzando por asignar los valores a las proposiciones
del argumento: p y q siempre con dos valores de verdad (V o F). La tabla es 2 x 2 y se
corresponde con el nº de combinaciones posibles de los valores de verdad. El nº de
posibles combinaciones de los valores de verdad dependerá del nº de proposiciones
(n) siendo la regla 2n.
En el siguiente paso se determinan los valores de verdad para las premisas y la conclusión del
argumento. Por último, se buscan las líneas en las que pueda darse una conclusión falsa a partir de
premisas verdaderas para comprobar si el argumento no es válido. En cambio, si encontramos
conclusiones V a partir de premisas V, el argumento es válido.

Apuntes de M. Goretti González completados y modificados por Marina Uned


7

No hay ningún caso que siendo las premisas V se alcance una conclusión falsa y en la cuarta línea
encontramos el razonamiento válido.
Ejemplo de argumento inválido conocido como falacia de afirmar el consecuente:
La tercera línea indica que hay una combinación posible
en la que siendo verdaderas las premisas se puede
obtener una conclusión falsa. Por tanto este argumento
no es válido y es un error frecuente en el razonamiento
humano.

Falacia de negar el consecuente: si llueve entonces me quedo en casa. No llueve, luego no me quedo
en casa.
Hasta aquí la estructura lógica de las proposiciones, pero para examinar la forma lógica de la propia
proposición, se utiliza el cálculo de predicados que permite analizar la estructura interna
descomponiendo una proposición en términos y predicados. Un término es una expresión que
nombra un único objeto y el predicado es aquello que se dice de los términos. Se suelen utilizar las
letras F, G, H,... para predicados y letras x, y, z para los términos, colocándose el predicado delante
del término que va entre paréntesis. “Jaime es un estudiante” Jaime es el término (x) y “es un
estudiante” es el predicado, simbolizándose como “F(x)”.
En el cálculo de predicados también se distingue entre términos generales o específicos. La
cuantificación de la generalidad puede ser universal o existencial. El cuantificador universal se
corresponde con todo, cualquiera, para cada x, cada x, para todo x y el cuantificador existencial con
algún, algunos, algunas (existe al menos un objeto al que se le puede aplicar el predicado).

Apuntes de M. Goretti González completados y modificados por Marina Uned


8

La simbolización:
Para el cuantificador universal (A invertida) y para el existencial es la E invertida (Э).
Una vez formalizadas las proposiciones, el razonamiento en el cálculo de predicados consiste en
eliminar los cuantificadores para aplicar las reglas de inferencia sobre las proposiciones y volver a
introducir los cuantificadores cuando sean necesarios. La regla de especificación universal permite
sustituir el cuantificador por cualquier término, dado que si la proposición es cierta para todo, lo es
para cualquier término específico.
Ejemplo: Todos los médicos son hombres prudentes. Luis es médico. Por tanto,
Luis es un hombre prudente.
Deducción:

2.2. El razonamiento inductivo


La validez de un argumento deductivo es cuestión de todo o nada; o es válido o no lo es. En la
inducción hablamos de fuerza del argumento y esto es una cuestión de grado. Este aspecto se
enmarca en el concepto de probabilidad que depende del apoyo empírico que aportan las premisas
para alcanzar la conclusión. Esto se ha planteado, desde su formulación, como “el problema de la
inducción” por David Hume. El problema de la inducción es que asume la regularidad de los
fenómenos observados con el fin de poder explicar hechos ya conocidos o intentar predecir hechos
aún por conocer. Este supuesto no llega a verificarse porque no existe garantía de que después de un
número x de observaciones la conclusión sea más precisa, puesto que se desconoce el tamaño del
universo de acontecimientos a observación.
Un argumento inductivo es fuerte cuando es improbable que su conclusión sea falsa si sus premisas
son verdaderas. La fuerza va a depender del grado de improbabilidad. Si las premisas son verdaderas
entonces es probable que la conclusión también lo sea. Y este grado de fuerza inductiva está
determinado por la relación de apoyo que se establece entre premisas y conclusiones. La probabilidad
de las premisas y conclusiones se conoce como probabilidad epistémica porque depende de nuestro
conocimiento y puede variar de una persona a otra y a lo largo del tiempo en la misma persona.
Existe el riesgo de alcanzar una conclusión falsa, pero ofrecen la enorme ventaja de permitir
descubrir y predecir nueva información en función de la información conocida.
La lógica inductiva se centra en el estudio de pruebas para medir la probabilidad inductiva de los
argumentos y estudia las reglas para construir argumentos inductivos fuertes.
Sin embargo, no existe acuerdo sobre la forma de medir la fuerza inductiva de un
argumento, ni aceptación consensuada de las reglas y ni siquiera una definición
precisa sobre la probabilidad inductiva.

Apuntes de M. Goretti González completados y modificados por Marina Uned


9

Otro problema es la justificación de la inducción. Este problema se centra en determinar por qué se
consideran válidos los juicios sobre casos futuros o desconocidos.
Una solución es mostrar que la validez del razonamiento inductivo se basa en la ley de
uniformidad de la naturaleza por la que se puede suponer que el futuro será
semejante al pasado. Pero la naturaleza es variable en algunos aspectos: a veces se
puede generalizar con muy pocas observaciones y otras veces muchas observaciones
no garantizan la generalización.
Francis Bacon rechazó la aplicación de un principio general y propuso unas tablas de
investigación en las que la inducción procedía por exclusión y desestimación. Esta
inducción por eliminación supone la proyección de nuestras experiencias en forma de
hipótesis experimentales.
Podemos comprobar que la inducción es una tarea mucho más compleja que la deducción.
Si se asume que la naturaleza es uniforme en algunos aspectos, entonces el problema
está en determinar cuáles son las regularidades que se pueden proyectar a situaciones
futuras.
Para poder identificar las regularidades que son proyectables hace falta determinar
cuáles son los aspectos de la naturaleza que se suponen son uniformes. Esta
encrucijada se conoce como “el nuevo acertijo de la inducción” y el problema de la
construcción de una lógica inductiva todavía no está resuelto.
El análisis de la causalidad y el cálculo de probabilidades constituyen dos avances hacia
el desarrollo de un sistema de lógica inductiva.
El análisis de las causas y de los efectos es un aspecto importante tanto del razonamiento científico
como del cotidiano. Si se conocen las causas se tiene control sobre los efectos, de forma que se
puede producir la causa para obtener el efecto deseado o se elimina la causa para prevenir el efecto
no deseado. David Hume propuso un conjunto de reglas para determinar la relación causal y estas
nociones fueron desarrolladas por John Stuart Mill.
Los métodos de Mill son procedimientos para determinar si una causa es suficiente o
es necesaria para producir un determinado efecto, siempre que se tenga información
sobre la presencia o la ausencia de otras causas y sobre la presencia o ausencia del
efecto en estas situaciones.
Las causas son las condiciones que producen un efecto y que pueden ser suficientes, necesarias o
suficientes y necesarias.
Ejemplo: La presencia de oxígeno es una condición necesaria para la combustión, pero
no es suficiente.
Si se quiere producir un efecto, hay que buscar las condiciones que son suficientes (el
oxígeno no serviría para producir el efecto de combustión).
Cuando se busca prevenir el efecto, entonces basta con identificar las condiciones
necesarias (si se quiere prevenir la combustión, se puede eliminar el oxígeno).

Apuntes de M. Goretti González completados y modificados por Marina Uned


10

Seis principios por los que se rigen las condiciones necesarias y suficientes (Skyrms):
1. Si A es una condición suficiente para B, entonces B es una condición necesaria para A.
Si una buena nota es condición suficiente para el aprendizaje, entonces el aprendizaje es condición
necesario para una buena nota.
Si alguien va conduciendo es condición suficiente para afirmar que tiene 18 años, entonces tener 18
años es una condición necesaria para conducir.
2. Si C es una condición necesaria para D, entonces D es una condición suficiente para C.
Si el haber oxígeno es condición necesaria para la combustión, entonces la combustión es condición
suficiente para decir que hay oxígeno.
3. Si A es una condición suficiente para B, entonces la ausencia de B es suficiente para la ausencia
de A.
Si una buena nota es suficiente para el aprendizaje, entonces la ausencia de aprendizaje es condición
suficiente para la ausencia de una buena nota.
Si hay combustión es suficiente para que haya oxígeno, entonces la ausencia de oxígeno es condición
suficiente para ausencia de combustión.
4. Si C es una condición necesaria para D, entonces la ausencia de D es condición necesaria para la
ausencia de C.
Si el oxígeno es condición necesaria para la combustión, entonces la ausencia de combustión es una
condición necesaria para la ausencia de oxígeno.
Si ser el más rápido en una carrera es condición necesaria para ganar una carrera, la ausencia de
ganar una carrera es condición necesaria para no ser el más rápido.
5. Si A es una condición suficiente para B, entonces la ausencia de A es una condición necesaria
para la ausencia de B.
Si una buena nota es condición suficiente para el aprendizaje, entonces la ausencia de una buena
nota es condición necesaria para la ausencia de aprendizaje.
Si cortarse es condición suficiente para sentir dolor, entonces la ausencia de herida es condición
necesaria para la ausencia de dolor.
6. Si C es una condición necesaria para D, entonces la ausencia de C es una condición suficiente
para la ausencia de D.
Si el oxígeno es condición necesaria para la combustión, entonces la ausencia de oxígeno es
condición suficiente para la ausencia de combustión.

Apuntes de M. Goretti González completados y modificados por Marina Uned


11

Los métodos de Mill son unos procedimientos para descubrir y comprobar las condiciones que son
suficientes y/o necesarias para la ocurrencia de un efecto. Mill propone cinco métodos para guiar la
búsqueda científica de las regularidades.
El procedimiento general consiste en clasificar en unas tablas las observaciones sobre
la presencia y ausencia de las supuestas condiciones para la ocurrencia de un fenómeno
con el fin de eliminar aquellas circunstancias que no varían regularmente con el
fenómeno observado.
La propiedad o efecto que se analiza se llama propiedad condicionada (E) y las
propiedades que son condiciones necesarias o suficientes de una propiedad
condicionada se llaman posibles propiedades condicionantes.
Los métodos consisten en la observación de un nº de ocurrencias en las que se encuentran ausentes
o presenten las condiciones que se supone pueden ser suficientes o necesarias para producir E.
El método directo de concordancia identifica las condiciones NECESARIAS y requiere la búsqueda de
la ocurrencia de la propiedad condicionada en un abanico de circunstancias.
Se requiere la construcción de una tabla en la que se recoge un número x de
ocurrencias en las que las propiedades condicionantes pueden estar presentes o
ausentes cuando se produce la propiedad condicionada.
Se reúne un nº variado de circunstancias diferentes en las que ocurre el fenómeno
(propiedad condicionada o E), para ir eliminando aquellas propiedades condicionantes
que se encuentren ausentes cuando el fenómeno se encuentre presente.
Así se identificará la propiedad condicionante que es condición necesaria del
fenómeno observado. El principio de eliminación enuncia que “cualquier propiedad
que se encuentre ausente cuando el efecto está presente no puede ser una condición
necesaria”.
Ejemplo: La propiedad condicionante C es la condición necesaria, dado que D se elimina en la
primera ocurrencia, la B en la segunda y la propiedad A se elimina en la tercera ocurrencia

Apuntes de M. Goretti González completados y modificados por Marina Uned


12

El método inverso de concordancia se utiliza para identificar las condiciones SUFICIENTES.


Se busca en número determinado de ocurrencias las propiedades condicionantes que se encuentran
AUSENTES cuando la propiedad condicionada también lo está.
Ahora se trata de ir eliminando aquellas propiedades condicionantes que se encuentren presentes
cuando el fenómeno está ausente.
El principio de eliminación es: “una propiedad que se encuentre presente cuando el efecto está
ausente no puede ser una condición suficiente”.
Ejemplo: la propiedad condicionante D es la condición SUFICIENTE, puesto que la A se ha eliminado
en primera ocurrencia, B en la segunda y C en la tercera.

El método de diferencia se utiliza para identificar las condiciones SUFICIENTES pero cuando las
propiedades condicionantes se encuentren PRESENTES en una ocurrencias determinada (una
ocurrencia particular señalada por *).
Ejemplo 1: la propiedad condicionante D es la condición suficiente.
Pero en el ejemplo 2, en la ocurrencia determinada * no se puede identificar una única condición
suficiente (en A, C y D son 3 P) y por tanto se procede a la observación de más ocurrencias de
acuerdo con el principio de eliminación del método inverso de concordancia. Requiere como mínimo
la observación de dos ocurrencias: una en la que el fenómeno investigado esté presente y otra en la
que falte. La propiedad B sólo se elimina en ocurrencia particular *, sin embargo en la 1 y según
método inverso de concordancia se elimina la propiedad A y en la ocurrencia 2 la D. De esta forma,
la C se identifica como condición suficiente.

Apuntes de M. Goretti González completados y modificados por Marina Uned


13

El método combinado identifica las condiciones tanto SUFICIENTES como NECESARIAS. Tenemos el
método directo para las necesarias y dos para las suficientes.
El doble Método de Concordancia combina el Directo y el Inverso de Concordancia.
El Método Conjunto combina el Método Directo y el de Diferencia.
Ejemplo: en la tabla siguiente se aprecia cómo la propiedad condicionante C es la condición tanto
SUFICIENTES como NECESARIA. En la ocurrencia 1 se han eliminado las propiedades B y D, en la
ocurrencia 2 la propiedad A, en la ocurrencia 3 las propiedades B y D y en la 4 la A.

El método conjunto La propiedad condicionante C es la condición NECESARIA y SUFICIENTE.


Ejemplo: en la ocurrencia particular se eliminan las propiedades B y D, y la propiedad A se elimina
tanto en la primera ocurrencia como en la segunda.

En todas sus variantes hay que tener en cuenta que sólo hay dos principios de eliminación:
1. una condición necesaria del efecto no puede estar ausente cuando el efecto está
presente, y
2. una condición suficiente del efecto no puede estar presente cuando el efecto está
ausente.

Apuntes de M. Goretti González completados y modificados por Marina Uned


14

El principio de eliminación
enuncia que “cualquier
Identifica las condiciones propiedad que se encuentre
Método directo de concordancia
NECESARIAS ausente cuando el efecto está
presente no puede ser una
condición necesaria”.
El principio de eliminación es:
“una propiedad que se
Método inverso de concordancia Identificar las condiciones encuentre presente cuando el
Se juega con el efecto ausente SUFICIENTES efecto está ausente no puede
ser una condición suficiente”.

Identificar las condiciones


Método de diferencia SUFICIENTES cuando
Lo hace estando presentes los propiedades condicionantes se
condicionantes encuentren PRESENTES en una
ocurrencias determinada *
Método combinado
El Doble
El Método
Método de
Conjunto Identifica las condiciones tanto
Concordancia
combina el SUFICIENTES como
combina el
Método NECESARIAS.
Directo y el
Directo y el de
Inverso de
Diferencia.
Concordancia.

Apuntes de M. Goretti González completados y modificados por Marina Uned


15

Ejemplo práctico
Supongamos que en el hotel hay un huésped con intoxicación y queremos averiguar cuál ha sido el
alimento que pudo ocasionar dicha intoxicación.
Se utilizará el Método Inverso de Concordancia y reducir así la búsqueda a dos platos a dos platos
principales y a dos postres.
Identifica la condición suficiente -causa- mediante la búsqueda en diferentes casos de
la ausencia tanto de las propiedades condicionantes -posibles causas- como de la
propiedad condicionada – efecto).
El principio de eliminación que subyace en este método es: una propiedad que se
encuentre presen cuando el fenómeno está ausente no puede ser una condición
suficiente del fenómeno.
Se seleccionan al azar los huéspedes que comieron en el hotel y que no presenten
síntomas. Se diseña una tabla y se les pregunta lo que han comido, podemos ir
eliminando las comidas que no son condición suficiente para la intoxicación.

Lo que encontramos es que todos no comieron pescado y es el único alimento seleccionado al azar
que éstos no han comido. Podemos identificar al pescado como condición SUFICIENTE de la
intoxicación.
Las inferencias inductivas se encuentran presentes en la categorización, en la comprobación de
hipótesis, en la generalización y especialización, en el razonamiento causal, en la detección de
contingencias, en el razonamiento probabilístico, en la solución de problemas, en la toma de
decisiones, en el razonamiento analógico y en el aprendizaje.
Las investigaciones psicológicas se han interesado en describir y explicar estos procesos inferenciales
basándose en la lógica. Sin embargo, los resultados experimentales obtenidos en las distintas tareas
de razonamiento deductivo e inductivo han puesto de manifiesto que existen unos sesgos o errores
sistemáticos.

Apuntes de M. Goretti González completados y modificados por Marina Uned


16

3. Errores y sesgos en el razonamiento


Cuando hablamos de errores y sesgos en el razonamiento asumimos de alguna forma el criterio
normativo del buen razonador. En el razonamiento deductivo lo habitual es comparar el rendimiento
humano con la teoría de la lógica formal. La validez garantiza que no exista un estado posible de
acontecimientos en los que siendo verdaderas las premisas la conclusión sea falsa. En el
razonamiento inductivo, el modelo normativo habitual es el Teorema de Bayes que permite obtener
la probabilidad de una conclusión ante el conjunto de posibles conclusiones alternativas. Sin
embargo el razonamiento se desvía de forma sistemática de estas predicciones.
Los errores de razonamiento se clasifican en formales e informales:
Errores formales: son aquellos que violan alguna de las reglas de inferencia.
Ejemplo: En el condicional se infiere equivocadamente el antecedente por la falacia de
la afirmación del consecuente.
Errores informales: no dependen del argumento, sino del contenido. Los errores son
debidos al uso o interpretación inadecuada del contenido del argumento.
Ejemplo: se rechaza un argumento formalmente válido por no estar de acuerdo con el
contenido de la conclusión)
Los sesgos o falacias de razonamiento se refieren a unas tendencias que son sistemáticas en el
proceso de razonamiento. Estos hacen que los sujetos comentan errores al considerar factores que
son irrelevantes para inferir. Según Evans, los sesgos de razonamiento se pueden clasificar en:
1 sesgos en la selección de la información, 2 sesgos de confirmación y 3 sesgos de
contenido y contexto.
Estos se encuentran a menudo estrechamente relacionados, resultando difícil su identificación. Ello
se pone de manifiesto:
– cuando admitimos que el sistema de procesamiento se ve obligado a seleccionar la
información y en este proceso pueden existir determinados sesgos, y
– cuando sobre esta información sesgada puede influir el contenido y el contexto del
problema de razonamiento y la tendencia hacia la confirmación de la información
presentada o de nuestras propias expectativas.
Por factores externos entendemos aquellos aspectos de la información que son irrelevantes para el
razonamiento y que se encuentran vinculados con el impacto que ejerce la propia presentación de
esta información.
Por factores internos se refiere a las propias restricciones o limitaciones estructurales del sistema, a
la tendencia que muestra el sistema a tener en cuenta su conocimiento particular o su sistema de
creencias en general, y a la tendencia hacia la confirmación, interactuando con el propio
conocimiento y el sistema de creencias.
Muchas veces no es fácil discriminar ya que se habla de una interacción siendo difícil aislarlos.

Apuntes de M. Goretti González completados y modificados por Marina Uned


17

3.1. Factores externos


Si los humanos fuéramos análogos a un sistema de procesamiento de la información tenemos
determinadas limitaciones cognitivas, tales como capacidad de memoria y recursos de
procesamiento limitado (vamos lento o rápido). Al enfrentarnos a una situación concreta nos
encontramos con una gran cantidad de información sin capacidad para procesarla en su totalidad.
Nos vemos obligados a seleccionar aquello que sea relevante para resolver la situación. El sistema
humano alcanza unos niveles de eficacia muy buenos si lo comparamos con una máquina de
procesamiento pues ésta tiene capacidad mucho mayor. Sin embargo la selección también nos
puede conducir a errores y si éstos son sistemáticos serán sesgos.

Hay factores externos al SP que hacen que se centre en determinada información. Cuando se dice
que una información es saliente se está haciendo referencia a determinados aspectos que sobresalen
sobre los demás creando impacto sobre el sujeto (aunque no sean importantes).
Por ejemplo, los anuncios publicitarios captan la atención de los consumidores
haciendo uso de lo prominente de la información cuando se presentan por medio de
un modelo publicitario o autoridad reconocida, pero que nada tiene que ver con las
características del producto.

También es habitual recurrir a los números o a la tradición para presentar el producto o una postura.
El mero hecho de que la mayoría consuma o asuma una postura, porque
tradicionalmente se ha consumido, influye sobre los sujetos, sin que éstos consideren
la validez o fuerza de los argumentos.
Este impacto ejercido por la información irrelevante para el proceso de razonamiento puede estar
determinado por el interés emocional que tiene, por la concreción de los datos, por el carácter
vívido de la información, por la proximidad temporal y espacial entre los aspectos irrelevantes de la
información y el argumento o por su familiaridad.

También nos encontramos influidos por la fuente de la que provenga la información.


El error de razonamiento conocido como “argumentum ad hominem” (argumentación
contra el hombre) pone de manifiesto la importancia que se concede a la fuente de
información independientemente de lo que sostenga.
Se acepta o rechaza determinada información en función de los méritos que
otorgamos a la fuente (Líderes carismáticos que ejercen influencia haciendo adeptos)
Se simpatiza con la persona o institución que la sostiene.

Apuntes de M. Goretti González completados y modificados por Marina Uned


18

Es frecuente recurrir a una autoridad en la materia para defender una postura sin más evidencia que
la persona en cuestión o acreditar o desacreditar la información de una fuente por la simple
asociación con otra.
En algunas ocasiones sin evidencia objetiva suficiente puede ser apropiado confiar en
esa fuente. Sin embargo un argumento defendido por una fuente de información con
una credibilidad baja no hace que el argumento sea inválido y tampoco a la inversa.

Existen errores sistemáticos debido a la propia estructura sintáctica del problema. En los problemas
con silogismos categóricos se ha encontrado el efecto atmósfera y el sesgo de la figura del silogismo.
El efecto atmósfera manifiesta que la cantidad – universal o particular - o la polaridad
– afirmativa o negativa- de las premisas influyen sobre las condiciones que dan los
sujetos.
Ejemplo: cuando las premisas contienen al menos una premisa particular, la
conclusión dada por los sujetos es también particular y en el caso contrario universal y
cuando la premisa es negativa la conclusión es negativa y afirmativa en el caso
contrario.
En relación con el efecto de la figura se ha encontrado que el grado de dificultad y el
tipo de conclusión dependen de la posición del término medio en cada una de las
premisas.
En el sesgo de emparejamiento (razonamiento condicional) se observa que las respuestas de los
sujetos coinciden con los enunciados del problema de la tarea de selección de Wason.
Se presentan 4 tarjetas que contienen el antecedente del condicional por una cara y
el consecuente por la otra. La presentación de la tarea va acompañada de un
enunciado condicional en forma de regla y se pide a los sujetos que giren la tarjeta o
tarjetas necesarias para confirmar o falsar esa regla.
Ejemplo: “si hay un cuadrado azul a la izquierda, entonces hay un círculo rojo a la
derecha” y se pide a los sujetos que comprueben si el condicional es verdadero o
falso.
La mayoría eligen las tarjetas que exhiben los dos términos del enunciado: cuadrado
azul y círculo rojo.
Wason interpretó estos resultados como un sesgo hacia la confirmación de aquello que venía
expresado por la regla.
Evans y Lynch, sostienen que este sesgo está basado en el emparejamiento y cuestionan que ésta sea
una tendencia hacia la confirmación basándose en sus resultados con la negación de los términos.
El mismo problema con términos negativos sería “Si hay un cuadrado azul a la
izquierda, entonces no hay un círculo rojo a la derecha” - negación del consecuente –
o “Si no hay un cuadrado azul a la izquierda, entonces hay un círculo rojo a la
derecha” - negación del antecedente.

Apuntes de M. Goretti González completados y modificados por Marina Uned


19

En este caso se observa que los sujetos simplemente eligen los términos
mencionados en la regla (cuadrado azul y círculo rojo) y no persiguen la confirmación
de la misma. En el caso de la negación del consecuente, la elección de los sujetos
coincide con la falsación, y en el caso de la negación del antecedente siguen eligiendo
los mismo términos mencionados pero su elección no coincide con las reglas de la
lógica.
Este sesgo de emparejamiento pone de manifiesto la relevancia que adquieren los términos
expresados en el condicional y las dificultades que tienen los sujetos con la negación lógica y
lingüística, mostrando preferencia hacia el procesamiento de información positiva.

3.2. Factores internos


Es la influencia que ejercen en el razonamiento algunas restricciones cognitivas internas y el propio
conocimiento acerca del tema.
Tenemos que considerar primeramente la restricción estructural del propio sistema de
procesamiento de la información.
Existe la limitación asociada con la cantidad de información con la que puede trabajar
el sistema. Cuando esta información es abundante, el sistema se sobrecarga y la
posibilidad de error es mayor. La selección adecuada de la información dependerá de
que ésta se encuentre disponible.

La disponibilidad hace referencia a la facilidad con la que se recupera determinada información.


Esta disponibilidad o accesibilidad de la información fue descrita por Tversky y
Kahneman, para los juicios en los que se pide la estimación de frecuencias (capítulo
razonamiento probabilístico).
En el proceso de organización y recuperación de la información almacenada existen
restricciones cognitivas que pueden dar lugar a los sesgos. Por ejemplo, la facilidad de
recuperación en función de cómo se ha organizado la información, la familiaridad, las
expectativas de los sujetos o la primacía o cercanía de la información presentada.
Tversky y Kahneman expusieron diferentes experimentos.
Experimento 1: se pedía a los sujetos que emitieran juicio sobre la frecuencia de las
palabras en inglés que empezaban por “k” y las palabras que tenían esta letra en
tercera posición. Los sujetos valoraban como más frecuentes las palabras que
empezaban con ella que las otras, aunque en realidad en inglés son más frecuentes
las que la llevan dentro. Este resultado se debe a que nos es más fácil recuperar
palabras por su letra inicial que por las letras en otras posiciones.

Apuntes de M. Goretti González completados y modificados por Marina Uned


20

Experimento 2: presentaron dos listas con la misma cantidad de nombres de personas


famosas y anónimas. Cuando se preguntaba sobre la frecuencia de los nombres, se
encontró que juzgaban como más frecuentes la de los nombres de los famosos. Estos
nombres eran más fáciles de recordar y al poder recuperar, considerando que eran los
más frecuentes.
También se ha encontrado que cuando se presenta una hipótesis irrelevante se induce a su
consideración.
Ejemplo: se describe un patrón de síntomas asociados al diagnóstico y a continuación
se presenta un caso en el que este patrón es irrelevante, los sujetos se dejarán influir
por las expectativas que ha generado la información presentada previamente
(Chapman y Chapman, 1967).

Hay casos en donde la información relevante no se puede recuperar fácilmente y por ello se
comenten errores. Sin embargo, la disponibilidad de la información tampoco garantiza que se
seleccione.
El problema clásico de Kahneman y Tversky: “el problema de los taxis” evidencia lo dicho. Se pide a
los sujetos cuál de las dos compañías de taxis pudo haber estado involucrada en un accidente antes
la situación:
Experimento: En una gran ciudad hay dos compañías de taxis con distintos colores:
taxis azules y taxis verdes. Un 85% son taxis azules y un 15% son taxis verdes. Hubo un
accidente y el taxi se dio a la fuga. Un testigo asegura que el coche era un taxi verde.
En una prueba de memoria se encuentra que el testigo puede recordar
correctamente el color de los coches en un 80% de los casos y que se equivoca en el
20%.
Resultados: La mayoría de los sujetos consideraban que el responsable del accidente
había sido un taxi verde. Sin embargo con los datos presentados la probabilidad es
mayor para el taxi azul: 0,85 x 0,20 = 0,17 azul. Existe un 85% de estos, por el 20% de
posibilidad de error, nos daría 17% 0,80 x 0,15 = 0,12 verde. En este caso el 80% de las
veces no se equivoca pero solo hay un 15% de taxis verdes, y así sería probable que el
12% de posibilidades fuera el taxi verde.
A pesar de haber presentado la información relevante, los sujetos se fían más del testigo que de los
datos. Nos topamos con otro factor que es la relevancia. No sólo debe estar disponible la
información sino ser relevante para la situación. En este experimento el rendimiento mejora en las
tareas cuando los sujetos establecen relaciones causales.
Por ejemplo, si se dijera que el número de taxis es igual y que el 85% de los taxis que
tienen accidentes son azules, entonces los sujetos se fijan en las probabilidades a
priori a la hora de dar sus respuestas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


21

Los errores de razonamiento también pueden deberse por el conocimiento propio o de sus creencias,
haciendo que se razone a favor de ellas.
Se le da más importancia a la evidencia que vaya en consonancia con nuestras
creencias y se suele ignorar o minimizar aquello que las contradice. Se selecciona
sesgadamente la evidencia a favor.
Existe la tendencia también a buscar explicaciones y aceptarlas muy fácilmente cuando
éstas están en consonancia con nuestras creencias, sin la consideración objetiva de los
datos que las apoyan.
Además se puede alcanzar una conclusión precipitada si encaja con nuestro sistema
de creencias.
El sesgo de confirmación manifiesta la tendencia hacia la búsqueda de información que sea
consistente con nuestro sistema de creencias, expectativas o hipótesis y a descartar aquella
información que pueda falsarlas.
Ejemplo 1: en el razonamiento probabilístico se encuentra cuando los sujetos tienen
que evaluar el diagnóstico de una enfermedad en función de los resultados positivos de
una prueba. Los sujetos se basan en la diagnosticidad de la prueba para la primera
enfermedad hipotética, sin considerar cuál es la probabilidad de que los resultados
también sean positivos para el diagnóstico de otras enfermedades alternativas.
Ejemplo 2: también está este sesgo en tareas de inducción en las que el sujeto tiene
que descubrir una regla. Por ejemplo en la de “Tarea 2 4 6” donde se pide descubrir
cuál es la regla de la serie. El experimentador tiene en mente una regla muy general
como “cualquier serie de números ascendentes”. Es habitual observar que los sujetos
se empeñan en ir comprobando reglas, como los múltiplos de 2. Y ante las respuestas
de los sujetos el experimentador dirá siempre “sí” puesto que cumplen la regla
general, pero la del sujeto no es la del experimentador. Los sujetos sólo generan reglas
con series positivas de acuerdo con la regla y no generan alguna que pueda falsar sus
hipótesis.

En general, se adoptan las estrategias que persiguen confirmar y no falsear e incluso se muestra la
persistencia inadecuada al seguir defendiendo el argumento en el que se cree a pesar de la evidencia
contraria. No obstante, Evans indica que ello puede deberse a una restricción propia del sistema que
se centra en procesar información positiva y no a una tendencia hacia la confirmación.
Por ello, cree que este sesgo de confirmación pone de manifiesto las dificultades para
comprender las negaciones lingüísticas y lógicas. Este sesgo refleja la predilección del
sistema por lo positivo. Es un sesgo bastante persistente que centra la atención en
una hipótesis en particular buscando activamente la información positiva.
No obstante (Mynatt, Doherty y Tweney), los sujetos muestran cierta sensibilidad
ante la información que falsa sus hipótesis cuando ésta se presenta expresamente.

Apuntes de M. Goretti González completados y modificados por Marina Uned


22

Cuando se presentan reglas con contenido, los sujetos intentan verificar las hipótesis si se
encuentran en consonancia con su sistema de creencias y tienden a desconfirmarlas cuando piensan
que pueden no cumplirse en todos los casos. El contenido y el contexto de los problemas influyen en
el razonamiento. Se distinguen tres tipos de contenidos:
1. Contenido abstracto. En el razonamiento condicional “Si p, entonces q”, se formularía  “Si
A, entonces 7”
2. Contenido conocido, pero arbitrario. Se formularía como “Si es un artista, entonces pertenece
a la sociedad de amantes del cine”.
Lleva términos de uso cotidiano, pero que no tienen relación directa con los
conocimientos o sistemas de creencias de los sujetos.
3. Contenido familiar: “Si eres psicólogo cognitivo, entonces conoces los principios de
razonamiento humano”.
Este sí mantiene una relación directa con la experiencia del sujeto.
Por contexto se entiende el marco o el escenario en el que se sitúa el problema de
razonamiento. El contexto se hace explícito en el diseño de las tareas experimentales
mediante el uso de instrucciones o descripciones verbales o escritas que acompañan al
problema.

El contenido familiar puede en algunos casos facilitar el rendimiento y en otros sesgar sus respuestas.
En las tareas de silogismos categóricos es habitual presentar un argumento deductivo
y pedir a los sujetos que juzguen su validez (que viene determinada por la estructura
sintáctica no por contenido). La verdad de la conclusión se juzga en función de la
verdad supuesta de las premisas.
Sin embargo, cuando las conclusiones entran en conflicto con las creencias, se
aceptan como válidos argumentos que no lo son, pero cuyas conclusiones están en
consonancia con el sistema de creencias y se rechazan otros que siendo válidos
muestran una conclusión discordante.
Ejemplo: silogismo categórico que utiliza efecto de la atmosfera para tratar los sesgos debidos a la
estructura sintáctica del problema. Efecto atmósfera: cuando las premisas contienen al menos una
premisa particular, la conclusión es particular y en el caso contrario universal.

Apuntes de M. Goretti González completados y modificados por Marina Uned


23

De acuerdo con este efecto los sujetos aceptan como válido el argumento por la atmósfera universal
de las premisas.
No obstante, rechazaríamos la validez del argumento si se dotara de la información que sigue:

Claramente vemos, como el efecto del contenido ha facilitado el rendimiento de los sujetos al
eliminar el sesgo que produce la propia estructura formal del argumento. Ahora bien, las creencias
previas también pueden producir sesgos. Cuando la conclusión del argumento se encuentra a favor o
en contra del sistema de creencias de los sujetos, éstos lo consideran válido o no, respectivamente.
Entre el sesgo de confirmación y el de creencias previas existe una estrecha relación, aunque es una
dirección distinta.
El de confirmación pone de manifiesto la búsqueda de evidencia para confirmar
hipótesis, el de creencias previas, muestra que los sujetos evalúan la evidencia
sesgándola hacia la conclusión que sea congruente con estas creencias.
Según el modelo del escrutinio selectivo los sujetos parecen examinar la conclusión y si
ésta es plausible, entonces tienden a aceptarla sin analizar la validez del argumento.
Ejemplo: Todos los animales son seres vivos Todos los perros son seres vivos Todos los
perros son animales. En este caso la conclusión es plausible y por lo que no nos
molestamos en comprobar si sigue de las premisas o no, aceptándola sin más.

En el capítulo de razonamiento condicional se verá que el mero hecho de razonar sobre contenidos
conocidos no produce en todos los casos los efectos de facilitación esperados. Esto ha provocado que
los factores de contenido se asocien al contexto también, entendiendo que éste va vinculado con los
aspectos pragmáticos del razonamiento. Los efectos de facilitación vendrían explicados por la
vinculación que los sujetos hacen entre el problema y los objetivos o metas hacia las que encaminan
el razonamiento.
Ejemplo: en el condicional se proponen unos esquemas de razonamiento para
situaciones de regulación, tales como permisos (Cheng y Holyoak). Cuando se
presenta el problema como una situación de permiso, “Si limpias tu habitación,
entonces irás al cine”, el sujeto entenderá el contexto y lo vinculará con metas u
objetivos anteriores que pondrán en marcha un conjunto de inferencias correctas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


24

En razonamiento inductivo también se ven efectos del contenido y el contexto. La probabilidad


epistémica asociada dependerá del conocimiento sobre la naturaleza de los objetos sobre los que se
razona.
Ejemplo: se hacen generalizaciones a partir de pequeñas muestras de casos si conocen
o creen conocer la variabilidad de la muestra. Se acepta generalizar cuando dicha
muestra es pequeña si los objetos presentan variabilidad baja y no están dispuestos a
aceptar una basada en pocas observaciones en un dominio de mucha variabilidad. Los
sujetos tienen supuestos sobre la muestra y según aumente el dominio de
conocimiento, mejor serán los supuestos, evitando generalizaciones falaces o falsas.

También se ha encontrado que el contenido puede inducir a sesgos cuando es representativo del
dominio, pero irrelevante estadísticamente. Los juicios por representatividad (capítulo razonamiento
probabilístico) pueden inducir a sesgos al basarse en la similitud entre conocimiento del sujeto y
aquello sobre lo que está razonando.
Ejemplo: “problema de los dos hospitales” de Kahneman y Tversky, los sujetos ignoran
el tamaño de la muestra al considerar que la información presentada es
representativa como para que la probabilidad de nacimientos de niños y niñas sea
igual en un hospital grande frente a uno pequeño.
La ley de los grandes números pone de manifiesto que cuanto mayor sea el número de
observaciones más probable es que el resultado se aproxime al resultado real y
cuanto menor sea es más probable obtener resultados extremos.

Para resumir, hay que indicar que los sesgos son una consecuencia directa de las restricciones o
limitaciones propias del sistema que, por otra parte, es un sistema eficaz y adaptado al medio en el
que se encuentra inmerso. Simon señala que en pocas ocasiones el sistema de procesamiento
cuenta con la estrategia exacta para resolver el problema que tiene delante y debe aproximarse a la
solución por medio del “principio de la racionalidad restringida”. Todo ello hace que en el marco
teórico del razonamiento humano, se siga debatiendo sobre racionalidad o irracionalidad del
pensamiento.

4. El concepto de racionalidad
Cuando la psicología se plantea estudiar experimentalmente el razonamiento consideró que la lógica
era el marco de referencia para explicarlo. Sin embargo, los resultados de las investigaciones
manifestaron que los sujetos no siempre se ajustaban al criterio del razonamiento lógico ya que
factores ajenos a los principios lógicos ejercían una fuerte influencia. Esto conducía a un resultado
incómodo para la psicología, pues entonces había que aceptar que somos irracionales.

Apuntes de M. Goretti González completados y modificados por Marina Uned


25

4.1. Competencia sintáctica restringida


Cuando se defiende la racionalidad se suele aludir a la propuesta de Chomsky (1965) entre
competencia y actuación lingüística.
Se parte del supuesto, por analogía con los órganos físicos como el corazón, de que
existe en el ser humano una dotación genética especialmente dispuesta para el
desarrollo y maduración de unos órganos mentales. Uno de estos órganos mentales es
la facultad para el lenguaje y esta se traduce en un conjunto de reglas que es universal
y específico de la especie humana.
Este conjunto de reglas abstractas (o gramática universal) es la competencia lingüística
y cuando ésta se manifiesta externamente es actuación lingüística.
La actuación lingüística permite explicar que el sujeto tenga la facultad para el
lenguaje que se actualizará en algo concreto como el español, inglés, alemán,... o que
algunas veces se equivoque en sus locuciones sin que ello obligue a cuestionar su
competencia lingüística.
Por analogía también se defiende que existe una competencia o capacidad racional
que puede sufrir distorsiones cuando esta capacidad se traducía a una actuación
concreta.

Desde la hipótesis básica de los modelos computacionales, el SP está preparado para la manipulación
de símbolos, que implica la formalización de unas estructuras simbólicas susceptibles de ser
interpretadas en función de los conceptos de uso común que utilizamos para conceptualizar el
dominio. La psicología del pensamiento se entendería como el estudio de las estructuras simbólicas y
de los procedimientos para su manipulación y la lógica sirve como modelo normativo.

Los errores encontrados han provocado que se consideren irrelevantes los principios lógicos para el
razonamiento humano. Los resultados experimentales descubren ilusiones cognitivas o comprueban
la formación en lógica de los sujetos, asignando falacias dónde no las hay. Otros enfoques sostienen
que en la explicación de los sesgos se ha subestimado el papel de la lógica. El problema principal
radica en las distintas posturas teóricas que se han adoptado en la explicación de los errores.
Las que adoptan un enfoque sintáctico entienden que los errores no demuestran fracaso de razonar
lógicamente, sino la existencia de determinadas condiciones que conducen a error, no que no
puedan razonar. Los errores ocurren cuando la competencia lógica se traduce en actuación.
El error estaría en la comprensión de las premisas y las respuestas sesgadas pueden
explicarse en función de la interpretación de las mismas. Henle sostiene que se
pueden cometer errores en la interpretación del argumento (premisas y conclusión) u
omitir o añadir una premisa al argumento.

Apuntes de M. Goretti González completados y modificados por Marina Uned


26

Ejemplo: errores en la interpretación de los cuantificadores de un silogismo categórico.


Interpretar “algunos X son Y” como “algunos X no son Y” o a la inversa.
Ejemplo 2: algunos sujetos pueden hacer conversiones de las premisas, como convertir
“algunos X no son Y” en “algunos Y no son X”; o “Todos los Y son X” en “Todos los X
son Y”.

Según Henle, el razonamiento depende de la comprensión de las premisas y la utilización de material


familiar podría explicar los efectos de facilitación. También Revlin y Leirer, basándose en el modelo
de conversión, sostiene que el contenido familiar bloquea la conversión ilícita en la codificación de las
premisas, dando lugar a una facilitación en el rendimiento.
El sesgo de creencias se explica considerando que las premisas de los argumentos
válidos son más susceptibles para la conversión que las premisas de argumentos
inválidos. No obstante, este sesgo (aceptar una conclusión válida como inválida) fue
explicado por Henle como fracaso en la aceptación de la tarea lógica. Los sujetos no
entienden las instrucciones o no saben lo que tienen que hacer y, por ello, hacen algo
distinto de lo pretendido a analizar (razonamiento).

Hay varios modelos cognitivos que se generaron en consonancia con la hipótesis de un sistema
deductivo formal. Aunque con variaciones específicas, en todos subyace la idea de una
representación simbólica de las premisas y la aplicación de unas reglas lógicas y abstractas con el fin
de obtener una conclusión. Los sesgos del razonamiento pueden explicarse por fallos en el proceso
de interpretación o por la capacidad limitada de la memoria de trabajo, intentando mantener la
viabilidad de la hipótesis de un sistema lógico.

En líneas generales, la perspectiva sintáctica asume que existen dos componentes fundamentales en
el razonamiento:
1) Un componente deductivo que comprende reglas sintácticas libres de contenido.
2) Un componente de interpretación que establece la correspondencia entre los
enunciados del lenguaje y el conjunto de reglas sintácticas.
Este conjunto de reglas sintácticas no tienen que ser equivalentes a las reglas lógicas,
sino que comprendería el repertorio de reglas de inferencia que utilicen los sujetos de
forma natural. Así, si el contenido y contexto influyen al interpretar, la actuación de
los sujetos se explicaría por su adherencia a las reglas sintácticas aplicadas a dicha
interpretación.
La facilitación con contenido familiar puede deberse a la facilidad con la que la
información se ha procesado por el resto de los componentes del sistema como la
representación y el mantenimiento de la información en la MT.

Apuntes de M. Goretti González completados y modificados por Marina Uned


27

El contenido determinaría la interpretación y el control del conocimiento que ha de


recuperarse de la MLP, sin que ello implique la alteración del conjunto de reglas
sintácticas del sistema. Si el tipo de contenido cambia las respuestas, es debido a la
utilización de un conjunto distinto de proposiciones, no de reglas.

La tarea de Wason ha sido base de numerosos trabajos. Pocos fueron capaces de responder
correctamente a la tarea, inicialmente 4%, y luego de entre 6-33%.
El resultado mostró que el contenido del material presentado incide sobre el
rendimiento, facilitándolo cuando es contenido concreto. No obstante, no todos los
contenidos concretos producen facilitación y algunos autores indican que si existe
experiencia previa se da mayormente esta facilitación.
Esta inconsistencia de los efectos del contenido con problemáticas para las teorías
sintácticas ya que el sistema deductivo no puede interpretar el significado en un
contexto concreto, ni decidir si las premisas tienen o no sentido, ni buscar datos para
la solución. El sistema sintáctico sólo proporciona formas y reglas que permiten
organizar y analizar los datos.

Otra perspectiva alternativa enfatiza el papel de la experiencia y el contexto lingüístico en la


determinación del rendimiento y cuestiona la plausibilidad de las reglas desvinculadas del contenido.
La explicación de los efectos del contenido pone de manifiesto que el contenido
familiar induce a respuestas que son apropiadas para nuestra experiencia. El
razonamiento puede estar sometido a las pautas que marca la experiencia en relación
con el contenido.
Si esta facilitación se ha de controlar para aislar el conjunto de reglas sintácticas, los
contenidos abstractos serían los adecuados para estudiar el sistema deductivo, pero
la alta tasa de errores encontrada oscurece la viabilidad de una competencia lógica.

Esta polémica ha provocado que los factores de contenido vayan asociados al contexto que se
vincula a su vez con los aspectos pragmáticos del razonamiento. La teoría de los esquemas de
razonamiento pragmático propone que los sujetos cuentan con reglas de razonamiento que son
específicas del dominio.
Estos dominios no son concretos sino que tienen un nivel intermedio de abstracción
de forma que los esquemas se aplicarían a un conjunto de acontecimientos, tales
como las situaciones de regulación (permiso, contratos sociales, advertencias,...).
Los efectos de facilitación se explican por la vinculación que se hace entre el problema
y los objetivos o metas a las que se dirige el razonamiento.

Apuntes de M. Goretti González completados y modificados por Marina Uned


28

Ejemplo: en el razonamiento condicional se proponen unos esquemas de


razonamiento pragmático para las situaciones de permisos. “Si limpias tu habitación,
entonces irás al cine”  el esquema relaciona estrechamente con el contenido y el
contexto y lo vinculará con las inferencias de la lógica.
La racionalidad no viene explicada por la posesión de un conjunto de reglas lógicas
sino unas reglas de razonamiento apropiadas para alcanzar los objetivos que se
propone el sujeto, para lo que hace falta considerar el contenido y el contexto.
Estos esquemas de razonamiento pragmático se estudian en tareas de razonamiento
condicional pero para generalizarlas a todo el razonamiento haría falta compartimentar
el conocimiento de los sujetos según objetivos y metas. Sin embargo, no se ha
desarrollado y se limita a unas pocas situaciones concretas. Se requieren más
estudios.

Existe polémica sobre la racionalidad ya que supone distinguir entre estructura lógica y contenido
(no lógico) y entre comprensión y reglas sintácticas. Smedslund nos indica que las explicaciones del
modelo lógico son circulares pues sólo se puede deducir la naturaleza de la interpretación de una
regla si se asume que se razona de forma lógica y sólo se puede descubrir que se razona lógicamente
si sabemos que ha interpretado la premisa. La teoría de la competencia lógica supone un sistema
lógico hipotético, pero al igual que en las teorías de la competencia lingüística, el modelo de
competencia no es una teoría que pueda verificarse de forma empírica. Los factores de actuación no
se pueden especificar completamente ya que dependen de las características específicas del
problema. La situación experimental no garantiza que los sujetos comprendan los requisitos de la
validez deductiva, ni que la comprensión de las premisas enunciadas coincida con la del
experimentador.

4.2. Competencia semántica restringida


Ante las dificultades con el enfoque sintáctico, surgen otras perspectivas que descartan las reglas de
inferencia formales para defender la representación semántica de las premisas y el procedimiento
de comprobación semántica del argumento. Según Erickson, los sujetos representan cada premisa
como una combinación de diagramas de Euler y para evaluar o producir una conclusión se han de
combinar dichas representaciones de premisas en una sola representación del silogismo.
La teoría más actual al respecto es la de los Modelos Mentales de Johnson-Laird. Esta se enmarca
dentro de este enfoque ya que explica el razonamiento por el conocimiento tácito que tienen los
sujetos sobre los principios semánticos fundamentales que subyacen en los procesos de inferencia.
La validez se entiende como posibles interpretaciones del argumento y no como las
propiedades y relaciones formales que lo caracterizan. Los sujetos construyen
modelos mentales que constituyen la representación de las situaciones descritas por
las premisas generado combinaciones de éstas en búsqueda de contraejemplos para
las posibles conclusiones.

Apuntes de M. Goretti González completados y modificados por Marina Uned


29

El procedimiento básico viene explicado por esta búsqueda de contraejemplos


alternativos que puedan falsar el modelo mental en cuestión. Si los sujetos no
encuentran modelos mentales alternativos de las premisas que sean compatibles con
la conclusión, entonces es válido.
La dificultad de los problemas se explica en función de la cantidad de procesamiento y
los errores se explican por las limitaciones de la memoria de trabajo al no poder
considerar todas las combinaciones posibles de las representaciones relevantes.

Se razona de acuerdo con un procedimiento semántico adecuado, pero limitado por la capacidad de
la memoria de trabajo. Según estos autores, la racionalidad viene reflejada en el metaprincipio
semántico de validez: “Una inferencia es válida sólo si su conclusión no puede ser falsada por un
modelo de las premisas”.
Sin embargo, se ha considerado este enfoque semántico tan formal como el sintáctico
y que la teoría de los modelos mentales se puede entender como un modelo mental
lógico en el que se describe el procedimiento formal para la búsqueda semántica de
contraejemplos.
El procedimiento semántico (método de la Tª de los modelos) analiza el significado de
los operadores lógicos y el sintáctico (método de la Tª de la demostración) utiliza las
reglas de inferencia para delimitar este significado, pero ninguno de los dos considera
el contenido del argumento.
Si la racionalidad se explica cómo competencia semántica es necesario recurrir al conocimiento del
sujeto y a los procesos para la recuperación del mismo. Algunas perspectivas consideran este
requisito. Los esquemas de razonamiento pragmático plantean que reglas y contenido se almacenan
conjuntamente y están organizados como esquemas, los heurísticos de Tversky y Kaheman para
explicar los sesgos de razonamiento probabilístico aluden a los procesos de recuperación y
organización del conocimiento aunque no se comprometen con una representación explícita del
mismo.

4.3. Competencia en la satisfacción de restricciones


Los modelos conexionistas ofrecen una perspectiva alternativa, donde la representación del
conocimiento se encuentra distribuida y ponderada diferencialmente en patrones de activación que
forman parte del sistema dinámico con procesamiento en paralelo.
Sigue la idea del cómputo mental inherente a los modelos computacionales, pero sin
apelar a la hipótesis de que el sistema sea un manipulador de símbolos. Según estos
modelos, el sistema está compuesto por redes de activación, cada una de las cuales
comprende un conjunto amplio de unidades de procesamiento, similares a las
neuronas, unidas a su vez por conexiones con pesos diferenciados.

Apuntes de M. Goretti González completados y modificados por Marina Uned


30

Se concibe el SN como un sistema constituido por componentes funcionales altamente


organizados en el que no es necesario racionalizar la construcción y la computación de
representaciones computacionales.
En lugar de buscar la estructura lógica que ha de tener un sistema para poder explicar
una propiedad, se pretende partir de las características físicas del propio sistema para
explicar cómo se desarrolla esa propiedad.
Este enfoque propone axiomatizar el sistema físico, para luego investigar
analíticamente su comportamiento en contraposición a la axiomatización del
comportamiento para luego diseñar un sistema físico por las técnicas de la síntesis
lógica.

El pensamiento se concibe como comportamiento que emerge del patrón de regularidades


observadas de nuestra experiencia. El sistema en sí mismo no tiene reglas que dirijan el
funcionamiento, aunque el comportamiento se pueda describirse por reglas. El enfoque simbólico
asume que los estados mentales se forman por representaciones y reglas, mientras que en la
perspectiva conexionista sólo hay activación y fuerza de conexión para explicar el comportamiento.

Bajo este enfoque se diluye la diferenciación entre contenido y reglas.


Los modelos normativos ofrecen un conjunto de reglas abstractas que se aplican
independiente del contenido, aunque los sujetos pueden mejorar el rendimiento o
sesgos cuando el material es conocido. Si se distingue entre reglas y contenido se
alude a la relación entre conocimiento e inferencia.
En el modelo conexionista el conocimiento del sujeto viene representado por los
patrones de activación en los que el conocimiento está distribuido y ponderado con
pesos diferentes y al razonar el sistema busca el emparejamiento que viole el menos
número de restricciones o limitaciones.
Al entrar información, se activará el conocimiento relevante para la red y se generará
la mejor interpretación posible. Las inferencias se explican por este proceso de
recuperación y por la mejor interpretación posible que alcance el sistema ajustando
su conocimiento con la información del argumento. Se busca el ajuste óptimo entre
ambos patrones de activación y las restricciones cognitivas se determinarán por la
base de conocimientos que se encuentre representada y activada.

Oaksford y Chater apuntan la interpretación alternativa a la teoría de los Modelos Mentales basada
en los procesos de recuperación de memoria en el marco de los modelos conexionistas. Aquí se
explicaría la búsqueda de contraejemplos por la bondad de ajuste entre el patrón de activación
generado por el argumento y el conocimiento representado por el sistema. Además, la propia
generación de los modelos mentales de las premisas depende del conocimiento.

Apuntes de M. Goretti González completados y modificados por Marina Uned


31

Por último, algunas propuestas consideran la coexistencia de los dos sistemas de razonamiento
(Procesos duales). La consideración de la coexistencia de los procesos duales no es nueva y su
ámbito de estudio comprende procesos como el aprendizaje, la atención, razonamiento,…

En estas propuestas se contrastan los procesos rápidos, inconscientes y automáticos frente a los
lentos, conscientes y controlados.
Stanovich distingue entre:
Sistema1 (procesamiento rápido e implícito – evolutivamente más antiguo y
computacionalmente más rápido y potente) y,
Sistema2 (procesamiento explícito con respuestas que pueden satisfacer criterios
normativos de la racionalidad– moderno, lento y con mayor demanda de recursos).

Apuntes de M. Goretti González completados y modificados por Marina Uned


32

Sloman propone un razonamiento reflectante que es un sistema conexionista cuyo cómputo refleja
estructuras de semejanza y relaciones de contigüidad y un razonamiento deliberado (sistema de
representación simbólica basado en reglas).
Ventaja: permite que los procesos de razonamiento sean rápidos y económicos y no
hace falta un proceso de análisis ya que su resultado ya forma parte de la propia
representación.
Desventaja: depende de la experiencia anterior y del contexto. El sistema basado en
reglas requiere procesos más lentos y costosos, aunque su aplicación es más general y
no depende del contexto.
Ambos sistemas de razonamiento tienen funciones distintas:
El sistema conexionista aprovecha los recursos de procesamiento al obtener sus
inferencias el conocimiento representado y que puede generalizarse a otros
semejantes.
El de reglas utilizará sus recursos de procesamiento para las situaciones concretas
novedosas y en las que sea necesaria la precisión de las inferencias.

Evans y Over, proponen distinguir entre dos nociones de racionalidad:


La racionalidad1 o personal (comportamiento eficaz y fiable para la obtención de
metas) y,
Racionalidad2 o impersonal (comportamiento basado en una razón que se encuentra
fundamentada en teoría normativa).

Apuntes de M. Goretti González completados y modificados por Marina Uned


33

Esta distinción, como señalan los autores, es una forma de describir el razonamiento pero no una
propuesta psicológica. La distinción psicológica la hacen entre el tipo de procesamiento:
Implícito (sistema conexionista en el que se representa el conocimiento tácito
dependiente de la experiencia).
Explícito (limitado por la capacidad de memoria de trabajo, por un procesamiento
secuencial y costoso y por depender del sistema implícito).
En este sentido la propuesta también comprende la coexistencia de dos tipos de
razonamiento.

Evans también señala la distinción entre estos dos procesos, intentando delimitar dos tipos de
funciones en el razonamiento:
Heurísticos (seleccionan lo relevante - implícito) y,
Analíticos (operan sobre la información seleccionada – explícito).

Esta distinción puede considerarse como un intento de preservar la noción de


competencia lógica en los procesos analíticos.

La racionalidad2 sigue garantizando que los sujetos tengan competencia deductiva e


inductiva pero limitada.

La polémica se centra en determinar si esta competencia se ajusta a un modelo de reglas de


inferencia (puede coexistir con restricciones de tipo pragmático) o con la teoría de los modelos
mentales.

Evans se inclina por la Teoría de los Modelos Mentales y sostiene que esta teoría
puede constituir una teoría del razonamiento en general, tanto deductivo como
inductivo, y que el metaprincipio semántico de validez tiene mayor realidad
psicológica.

Críticas:

– Se sostiene que la teoría de los Modelos Mentales no está exenta de problemas y tanto ésta
como la basada en reglas podrían ser valiosas para explicar el razonamiento de distintos
sujetos o del mismo en distintas situaciones.

– Se critica la distinción entre los dos tipos de Racionalidades considerando que la racionalidad2
no aporta, ni ha aportado buenos modelos de racionamiento.
Se considera el concepto de racionalidad1, investigando los procesos de razonamiento en tu
interacción con el mundo real ya que experimentalmente el razonamiento no ocurre
aisladamente sino que depende del contenido, el contexto y las metas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


34

– Se defiende que no hay dos tipos de racionalidad, sino un solo sistema que puede ajustarse al
modelo normativo si las circunstancias pragmáticas son adecuadas.

Finalmente hay un problema general de falta de especificación de ambos sistemas:

– Sigue existiendo polémica con respecto al modelo normativo del sistema explícito (R2).
– No hay una especificación del procesamiento implícito, ni criterio para establecer el grado de
eficacia que se espera del sistema implícito (R1).
– La limitación entre ambos sistemas es difusa: puede haber metas que el sistema explícito se
proponga alcanzar y puede haber inferencias conforme a un modelo normativo que sean
implícitas.
– No se concreta la interacción entre ambos sistemas, ni se determinan las circunstancias que
ponen a uno frente a otro.

Seguimos con una idea CIRCULAR DE RAZONAMIENTO: Si se considera que el sujeto resuelve
correctamente la tarea de acuerdo a modelo normativo, el razonamiento es explícito. Será implícito
si el sujeto tiene experiencia con el problema como para que se haya automatizado lo que fue en su
día explícito. Si se equivoca pero hay metas personales entonces es razonamiento implícito o
explícito con problemas de MT.

Apuntes de M. Goretti González completados y modificados por Marina Uned


1

Tema 3 Inducción categórica

1. Introducción
La “inducción categórica” constituye uno de los procesos básicos del funcionamiento cognitivo por
medio del cual las personas reconocen y clasifican su entorno de clases. Estas categorías se
consideran los cimientos o estructuras a partir de las cuales vamos a poder seguir clasificando,
interpretando, generando inferencias y comunicándonos con todos aquellos que compartan una
estructuración categórica en común.
Entre las varias funciones de la inducción categórica son fundamentales dos para las diferentes
perspectivas teóricas que existen sobre el tema:
El ahorro cognitivo que supone la agrupación de las experiencias particulares en
clases. Los sujetos extraen aquello que puede ser común a un conjunto de objetos o
situaciones.
Ejemplo: todas las experiencias con los tipos de manzana (reineta, golden,
macintosh,...) se agrupan bajo la categoría de “manzana”.
La categorización constituye una de las formas paradigmáticas de la inferencia
inductiva que permite agrupar las experiencias particulares en una clase general.
La posibilidad que ofrece la pertenencia categórica de inferir más información que la
que haya sido presentada en una situación determinada.
Permite aplicar a un nuevo ejemplar de la categoría, información conocida sobre lo
que previamente ya ha sido agrupado.
Ejemplo: encontrándonos con un nuevo ejemplar categorizado como manzana,
podemos generar unas expectativas sobre este objeto, sin necesidad de comprobarlo,
como por ejemplo que sea comestible y crezca en un árbol.
En el capítulo se trata el proceso de inducción categórica como el proceso mediante el cual se
agrupan en un conjunto varios ejemplares particulares. Se analiza qué hace que un conjunto de
objetos se agrupan en una categoría y cómo se realiza.
Primero un breve análisis de los principios estructurales que han sido propuestos para
estudiar cómo las experiencias particulares se agrupan en clases y la combinación
conceptual.
Después principios generales que comparten los enfoques sobre el proceso de
categorización.
Por último, dos modelos computacionales alternativos.

Apuntes de M. Goretti González completados y modificados por Marina Uned


2

2. La estructuración conceptual
En una de las concepciones más extendidas sobre cómo se produce la inducción categórica resalta el
papel que desempeña el conocimiento que se tiene sobre las propiedades de los ejemplares, de modo
que la descripción de estas propiedades permite averiguar cómo los ejemplares se agrupan en
clases. De esta forma encontramos que las categorías se han definido por sus propiedades y sus
reglas de formación se refieren a las relaciones que se establecen entre estas propiedades.

2.1. Enfoque de las propiedades definitorias


El enfoque tradicional en el estudio de la organización categórica considera que ésta se define por
un conjunto de propiedades que son individualmente necesarias y en su conjunto suficientes.
Una propiedad es necesaria si está presente en cada uno de los ejemplares (tener alas
si es un ave), y un conjunto de propiedades es suficiente si cada ejemplar que presente
dicho conjunto pertenece al concepto o categoría en cuestión.
Un ejemplar pertenece a una categoría si presenta este conjunto de propiedades y su
pertenencia será de todo o nada. El principio que subyace en este enfoque es una
definición.
Ejemplo: concepto de soltero. Está formado por tres propiedades: ser varón, adulto y no estar
casado.
Aclarar que cuando se habla de una propiedad estamos haciendo referencia a un
predicado, “ser varón”; al hablar de atributo nos referimos al término genérico de esa
propiedad, “sexo” y al hablar del valor hacemos referencia a la especificación de ese
atributo, en este caso “varón”).
También es habitual encontrarse con el término rasgo para hacer referencia a un
tributo con dos valores (presencia o ausencia) aunque no haremos esa distinción.
Este conjunto de propiedades constituye el contenido conceptual y este conjunto de propiedades
permite agrupar a los ejemplares en clases.
Desde este enfoque se entiende que cada una de estas propiedades es por sí sola
necesaria, aunque no suficiente.
Ejemplo: Un niño no es un soltero, aunque sea varón y no esté casado.
Ahora bien, conjuntamente estas tres propiedades indicadas, sí son suficientes para ser
soltero. Estas propiedades se llaman definitorias porque constituyen colectivamente
una definición del concepto.

Apuntes de M. Goretti González completados y modificados por Marina Uned


3

Las principales teorías psicológicas hasta principios de los 70 compartían los supuestos del enfoque
clásico, pero pronto los resultados experimentales subrayaban la falta de especificación de las
propiedades definitorias de algunos conceptos.
No había una definición consensuada que agrupara al conjunto de propiedades
individualmente necesarias y conjuntamente suficientes para los conceptos
“naturales”, además muchas veces no podían establecer los límites entre un concepto
y otro tan claramente como cabría esperar.
Los conceptos no se ajustaban fácilmente a una representación por definiciones. Es
un enfoque demasiado restrictivo que no incluye las excepciones ni los ejemplares con
limites imprecisos. Si se intenta solucionar con una definición más general entonces la
categoría pierde poder discriminatorio.
El uso que hacían los sujetos de los conceptos también era contrario a los principios defendidos por el
enfoque clásico. En investigaciones de Rosch, se encuentra que algunos ejemplares e consideraban
más típicos o más representativos del concepto que otros.
No todos los ejemplares de una categoría eran iguales, aunque la igualdad era lo
esperado de acuerdo con las propiedades definitorias. Ejemplo: “Petirrojo”, era
miembro más típico de categoría “ave”, que una “Gallina”.
Además, los efectos de tipicidad permitían predecir el comportamiento en una amplia
variedad de tareas. Ejemplo: si se pide a los sujetos si es o no un ejemplar de una
categorías, las R son más rápidas con ejemplares típicos.
Se aprender primero los ejemplares típicos y en tareas de producción de categorías se
recuperan antes.

2.2. Enfoque de las propiedades probabilísticas


Estas deficiencias del enfoque clásico (definitorias) dan lugar a nueva perspectiva sobre la
estructuración conceptual denominada enfoque probabilístico.
Asume que los conceptos no están constituidos por propiedades definitorias, sino que
las propiedades más comunes o típicas de un concepto ocurren sólo en determinados
ejemplares.
El conjunto de estas propiedades se nombra prototipo y describe sólo a los mejores
ejemplares del concepto. Ejemplo: petirrojo de “ave”.
El contenido del concepto es su prototipo y es la tendencia central de las propiedades
de sus ejemplares, reflejando la estructura redundante de la categoría como un todo.
Otros enfoques probabilísticos también incluyen la varianza o dispersión entre estas
propiedades o consideran que se representan las frecuencias de estas propiedades o
una combinación de las mismas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


4

Además, este enfoque ofrece una explicación de la estructuración conceptual en niveles jerárquicos:
– Nivel supraordenado: grado más alto de generalidad. Ejemplo: fruta.
– Nivel medio básico (intermedio): donde se ubicaría el prototipo. . Ejemplo: concepto
manzana. Comprendería el mayor número de propiedades que comparten los
ejemplares de una categoría y el menor nº de propiedades de otras categorías de
contraste.
– Nivel subordinado: es el más concreto. Ejemplo: manzana reineta.
Malt y Smith presentan las puntuaciones de tipicidad que se obtuvieron cuando los sujetos
evaluaban en una escala de 1 a 7 varios ejemplares de los conceptos fruta y ave.
Resultados: existen importantes variaciones en las puntuaciones de tipicidad de los
ejemplares. Dentro de las frutas la manzana sería el más típico (seguido de
melocotón, pera, uva, fresa,...) y el menos calabaza. Dentro de aves: petirrojo, pájaro
azul, gaviota,... el menos pingüino.
Los resultados de este estudio cuestionan la adecuación del enfoque clásico al poner
de manifiesto que no todos los ejemplares eran equivalentes en cuanto a su
pertenencia categórica.
Los datos ponen de manifiesto también que los efectos de tipicidad parecen deberse
a las propiedades no necesarias, cuestionando la viabilidad del enfoque clásico de la
categorización.
Datos: se representa una tabla con diez ejemplos de orden decreciente de tipicidad con algunas
propiedades dadas por los sujetos para los ejemplares. A cada propiedad se le da una puntuación
que es igual al número de ejemplares que tienen esa característica. La suma de estas puntuaciones
constituye su puntuación de parecido familiar.
La puntuación de parecido familiar es una medida directa de la frecuencia de las
propiedades del concepto siendo los ejemplares con las puntuaciones más altas en
parecido familiar, los que comparten el mayor número de propiedades con los de su
categoría, y el menor con los miembros de otras.
Es una medida indirecta de la semejanza de un ejemplar con respecto a los otros
miembros de la categoría. Una puntuación alta significa que el ejemplar comparte
muchas propiedades con el resto de ejemplares y es similar a muchos de ellos.
El parecido familiar también se encuentra correlacionando con la tipicidad: los más
típicos presentan las puntuaciones más altas.
El orden de los ejemplares parece deberse a las propiedades no necesarias, pues la
propiedad necesaria “tener plumas”, contribuye de la misma forma en cada uno de
los ejemplares.

Apuntes de M. Goretti González completados y modificados por Marina Uned


5

El supuesto principal de este enfoque es que la tipicidad de un ejemplar es una medida de la


semejanza entre dicho ejemplar y su prototipo.
Los miembros de una categoría se relacionan por su parecido familiar y no por un
conjunto de propiedades definitorias.
Por parecido familiar se entiende la semejanza media de un ejemplar con respecto a
otros miembros de la categoría y la desemejanza media con respecto a los miembros
de otras categorías de contraste.
Cuanto más semejante sea un ejemplar con respecto a los otros miembros de su
categoría y menos con las otras, mayor será el parecido familiar y más típico será.
Así, la estructura interna del concepto no es homogénea, ya que los miembros se
ordenan según la graduación de tipicidad. El parecido familiar es la base de la
graduación de tipicidad y una categoría se define por el parecido familiar entre sus
miembros.

Sin embargo, este enfoque también tiene críticas sobre todo respecto a la determinación de la
semejanza.
Los resultados sobre los efectos de tipicidad dependen del criterio de semejanza, de
las categorías particulares que se han elegido y de los ejemplares que se han puesto a
prueba.
Ejemplo: dos ejemplares de dos categorías distintas, tales como “naranja” y “pelota”,
son más semejantes entre sí con respecto a la forma que dos ejemplares de una
misma categoría, como naranja, plátano o fresa.
También, Roth y Shoben encontraron que el prototipo puede ser muy diferente en función del
contexto.
Ejemplo: el prototipo de aves varía en función de los siguientes contextos: “El pájaro
voló sobre el mar (gaviota)” o “el cazador disparó a ese pájaro (una perdiz)”.
Aunque la propuesta de unas propiedades prototípicas es sumamente útil y
descriptiva de la categorización humana, no es suficientemente flexible como para
explicar la sensibilidad que muestran los sujetos a la variabilidad tanto de los
ejemplares como de las propiedades constituyentes de la categoría, a algunas
relaciones tales como el rango de valores y la correlación entre propiedades y al
contexto en el que se realiza la categorización.

Apuntes de M. Goretti González completados y modificados por Marina Uned


6

Una postura conciliadora es la de los modelos mixtos al proponer que los sujetos cuentan con ambos
tipos de propiedades, pues en determinados casos se necesita recurrir a las propiedades definitorias
o diagnósticas.
Teniendo en cuenta que las prototípicas son más accesibles, éstas se utilizan para la
categorización y se recurre a las diagnósticas sólo en casos especiales, como cuando
hay que arbitrar una categorización dudosa.
Así, se entiende prototipo como heurístico por medio del cual se utilizan las
propiedades no necesarias y se recurre a las propiedades diagnósticas sólo en casos
muy determinados (categorizar a una ballena como mamífero).
Algunos autores como Armstrong y Gleitman y Gleitman sostienen que las
propiedades diagnósticas no tienen que ser necesariamente definiciones, no tienen
que ser ni fijas ni inamovibles.

2.3. Enfoque de los ejemplares


Parece natural pensar que un concepto es una abstracción, es decir, una versión resumida de las
propiedades de los ejemplares también se ha propuesto que un concepto está constituido por el
conjunto de sus ejemplares (Brooks), el concepto es un conjunto de casos concretos.
La tipicidad de un ejemplar se determina por su semejanza con los otros y la
categorización consiste en evaluar si un objeto presenta algún nivel crítico de
semejanza con los mejores ejemplares.
Este enfoque parece contradecir la idea de ahorro cognitivo. No obstante, se indica
que aún en el supuesto de que el sistema pudiera almacenar todos los ejemplares, en
la categorización sólo se seleccionan algunos, los más típicos.
La idea central de este enfoque es que no es necesario asumir un único prototipo con
el que se comparan los ejemplares, sino que la categorización será en función de la
semejanza entre ejemplar y todos los miembros de la categoría.
La explicación de los resultados obtenidos con los prototipos se debe a que
constituyen un patrón que presenta una semejanza alta con un gran número de
ejemplares.
Una de las ventajas de este enfoque es que no asume una única representación del concepto, sino
que se pueden utilizar varias representaciones dependiendo del criterio de semejanza y de los
ejemplares representados. Ello permite explicar:
Los resultados obtenidos con los prototipos al considerar que esta representación
mantiene el criterio de mayor semejanza dentro de un conjunto de ejemplares, y
Puede dar cuenta de la sensibilidad que muestran los sujetos ante otro tipo de
información: correlaciones entre propiedades, rango de la propiedad y el contexto.

Apuntes de M. Goretti González completados y modificados por Marina Uned


7

Al asumir representaciones concretas de los ejemplares, se dota a la categorización de


una enorme flexibilidad para utilizar y relacionar toda la información representada
según los objetivos planteados en cada situación.
Barsalou pone de manifiesto que la categorización también ha de ser flexible como para explicar la
agrupación temporal de unas propiedades.
Algunos conceptos se generan sólo en un contexto muy determinado, presentando
ejemplares que en otros contextos pertenecerían a otras categorías.
Ejemplo: se pide a un sujeto que enumere aquellos objetos de su casa que salvaría de
un incendio: joyas, cuadros, documentos,... y estos formarían temporalmente una
nueva categoría.
Estos conceptos, “dirigidos por metas” pueden presentar efectos de tipicidad, aunque
la base de estos efectos es cualitativamente distinta. El parecido familiar no predice la
tipicidad, sino que esta se encuentra determinada por el peso de las propiedades en
el contexto.
Los resultados de los estudios de las propiedades temporales (como los de los ejemplares) ponen de
manifiesto que la inducción categórica es un proceso muy flexible en el que es necesario explicar
tanto la estabilidad como la inestabilidad de las categorías.
Las críticas del modelo de los ejemplares se centran en:
La necesidad de contemplar las generalizaciones que se producen durante el
aprendizaje y
la necesidad de especificar el criterio de coherencia interna que limite el ámbito de la
categorización.
También se han propuesto modelos mixtos:
Los que el enfoque de los ejemplares se complementa con algún nivel de abstracción
que se corresponde con el prototipo o
modelos que dan cuenta de cómo puede surgir la abstracción a partir de la
representación de los ejemplares.
El mayor problema es poder identificar cuáles son las restricciones que se imponen sobre este
proceso como para permitir que el sistema manifieste en todo momento un comportamiento
coherente a la hora de categorizar el mundo.

Apuntes de M. Goretti González completados y modificados por Marina Uned


8

3. La combinación de conceptos
Hasta ahora se ha tratado la categorización como centrada sólo en conceptos individuales aunque en
la experiencia la información conceptual se combina para producir conceptos como sofá cama,
sangre azul,… Esta capacidad infinita para la formación de conceptos complejos a partir de una base
conceptual finita se conoce como la composicionalidad del pensamiento. Ilustra la productividad y
flexibilidad del proceso de categorización y la dificultad de caracterizar monolíticamente al sistema
de procesamiento humano.

3.1. Modelo de modificación selectiva


Osherson y Smith abordaron la problemática del cómputo de la tipicidad de los conceptos
compuestos a partir de los conceptos prototípicos que lo constituyen.
Los partidarios de la teoría del prototipo asumían que ésta podía formalizarse por medio de la teoría
de los conjuntos difusos y para la explicación de la combinación conceptual se basaban en que el
juicio de tipicidad sobre un concepto compuesto no podía ser mayor que la tipicidad de sus
conceptos simples. El significado de un concepto representado por una palabra se corresponde con
el conjunto de ejemplares denotados por esa palabra.
Ejemplo: el significado del concepto sofá se refiere al conjunto de todos los sofás y el concepto cama
se refiere al conjunto de todas las camas. El resultado de la combinación de ambos conceptos es la
intersección de ambos conjuntos.

En la representación del conjunto de ambos conceptos, la intersección entre ambos no puede ser
mayor que sus conjuntos constituyentes.

Apuntes de M. Goretti González completados y modificados por Marina Uned


9

Esta teoría permite calcular el grado de pertenencia categórica de un ejemplar por medio de la
función

CA: U  [0,1]
Esta función de pertenencia expresa el grado, en un intervalo de entre 0 y 1, en que
un ejemplar x de un Universo de discurso (U) pertenece al conjunto difuso A.
Para el caso de la conjunción de dos conjuntos A y B, CA^B, se establece que el valor de
la pertenencia categórica de un concepto compuesto x es el mínimo de sus valores de
pertenencia a sus dos conjuntos constituyentes:

CA^B (x) = valor mínimo de [CA (x), CB (x)].


Ejemplo: para un ejemplar del concepto sofá cama podríamos haber obtenido el valor
de pertenencia de 0,75 en el conjunto sofás y un valor de pertenencia de .40 en el
conjunto cama”. Aplicando la regla del valor mínimo obtendríamos para el concepto
compuesto un valor de pertenencia categórica de .40  (valor mínimo de (0.75, 0.40)
= 0.40]

Sin embargo, Osherson y Smith, encuentran que las predicciones de la teoría de los conjuntos difusos
no se cumplían en los juicios de tipicidad sobre la conjunción de conceptos y proponen un modelo que
denominan Modelo de modificación selectiva para poder explicar el proceso de combinación
conceptual dentro del marco teórico de los prototipos.
Su desarrollo fue debido a querer explicar algunos resultados sobre los juicios de tipicidad de
conceptos compuestos por la combinación sustantivo-adjetivo. Los sujetos consideraban que la
tipicidad de un concepto compuesto era mayor que la de algunos de los conceptos simples que lo
constituían.
Resultado 1: si se evaluaba la tipicidad de un ejemplar particular de “sangre roja” éste
era mayor en el compuesto “sangre roja” que en “sangre” a secas.
Resultado 2: estos juicios de tipicidad eran mayores cuando los conceptos compuestos
reunían conjunciones incompatibles como “sangre azul” en las que los adjetivos
denotan un valor poco frecuente. El grado
de tipicidad de un ejemplar de “sangre azul” para el concepto compuesto “sangre
azul” frente al concepto simple “sangre” era mayor que la tipicidad de un ejemplar de
“sangre roja” frente al concepto simple “sangre”.
Resultado 3: al evaluar la tipicidad de un ejemplar compuesto que no pertenecía a esa
categoría, por ejemplo un ejemplar de “sangre roja” dentro de la categoría o
concepto “sangre azul”, se encontraba que la tipicidad era menor para el caso del
concepto compuesto que para el concepto simple (cuando se evaluaba con respecto a
“sangre azul” que cuando lo era respecto a “sangre”).

Apuntes de M. Goretti González completados y modificados por Marina Uned


10

Estos resultados se conocen como el efecto de la conjunción.

Apuntes de M. Goretti González completados y modificados por Marina Uned


11

El modelo de modificación selectiva parte de una representación prototípica conforme a una


estructuración conceptual en la que se incluyen los atributos (color) con pesos diagnósticos y los
valores de estos atributos (rojo, amarillo, azul,...) se encuentran ponderados con respecto a su
prominencia.
Ejemplo: el atributo color para el concepto sangre tendría el valor rojo y será más
prominente comparado con otros valores como el estado líquido. Se refiere a que si
voy a describir por ejemplo la palabra, categoría o concepto sangre, no pensaré
inicialmente en líquido, sino en color, para describirlo ya que el color tiene un valor
diagnóstico alto que permitirá discriminarlo frente a otros líquidos: leche, agua,...

El procedimiento para la combinación conceptual asume que cada constituyente del concepto
compuesto desempaña un papel distinto y asimétrico, y éste no puede explicarse por la simple
intersección de las propiedades de sus conceptos constituyentes.
Ejemplo: la combinación entre “sofá” y “cama” no es igual en “sofá cama” que en
“cama sofá”.
El proceso de modificación selectiva parte de la identificación del concepto que desempeña la
función de sustantivo como marco conceptual sobre el que se va a operar y del concepto que
desempeña la función de adjetivo como aquello que opera o modifica.
Éste último pone en marcha la selección de propiedades que se ponen en
correspondencia entre ambos conceptos y las propiedades seleccionadas adquieren
mayor prominencia y valor diagnóstico.
Ejemplo: el concepto compuesto sofá cama, la propiedad sirve para dormir del
concepto cama (función adjetivo) se pone en correspondencia con esa propiedad o una
análoga del concepto sofá (también se duerme y descansa en ellos) haciéndola más
prominente y diagnóstica.

Para determinar el cómputo de tipicidad de un ejemplar se utiliza la regla de contraste de Tversky,


que calcula la semejanza mediante el contraste entre las propiedades comunes y no compartidas
entre ejemplar y prototipo.
La semejanza se entiende que es una función creciente de las propiedades que son
comunes al prototipo y al ejemplar, y una función decreciente de las propiedades no
compartidas entre ambos. Cada propiedad conlleva un índice que pondera la
prominencia y el valor diagnóstico de los atributos.
Ejemplo: al evaluar un ejemplar del compuesto “sangre roja” encontramos que éste es
más típico del concepto “sangre roja” que de “sangre” porque el atributo color rojo ha
incrementado su valor y prominencia en el concepto compuesto.

Apuntes de M. Goretti González completados y modificados por Marina Uned


12

Ejemplo 2: para el caso de conceptos compuestos incompatibles como “sangre azul”


se encuentra que un ejemplar de éste se considera más típico del concepto sangre
azul que sangre.
En ambos casos, el color cambia la ponderación en función del valor rojo o azul,
entonces se puede explicar que el concepto compuesto compatible “sangre roja” se
considere más semejante al concepto simple “sangre” con el que comparte el valor
rojo que al concepto incompatible “sangre azul”.
Igualmente se explica que las conjunciones incompatibles como “sangre azul” se
evalúan como más típicas que las conjunciones “sangre roja” porque en este caso se
sólo ha ponderado el valor azul, sino que la diagnosticidad del atributo color ha
aumentado.

El modelo de modificación selectiva ofrece un procedimiento concreto y especificado para el cálculo


de la tipicidad de los conceptos compuestos pero es muy simple y limitado.
Limitaciones:
Está diseñado para conceptos compuestos con sintaxis: sustantivo-adjetivo. La
combinación de dos conceptos bajo otra forma sintáctica puede dar lugar a que un
concepto se considere igual al otro y su combinación conceptual se ajuste a la
intersección de ambos.
Trata adjetivos simples y que presumiblemente sólo afectan a una propiedad del
prototipo, pero hay adjetivos más complejos. Algunos simples como el color pueden
relacionarse con otros, como color verde con el grado de acidez. Estas relaciones
entre las propiedades forman parte del prototipo y el cambio en el valor de un
atributo también modifica al resto de los atributos relacionados.
Incluso en el caso de un adjetivo simple como el color parece que tiene que haber
algo más en el concepto compuesto sangre azul que la mera ponderación de la
prominencia y la diagnosticidad del color.

3.2. Modelo de especialización conceptual


Un modelo más amplio que considera que la combinación conceptual es un proceso guiado por el
conocimiento. El modelo de especialización conceptual de Cohen y Murphy asume que:
Los conceptos simples se encuentran representados por esquemas que estructuran el
conocimiento con variables y valores. En el caso de los compuestos hay un concepto
principal y otro que lo modifica, dando como resultado la especialización detallada de
los valores del concepto principal.
En esto el Modelo de modificación selectiva y el modelo de especialización conceptual
son semejantes  asumen representación asimétrica en la combinación conceptual.

Apuntes de M. Goretti González completados y modificados por Marina Uned


13

La diferencia entre ambos radica en que para el modelo de especialización conceptual


este proceso no es posible sin antes acceder a la base de conocimientos que tiene el
sujeto.
Antes de iniciar el proceso de categorizar se tiene que consultar la base de conocimientos para
decidir cuál variable es la más apropiada para el proceso de especialización y una vez hecha la
especialización se debe ampliar y refinar el nuevo concepto con el fin de que sea coherente y
completo.
Ejemplo: en “sangre azul”, podemos ver ahora cómo el valor “azul” para el atributo
color no sólo se pondera en prominencia y diagnosticidad, sino que se tiene que
poner en relación con el conocimiento que tenemos sobre el lenguaje figurado. Azul
no hace referencia al color de la sangre y este concepto se completará con otras
propiedades atribuidas al linaje noble.
Se puede decir que el modelo de modificación selectiva forma parte del modelo de especialización
conceptual pues comparten aspectos muy semejantes.
El primero aporta un procedimiento detallado para el cómputo de los conceptos
compuestos y el segundo ofrece un marco teórico mucho más amplio en el que
explicar la riqueza de la representación conceptual.
Los aspectos específicos del primero marcan su limitación y la riqueza conceptual del
segundo no se ha hecho explicita como procedimiento computacional bien
delimitado.

3.3. Modelo híbrido de ejemplares y teorías previas


Medin y Shoben proponen un modelo híbrido que conjuga la representación de ejemplares y el
conocimiento del mundo.
Es una propuesta aún más inespecífica pero que contempla aspectos centrales del
proceso de combinación conceptual.
Los autores muestran a través de sus resultados experimentales algunas de las
insuficiencias del modelo de modificación selectiva y la necesidad de una teoría de la
estructuración conceptual más completa y con mayor capacidad de cómputo.
Los conceptos tienen una estructuración interna rica en el número de relaciones que se establecen
entre sus propiedades siendo una limitación del modelo de modificación selectiva:
Asume que las propiedades son independientes y que el cambio en una de ellas no
afecta al resto.
Esta relación entre las propiedades de un concepto fluctúa en función del contexto y el papel que
desempeña una propiedad determina su valor crítico para el concepto.

Apuntes de M. Goretti González completados y modificados por Marina Uned


14

Los resultados de Medin y Shoben pusieron de manifiesto que el cambio en el valor de una de las
propiedades del concepto provocaba también el cambio en los valores de las propiedades
relacionadas.
Ejemplo: en el caso de evaluar la tipicidad de una “cuchara de madera” y una “cuchara
de metal”, los sujetos consideraban que la “cuchara de metal” era más típica del
concepto simple “cuchara” que la “cuchara de madera”, pero la “cuchara de metal”
era menos típica del concepto “cuchara grande” que la “cuchara de madera”.
De acuerdo con el modelo de modificación selectiva, la diferencia entre “cuchara de
metal” y “cuchara de madera” con respecto al concepto simple “cuchara” está en los
pesos de la dimensión tipo de material. El concepto compuesto “cuchara grande”
tendría un peso mayor en la dimensión tamaño que el concepto “cuchara” y cabría
esperar que si el concepto compuesto “cuchara de metal” es más típico del concepto
“cuchara” que el concepto “cuchara de madera” entonces también tendría que ser
más típico en el caso del concepto compuesto “cuchara grande” dado que en los dos
conceptos anteriores no hubo cambio en la dimensión tamaño. Sin embargo, se
encontró que había una interacción entre las dimensiones tipo de material y tamaño y
se reflejaba en los juicios de tipicidad.

Con respecto al contexto, los autores encontraron que:


El patrón de semejanza variaba en función del sustantivo sobre el que se aplicaban los
adjetivos.
Ejemplo: Los mismos adjetivos, negro, gris y blanco, aplicados a conceptos distintos,
como “nube” y “pelo”, los sujetos consideraban blanco y gris más semejantes para
pelo, y negro y gris semejantes para nube.
La misma propiedad puede ser más crítica para un concepto que para otro.
Ejemplo: La propiedad de “ser curva” era diferente si se trataba de un plátano que si
era un boomerang. Un “plátano no curvo” era más típico de “plátano” que un
“boomerang no curvo” de “boomerang”.
Por tanto parece que en la estructuración conceptual hay algo más que el simple
cómputo de pesos en las distintas propiedades, y parece que toda la información
sobre las relaciones entre propiedades no se encuentre directamente representada
con el concepto, sino que puede ser procesada según se necesite.

Apuntes de M. Goretti González completados y modificados por Marina Uned


15

3.4. Modelo de especialización conceptual ampliado


La investigación sobre combinación conceptual es bastante más amplia y pone de manifiesto las
distintas relaciones que se pueden establecer entre los conceptos.
Wisniewski presenta un análisis bastante exhaustivo sobre combinación conceptual “sustantivo-
sustantivo” e identifica tres tipos básicos de combinaciones. Los conceptos pueden hacerlo por:
I. Relación entre concepto base y el concepto que lo modifica: perro policía
II. Por una o más propiedades que se aplican sobre el concepto base: pez martillo
III. Por una combinación híbrida de los dos conceptos: aparta-hotel donde se da algunas
propiedades de hotel y apartamento o una conjunción de ambos).
Las investigaciones sobre la combinación sustantivo-sustantivo se han centrado en las
combinaciones que se generan por la relación entre el concepto base y el concepto modificador.
Se han llegado a identificar las relaciones básicas mediante las que se pueden
combinar los conceptos y se asume que la frecuencia con la que se ha utilizado el
concepto modificador y las relaciones básicas influyen sobre la interpretación de los
nuevos conceptos combinados.
Otra perspectiva asume una representación por esquemas en la que el concepto
principal adopta la relación del concepto modificador. Ejemplo: “pez martillo”, el
esquema de concepto pez adopta en la variable forma el valor martillo.
Wisniewski amplía el modelo de especialización conceptual añadiendo los procesos de comparación y
construcción para los conceptos compuestos por propiedades y combinaciones híbridas.
Estos procesos son semejantes a los propuestos por Gentner para explicar el
razonamiento analógico.
Son necesarios para determinar las semejanzas y diferencias entre el concepto base
(pez) y el que lo modifica (martillo) e integrar la nueva información para la formación
del nuevo concepto combinado.
Las propiedades no se suman al nuevo concepto, sino que se crean produciendo un
cambio conceptual.

Apuntes de M. Goretti González completados y modificados por Marina Uned


16

4. El proceso de categorización
Una buena parte de las investigaciones se apoyan directa o indirectamente en la noción de
semejanza.
En las propiedades prototípicas habíamos comentado que determinados ejemplares
se consideraban más típicos o más representativos que otros, y cómo la tipicidad de
un ejemplar era una medida de la semejanza del ejemplar con su prototipo.
En el enfoque de los ejemplares se rechaza la idea de un prototipo y se defiende la
categorización como cómputo de la semejanza entre los ejemplares, en lugar de una
descripción unitaria de la clase como un todo. Este presenta la ventaja de no restringir
mediante una descripción abstracta los ejemplares que se agrupan en una categoría.
La categorización se entiende como el cómputo de semejanza entre las propiedades de
un ejemplar y el resto de los ejemplares. La semejanza es una función acelerada de la
proporción de propiedades que han sido emparejadas.
La semejanza parece ser lo que hace que una categoría pueda juntar un conjunto de ejemplares. Sin
embargo, es un término escurridizo.
Aunque los miembros de una categoría parecen semejantes es recursivo ya que
encontramos que muchas cosas parecen semejantes por el solo hecho de pertenecer
a la misma categoría.
La estimación que hacen los sujetos sobre la semejanza puede estar influida por el
propio conocimiento de que aquello que se compara pertenece a la misma categoría.
Según Tversky, la semejanza se define en función de las propiedades que son comunes y distintivas en
un conjunto de ejemplares, pero que se encuentran ponderadas en términos de su saliencia.
Depende de las ponderaciones de las propiedades, lo que nos permite explicar por qué la
ballena se agrupa a mamífero, a pesar del nº de propiedades en común que posee con los
peces. El conocimiento teórico ha permitido ponderar diferencialmente unas propiedades
frente a otras: se recurre a las propiedades diagnósticas para arbitrar esta categorización.
Tversky demuestra cómo las ponderaciones varían en función del contexto y de la tarea
experimental, dando lugar a que no existe una respuesta unívoca a la pregunta de cuán semejante es
un objeto con respecto a otro. Además, la ponderación de una propiedad tampoco es independiente
de la entidad en la que se encuentra inmersa.
Una propiedad es aquello que por consenso se ha validado en una muestra de sujetos.
Sin embargo, la consideración del conjunto implícito de contraste y el nivel de
especificidad elegido determinan las propiedades que se incluyan en las listas de los
sujetos. Estos no enumeran todo lo que conocen, sino las propiedades relevantes en
esa situación.

Apuntes de M. Goretti González completados y modificados por Marina Uned


17

Frente a este principio general de semejanza, otros enfoques proponen que es el propio
conocimiento que tienen los sujetos y sus teorías ingenuas sobre el mundo lo que restringe la
construcción y organización categórica.
De esta forma se entiende que la categorización no se da aisladamente sino que los
conceptos se organizan circunscritos al conocimiento estructurado o teorías ingenuas
que tienen los sujetos y que les permite actuar coherentemente.
La categorización basada en el conocimiento organizado permite articular las
relaciones inter e intracategoriales de modo que la estructuración conceptual no se
reduzca a listas de propiedades sino que se encuentre inmersa en un cuerpo de
conocimientos con estructura y coherencia.
Bajo este enfoque de una categorización guiada por el conocimiento podemos incluir aquellas
teorías que asumen una representación de la información en estructuras de conocimiento, tales
como los esquemas, los guiones, los marcos o los modelos mentales.
Abelson ya consideraba que los esquemas o guiones pueden equipararse a una
categoría en la que también cabe el parecido familiar entre diversos ejemplares.
Ahora bien, en contraposición al prototipo, un esquema no necesita especificar los
valores de sus propiedades, sino que estas propiedades (variables) son genéricas y
adoptan valores en función del contexto.
La idea del proceso de inducción categórica será distinta dependiendo del tipo de
estructura que se propaga para representar el conocimiento, por ejemplo, la
aplicación de reglas, la generación de modelos mentales, el emparejamiento de
patrones,...
Las teorías que se explican a continuación explican la flexibilidad de este proceso y pertenecen al
marco cognitivo de los modelos computacionales, aunque sus supuestos básicos son diferentes.

 La inducción categórica como sistema de reglas distribuidas.


Paradigma simbólico clásico: se utilizan símbolos atómicos para denotar las entidades
susceptibles de ser interpretadas semánticamente y dichas entidades se manipulan por las
reglas que definen el sistema.
Enfoque cercano a la perspectiva que defiende el principio de estructuración del
conocimiento para la explicación de las categorías aunque también recurre a la semejanza y
contempla el contexto.
 La inducción categórica como sistema de activación distribuida.
Paradigma conexionista que asume una representación próxima al funcionamiento neuronal.
Las entidades del modelo son patrones de activación sobre una serie de unidades del
sistema. Antes eran símbolos que se manipulaban por reglas, ahora son unidades a modo de
neuronas y las reglas son emparejamiento de patrones de activación.
Se encuentra próximo a la perspectiva que asume el principio de semejanza en el
emparejamiento de patrones como un procesamiento guiado por los datos y cuyas
representaciones están próximas al enfoque de los ejemplares.

Apuntes de M. Goretti González completados y modificados por Marina Uned


18

4.1. La inducción categórica como sistema de reglas distribuidas


Al principio se comentó que de una de las fuentes más emblemáticas de la categorización es la
clasificación y organización de los ejemplares. Sin embargo, otros autores indican que esta función
puede que sea una derivación de una función todavía más fundamental como es la generación de
inferencias relevantes para una meta. La evocación de un concepto ocurre cuando éste presenta una
relación explicativa suficiente del contexto en lugar del simple emparejamiento de propiedades.
Según este enfoque, los aspectos relevantes del proceso de categorización pueden determinarse
sólo si se tiene en cuenta la interacción entre las propiedades de los ejemplares y las situaciones
causales en las que ocurren.
El proceso que determina cuáles son los aspectos de los ejemplares que van a
ponderarse tiene que basarse en una explicación de por qué ciertas propiedades
asumen unos valores y otros no lo hacen.
Esto se resuelve por la representación de la incidencia estadística de las propiedades
que dirige estas inferencias. Sin embargo, se entiende que la ponderación de las
propiedades no es cuestión estática, sino dependiente del contexto y de las metas del
sistema.

El modelo se denomina esquemas de razonamiento pragmático y está enmarcado dentro del


paradigma de representación simbólica. Los supuestos son:
I. El sistema de procesamiento se concibe como un aplicador de reglas en el que las
agrupaciones de reglas consolidadas se denominan “esquemas”.
II. El procesamiento es paralelo y las reglas se encuentran distribuidas en varias estructuras de
forma que en un momento dado puedan ser complementarias o inhibitorias.
III. Las restricciones impuestas sobre el mecanismo de procesamiento con el fin de que éste
puede efectuar la ponderación se encuentran determinadas por el propio sistema y el
contexto.
Este conjunto de reglas agrupadas en esquemas caracterizan las relaciones entre una clase de
acontecimientos, objetos y metas. El sistema de procesamiento dirige sus inducciones en función del
contexto, generando reglas útiles en esa situación y futuras semejantes. Este proceso se guía por el
conocimiento previo que se activa en situaciones particulares.

Apuntes de M. Goretti González completados y modificados por Marina Uned


19

Este enfoque busca la combinación de dos aspectos clave: 1) la flexibilidad del proceso de
categorización, y 2) su organización.
La flexibilidad es la ejecución en paralelo de un conjunto de reglas. Aquellas que
muestren ser efectivas serán ponderadas y aquellas que no se modificarán o
eliminarán.
La organización se representa por las agrupaciones de reglas interrelacionadas con
condiciones o acciones que se solapan.
Estos aspectos procedimentales son comunes a los de los sistemas de producción de
Newell y Simon, que se basan en el emparejamiento cíclico y la ejecución de reglas de
condición-acción. La actividad se puede describir en términos de un ciclo de tres
pasos:
El emparejamiento de los hechos y reglas para determinar cuáles satisfacen las
condiciones.
La selección de un subconjunto de las reglas emparejadas para que sean
ejecutadas.
La ejecución de las reglas seleccionadas para que lleven a cabo las acciones
específicas.

Estas reglas están organizadas en función de los patrones de las condiciones y acciones dando lugar a
dos tipos de organización:
– La organización implícita: si la acción que es consecuencia de una regla satisface la
condición de una segunda regla, entonces la ejecución de la primera conducirá a la
ejecución de la segunda.
– La organización explícita: la conexión entre reglas viene indicada directamente y las
reglas que se activan conjuntamente quedarán conectadas con el tiempo formando
un conjunto interrelacionado de reglas.

4.1.1. Descripción del proceso de inducción categórica


Este modelo concibe las categorías como un conjunto de reglas agrupadas que comprenden
supuestos probabilísticos sobre las propiedades que ocurren con otras propiedades y en el que se
pueden activar simultáneamente varias reglas. Se corresponden con las agrupaciones de reglas
explícitas o implícitas en función del contexto en el que ocurran.
Cada uno de los nodos superiores representa la condición de una regla y los nodos intermedios
representan su acción correspondiente. El nodo C3 recibe el mayor apoyo y se disparará la acción
correspondiente: el ejemplar se categorizará como “perro”.

Apuntes de M. Goretti González completados y modificados por Marina Uned


20

Cuando las categorías no son mutuamente excluyentes, las reglas correspondientes pueden activarse
simultáneamente, de forma que, por ejemplo, un animal peludo con cola, puede categorizarse como
perro, gato o ardilla.
Cuando son mutuamente excluyentes, pueden disparar acciones que entran en conflicto, se
establecen reglas que inhiben a las reglas conflictivas.
En la figura 3.4 se ve cómo se complementan las reglas de la figura anterior con las reglas inhibitorias
que enlazan directamente con los nodos C. Se representan con líneas discontinuas debajo de los
nodos y hacen referencia a reglas tipo “si el nodo C3 está activado, entonces el C2 está inactivo”. Así
se puede integrar de forma flexible la presentación de información parcial o fragmentada.

Apuntes de M. Goretti González completados y modificados por Marina Uned


21

Además, cada una de las reglas cuenta con un valor de apoyo y una ponderación (figura 3.5).
En este caso concreto, la información que entra en el sistema apoya de igual forma a
los nodos representados. Sin embargo, la mayor ponderación previa del nodo 1 hace
que se considere la categorización tentativa.
Para evitar que el sistema genere generalizaciones poco plausibles, se cuenta con un
umbral de confirmación que establece un criterio para la variabilidad del conjunto de
propiedades que se están considerando. En este ejemplo no se alcanza el umbral de
confirmación por lo que se requiere mayor información para confirmar la
categorización.

Figura 3.5

En la concepción de este modelo se entiende que estas reglas son un conjunto de expectativas que
se consideran verdaderas siempre y cuando no se contradigan por la información presentada al
sistema.
En ausencia de mayor información, estas expectativas por defecto proporcionan el
mejor esquema para la situación actual.
La probabilidad condicionada de una categoría, considerando la observación de
algunos de los valores de las propiedades de un ejemplar, puede representarse
implícitamente por la fuerza de un conjunto de reglas. Estas reglas se organizan en
jerarquías por defecto que se ordenan por expectativas basadas en las relaciones
subordinadas y supraordenadas.
A través de la organización explícita (por medio de los marcadores que indican una
conexión directa) se enlazan las relaciones entre las categorías.

Apuntes de M. Goretti González completados y modificados por Marina Uned


22

En virtud de estos marcadores, un objeto dentro de una categoría se encuentra


implícitamente De esta forma, la categorización no depende de una descripción
monolítica, sino de una combinación de propiedades y situaciones. También se evita
el problema computacional de representar un nodo para cada conjunto de
propiedades.

A través de estas jerarquías por defecto se pretende representar la incertidumbre sobre la que tiene
que operar el sistema: en un nivel las generalizaciones que son útiles y en otro nivel, la información
más específica de las excepciones representándose la uniformidad y la variabilidad que existe en el
ambiente.
Se asume también que los sujetos representan la variabilidad del objeto con respecto
a un tipo de propiedad. El número de ejemplares necesarios para alcanzar una
generalización será función de esta variabilidad.
Cuando existen pocos niveles excepcionales la generalización con pocos ejemplares
será automática. Cuando existen muchas excepciones, entonces serán débiles.

Los grados de tipicidad pueden interpretarse en términos de la organización de una jerarquía.


El modelo mental de un objeto particular sería un conjunto de reglas derivadas de una
variedad de conceptos supraordenados más cualquier información particular
disponible.
Los ejemplares típicos serán aquellos a los que se adhieren las reglas por defecto de
las categorías supraordenadas, mientras que los ejemplares atípicos se emparejarían
con reglas excepcionales.
Lo que se propone desde el modelo es una abstracción y representación del
conocimiento general de las distribuciones de las propiedades por medio de las
agrupaciones de reglas. Se puede acceder a un prototipo siempre y cuando lo requiera
la situación, pero también puede existir una amalgama de supuestos por defecto.
Los resultados ponen de manifiesto que los sujetos saben mucho más de la estructura
categórica que la simple formación sobre las tendencias centrales o prototipos.
Resumen: En este modelo se intenta explicar la compleja red de relaciones en función del
conocimiento que el sujeto construye en términos causales y que algunos como Murphy y Medin
1985 denominan conocimiento teórico.
Las teorías que se construyen explican el mundo y en función de ellas, éste se divide en clases. El
paradigma simbólico explica la categorización fundamentándose en el conocimiento que se
construye sobre el mundo que nos rodea y que constituye una Tª sobre el mismo.

4.2. La inducción categórica como sistema de activación distribuida

Apuntes de M. Goretti González completados y modificados por Marina Uned


23

Este es un modelo conexionista que comparte con el anterior algunos principios generales, aunque
este enfoque conexionista parte de otros supuestos.
Uno de estos, en contraposición al paradigma simbólico clásico, se refiere al tipo de
arquitectura del modelo.
El sistema de procesamiento del enfoque conexionista se encuentra constituido por
redes de activación que comprenden un conjunto amplio de unidades de
procesamiento unidas por conexiones con pesos diferenciados.
Estos modelos describen los procesos mentales en términos de los patrones de activación en un
conjunto de unidades y no por unidades particulares.
Las unidades son entidades de procesamiento que asumen unos valores de activación
basados en la suma ponderada de lo que entra en el sistema y de las otras unidades
que están dentro del sistema.
El papel que desempaña una unidad se define por la fuerza de sus conexiones, tanto
excitatorias como inhibitorias. Las conexiones son el medio por el cual interactúan las
unidades.

Computan por medio de las conexiones entre unidades de procesamiento. Se les conoce como
modelos PDP o de procesamiento distribuido y paralelo, queriendo destacar que el procesamiento es
resultado de las interacciones que ocurren entre un número importante de unidades.
Aunque se podría pensar que las jerarquías por defecto (modelo anterior) son
análogas a las unidades, dado que ambas guían la entrada de información en la
búsqueda de buen ajuste, no hay en estos modelos conexionistas ningún análogo de
las variables o de los valores por defecto. No existe ninguna noción sobre una
estructura interna constituida y la aparente aplicación de reglas emerge de las
interacciones entre unidades de activación.
En este tipo de modelo el conocimiento adopta la forma de una red que satisface restricciones, y
éstas vienen impuestas por el contexto.
Aunque en el modelo anterior también las restricciones contextuales desempeñaban un papel
fundamental, en estos modelos no existen entidades representacionales que se correspondan con
conceptos, jerarquías por defecto o esquemas. Estas entidades se encuentran implícitas y emergen de
las interacciones de un amplio conjunto de restricciones.

El modelo que se va a analizar pertenece a los modelos de satisfacción de restricciones, que simulan
un proceso que satisface simultáneamente un nº considerable de restricciones y en el que no hay
solución única. Las restricciones están implícitas en el patrón de interacción y determinan los
estados del sistema, interactuando con la entrada de información.

Apuntes de M. Goretti González completados y modificados por Marina Uned


24

La relevancia diferencial de las restricciones se refleja en la fuerza de conexión entre unidades. Cada
una de las cuales presenta también un sesgo, reflejando la probabilidad a priori de estar activadas. El
ajuste global que alcanza el sistema es la suma de los grados en que cada par de unidades contribuye
a la bondad del ajuste, más el grado en que las unidades satisfacen las restricciones de la entrada de
información.

4.2.1. Descripción del proceso de inducción categórica

En la tabla aparecen los términos presentados para que los sujetos evaluaran su pertenencia
categórica en una serie de habitaciones.
Algunos detalles a tener en cuenta, sería que las propiedades se encuentran distribuidas por toda la
red y la fuerza de sus conexiones hace que el patrón adquiera una configuración determinada.
Estas redes de activación son sistemas de procesamiento que pueden computar estadísticos sobre sí
mismas de forma que reflejen las fluctuaciones de ambiente del que se derivan sus datos.
El procesamiento ocurre por medio de la evolución de estos patrones de activación, que van
actualizando los pesos entre conexiones.

Apuntes de M. Goretti González completados y modificados por Marina Uned


25

Cualquier configuración inicial con elementos activos e inactivos puede evolucionar hacia una
configuración estable partiendo de unos pesos iniciales.
Se asume que cada vez que entra una estimulación en el sistema, éste se mueve hacia un estado
estable en el que se alcanza una bondad de ajuste máxima (es un sistema reactivo guiado por los
datos).

Cuando entra información en el sistema, todas las unidades ajustan su activación con el fin de
satisfacer el mayor número posible de restricciones. Se podría pensar que el sistema se encuentra
continuamente esculpiendo una superficie en función de aquello que va recibiendo y de las
interacciones con el resto de unidades.
En el enfoque conexionista, y más concretamente en los modelos que se conocen como modelos de
satisfacción de restricciones, se reemplaza el marco simbólico por un nivel subsimbólico,
denominado así por encontrarse entre las conexiones neuronales y los cómputos mentales.
Conviene recordar que los constructos del cómputo mental son datos cognitivos que se explican por
un sistema próximo en su funcionamiento al nivel neuronal.

Apuntes de M. Goretti González completados y modificados por Marina Uned


1

Tema 4 El razonamiento silogístico: categórico y transitivo


1. Introducción
La psicología del razonamiento ha planteado sus investigaciones de acuerdo con las dos modalidades
generales de inferencia: las deductivas y las inductivas.
Las inferencias deductivas se siguen necesariamente de una información a otra. Esta
permite alcanzar una conclusión que se siga necesariamente de las premisas del
argumento.
Cuando la psicología se planteó el estudiar el razonamiento humano importó el
modelo lógico y las investigaciones se centraron en el análisis del rendimiento en
función del criterio de validez lógica. En las tareas que se presentan se pide a los
sujetos que evalúen si el argumento es válido o inválido, que elija de entre varias
conclusiones, cuál es la que se sigue necesariamente de las premisas o que generen
su propia conclusión en función de las premisas presentadas.
El interés y reto de la psicología del razonamiento es explicar cómo razonan los sujetos
y por qué se equivocan.

Los errores encontrados en la realización de estas tareas de razonamiento deductivo ha dado lugar a
distintos enfoques teóricos.
Éstos van desde aquellos que consideran irrelevantes los principios lógicos en la
explicación del razonar hasta los que defienden una lógica mental, que puede estar
más o menos suavizada por el concepto de “lógica natural”, pero en la que hay un
conjunto de reglas abstractas y en la que los errores no demuestran el fracaso de
razonar lógicamente, sino la existencia de determinadas condiciones que conducen al
error.
Según el tipo de argumento deductivo, las investigaciones se pueden agrupar en tres: razonamiento
silogístico categórico (proposiciones con cuantificadores), razonamiento silogístico transitivo
(proposiciones con relaciones internas) y el razonamiento proposicional (proposiciones con el
condicional, bicondicional, negación y disyunción).

Apuntes de M. Goretti González completados y modificados por Marina Uned


2

2. Razonamiento silogístico categórico


El análisis de la deducción se centra en el establecimiento de las conexiones encadenadas por medio
de la cópula “es”.
Un argumento categórico está constituido por dos premisas y una conclusión en la que
se establece una nueva conexión a través del término medio.
La premisa que contiene el sujeto de la conclusión es la premisa menor y la que lleva
al predicado, es la mayor.
La estructura habitual presenta primero la premisa mayor, en la que se relaciona el
término medio y el predicado de la conclusión, y luego la menos, en la que se
relaciona el término medio y el sujeto de la conclusión. En la estructura se presenta:

- La primera premisa del silogismo es la premisa mayor al constituirse en el predicado de la


conclusión y que la segunda premisa es la premisa menos al ser sujeto de la conclusión.
- El sujeto de la conclusión es la letra C, el predicado A y el término medio B.

Los silogismos también contienen enunciados de cantidad (universal: todos, ninguno; particular:
algún, algunos) y de polaridad (afirmativa o negativa) dando lugar a cuatro tipos de proposiciones:
universal afirmativa, universal negativa, particular afirmativa o particular negativa.

Apuntes de M. Goretti González completados y modificados por Marina Uned


3

También hay que tener en cuenta la posición del término medio (B) en cada una de las premisas.
Existen cuatro posiciones que dan lugar a cuatro figuras del silogismo categórico.

Existen 256 silogismos posibles de la combinación de los cuatro enunciados en las dos premisas y la
conclusión y en las cuatro figuras (4 x 4 x 4 x 4). Pero de todos ellos, solo 24 silogismos categóricos
son válidos.

El número total de silogismos válidos incluye todas las conclusiones válidas, sean fuertes o débiles.
Se considera que una conclusión válida es débil si se obtiene una conclusión particular cuando se
permite una conclusión universal.
Todos los hombres prudentes evitan el tabaco.
Todos los médicos son hombres prudentes.
En consecuencia, todos los médicos evitan el tabaco.
Pertenece a la Figura 1:

La estructura del modo de este silogismo es AAA porque las dos premisas y la conclusión son
enunciados universales afirmativos. La conclusión universal afirmativa es la conclusión válida fuerte.
Esta conclusión también garantiza la validez de la conclusión débil con la particular afirmativa
“algunos médicos evitan el tabaco” (AAI).

Apuntes de M. Goretti González completados y modificados por Marina Uned


4

Algunos autores no hacen esta diferencia y solo consideran las conclusiones fuertes en el número de
silogismos válidos, siendo 19 los considerados:

En un estudio que hizo Johnson -Laird y Steedman (1978) se encuentra que no siempre se considera
la segunda premisa como sujeto de la conclusión, produciéndose conclusiones en ambos sentidos.
C – A (que sería lo que se supone sería la forma de cualquier conclusión en cualquier
figura, por eso todos la tienen así en el cuadrito de arriba) y también se concluye con
la forma A – C.
Cuando se consideran ambos tipos de conclusiones, el número total de silogismos es 512. Los
resultados mostraron un efecto de la figura para los silogismos de las Figuras 4 y 1.
En concreto, la mayoría (71%) daban una conclusión A-C para los silogismos de F4 y otro tanto, daba
la conclusión de C-A para la F1.
Desde la estructura lógica tradicional del argumento, las conclusiones A—C se ajustan a un cambio
de orden de las premisas y a un posible cambio de término medio. En el caso de las conclusiones A –
C de la figura 4, lo que se hace es invertir el orden de las premisas y así la figura 4 se convierte en
figura 1. Sin embargo, la posición del término medio no se altera al cambiar el orden de las premisas
en las Figuras 3 y 2.

Apuntes de M. Goretti González completados y modificados por Marina Uned


5

Los trabajos experimentales sobre el silogismo categórico se centran en el cómo influyen los aspectos
estructurales y de contenido en el rendimiento de los sujetos. El rendimiento de los sujetos ha sido
variable, desde 89% de respuestas correctas hasta un 8%.

2.1. La hipótesis de la atmósfera de las premisas


Es una de las primeras aproximaciones que se dieron para explicar el rendimiento de los sujetos. La
hipótesis de la atmósfera no es una teoría, sino una explicación basada en la tendencia que se
observa en los sujetos al dar sus respuestas y que parecía determinada por los aspectos estructurales
del silogismo.
Uno de los primeros trabajos experimentales fue el de Woodworth y Sell. Presentaron una tarea en
donde se debía evaluar la validez de los argumentos.
Resultados: encontraron que se equivocaban y que los errores se explicaban por el
modo de las premisas.
Cuando las dos premisas eran UNIVERSALES (A, E) afirmativa o negativa, mostraban
tendencia a elegir una conclusión UNIVERSAL y cuando las dos premisas eran
afirmativas (A, I) daban conclusión afirmativa. Este aspecto estructural del silogismo
creaba lo que describieron como “una atmosfera”, que inducía a la elección de una
conclusión del mismo tipo.
Begg y Denny explicitaron los principios del efecto teniendo en cuenta cantidad (universal y
particular) y cualidad de las premisas. Ampliaron el efecto para las premisas heterogéneas:
– Cuando las premisas contienen al menos una premisa particular, entonces la
conclusión es particular, y en el caso contrario es universal, y
– Cuando contienen al menos una premisa negativa, entonces la conclusión es
negativa, y en el caso contrario, afirmativa.
Lo enunciaron como “Efecto atmósfera” siendo objeto de estudio para investigaciones
que querían averiguar sobre identificación y análisis de los errores.
Sells indica que puede ser debido a un principio general de prudencia por el que se supone que las
conclusiones son menos prudentes que las particulares, lo que explicaría la preferencia que
muestran los sujetos por las conclusiones particulares.
No ha tenido demasiada aceptación, sobre todo porque los sujetos producen pocas
conclusiones particulares negativas (O), resultado contrario con el principio de
prudencia.

Apuntes de M. Goretti González completados y modificados por Marina Uned


6

La tendencia no lógica del efecto atmósfera en los resultados puede predecir un porcentaje
aceptable de respuestas. Sin embargo, tiene limitaciones:
Los propios autores, reconocieron luego que el efecto solo explicaba la tendencia al
error, pero que no era una verdadera teoría del razonamiento.
También al encontrarse que el efecto es distinto para los silogismos válidos que para
los no válidos, parece que debería haber algún proceso de inferencia además del
sesgo en la respuesta.
Tampoco predice los distintos niveles de dificultad de los silogismos categóricos.
Además, predice que siempre se dará una conclusión, cuando los resultados indican
que no siempre se da conclusión válida cuando la tarea es de producción.
Conclusión: si bien la hipótesis de la atmósfera de las premisas no es propiamente una teoría que
explique la tendencia al error basada en el modo de las premisas, los efectos que predice son
importantes para ser explicados.

2.2. Modelos basados en la interpretación de las premisas


Chapman y Chapman señalaban que el efecto atmósfera podía ser más una ilusión de irracionalidad.
Explicaban los resultados de sus estudios por la conversión ilícita de las premisas y por la inferencia
probabilística.
El principio de inferencia probabilística: supone que mostramos una consistencia interna en su
razonamiento pero con una regla errónea. Esta conduce a que consideremos que las entidades que
comparten determinadas propiedades tendrían mayor probabilidad de compartir otras relaciones.

La conclusión relaciona C con A apoyándose en B (que comparten A y C), y bajo el supuesto de que
tener en común dicha propiedad hará más probable que C y A se encuentren relacionados. Si le
damos contenido vemos que la conclusión no se sigue necesariamente de las premisas.

La hipótesis sobre la conversión ilícita es un error en la interpretación de la universal afirmativa y de


la particular negativa, sin aludir al efecto atmósfera y sin hacer referencia a una regla de inferencia
falsa. El error ocurre cuando se interpreta que la premisa universal afirmativa A, “Todos los A son B”
es equivalente a “Todos los B son A”; y que la premisa Particular negativa O “Algunos A no son B” es
equivalente a “Algunos B no son A”. Cabe decir que sí es lícita para las premisas en el modo universal
negativa y particular afirmativa (E – I).

Apuntes de M. Goretti González completados y modificados por Marina Uned


7

La conversión de un enunciado categórico en otro consiste en intercambiar los términos sujeto y


predicado entre ambos enunciados. Un aspecto importante del enunciado categórico es la
distribución de sus términos. El término de un enunciado estará distribuido si se refiere a todos los
miembros de la clase designada por dicho término.

- En el Universal Afirmativo, el sujeto (hombres) se encuentra distribuido porque se refiere a


todos y cada uno de los miembros de la clase hombres. La cantidad del enunciado determina
que el sujeto se encuentra distribuido en los enunciados universales (A y E) y que no esté
distribuido en O e I.
- Sin embargo, la calidad del enunciado determina la distribución del término predicado. En el
Universal Negativo, tanto el sujeto como el predicado están distribuidos porque la relación se
refiere tanto a la exclusión de todos los hombres (sujeto) como de todos los inmortales
(predicado) de la clase hombre.
- De esta forma la cantidad del enunciado determina que el sujeto se encuentre distribuido en
los enunciados universales A – E y no en los particulares I – O; la calidad determina la
distribución del término predicado.
- La afirmación negación de la inclusión de clases determina que el predicado se encuentre
distribuido en los enunciados negativos E – O y que no esté en los enunciados afirmativos A –
I.

Apuntes de M. Goretti González completados y modificados por Marina Uned


8

El cuadro anterior ilustra por qué la conversión sólo es legítima para los E y I, pues son los únicos que
tienen los mismos valores en su distribución: sujeto y predicado distribuidos en E, y no distribuidos
en I, permitiendo realizar la conversión del enunciado sin que se altere ni su cantidad ni su calidad.
Sin embargo, la conversación en A y O daría lugar a transformar un término distribuido en uno no
distribuido o viceversa, generando una inferencia no garantizada.

Revlis formula una propuesta más concreta basada en la conversión de todas las premisas y en el
supuesto de que se prefiere razonar con estas versiones convertidas de las premisas.
Hay una primera etapa de procesamiento en la que se codifican las premisas y se
convierten quedando representadas ambas versiones.
Luego, se elabora una representación compuesta de las dos premisas y se pasa a la
codificación de la conclusión de modo semejante a la primera etapa.
Por último, hay un proceso de comparación entre la representación conjunta de las
premisas y la representación de la conclusión.
Si ambas con congruentes entonces se acepta el silogismo como válido. Si son
incongruentes se procedería con la comparación de las representaciones en
sus versiones originales sin conversión, hasta encontrar un argumento válido.
Si no se obtiene éste, o se supera el límite de tiempo, se procede o con
modelo para la selección aleatoria de una de las alternativas o bien con un
modelo de selección de rasgos (cantidad y calidad) con similares predicciones
a las dadas por el efecto atmósfera.
El contenido temático del silogismo puede facilitar el razonamiento cuando bloquea el proceso de
conversión debido a que la versión convertida de la premisa entra en conflicto con el conocimiento
del sujeto.
Ejemplo: la conversión de Todos los gatos son felinos en Todos los felinos son gatos,
daría lugar a una premisa contraria al conocimiento del sujeto.
Según los autores, el razonamiento silogístico con contenido es mejor que el abstracto
porque el contenido bloquea la conversión de las premisas en el proceso de
codificación.
Sin embargo, los resultados experimentales son contrarios porque el efecto del
contenido o de las creencias se sigue manifestando incluso en aquellos silogismos en
los que la conversión no altera la validez del argumento.

Apuntes de M. Goretti González completados y modificados por Marina Uned


9

Con respecto al efecto del contenido o sesgo de creencias, ya Wilkins 1928 había encontrado que el
contenido familiar facilitaba el rendimiento, pero que disminuía si el contenido entraba en conflicto
con la estructura lógica. Algunos de los silogismos de este trabajo fueron generados de forma que las
creencias entraran en conflicto con la estructura lógica de los argumentos. Se obtuvieron así
argumentos válidos cuyas conclusiones eran verdaderas empíricamente.

En líneas generales los sujetos tienden a considerar que un argumento es válido si están de acuerdo
con su conclusión y que es falso si no lo están. Además, Evans, Barston y Pollard encontraron una
interacción entre validez lógica y credibilidad de las conclusiones, siendo el efecto mayor para los
silogismos inválidos que para los válidos.
Se obtuvo que los sujetos aceptaban más conclusiones creíbles que increíbles
independientemente de su validez lógica.
Sin embargo, la diferencia entre la aceptación de conclusiones inválidas creíbles y
conclusiones inválidas increíbles fue mayor que la diferencia entre conclusiones
válidas creíbles.

Apuntes de M. Goretti González completados y modificados por Marina Uned


10

Evans y cols propusieron dos modelos para explicar cómo se realiza el proceso de evaluación de las
conclusiones: el modelo de escrutinio selectivo y el modelo basado en una mala interpretación de la
“necesidad lógica”.
El modelo de escrutinio selectivo sostiene que los sujetos se centran primero en la conclusión del
argumento y si ésta es coherente con su sistema de creencias, la aceptan sin más.
Sólo cuando las conclusiones son increíbles se procede al análisis lógico del silogismo.
Esta propuesta está basada en los resultados del análisis de los protocolos verbales en
los que se identificaron tres tipos de estrategias para la solución de los silogismos:
- Estrategia “solo la conclusión”: en la resolución del silogismo los sujetos solo
mencionan la conclusión sin alusión a las premisas.
- Estrategia “de la conclusión a las premisas”: mencionan primero la conclusión y
luego las premisas.
- Estrategia “de las premisas a la conclusión”: mencionan antes las premisas.
Los sujetos de los dos primeros grupos 1 y 2, presentaron la mayor tendencia a
responder de acuerdo con la credibilidad de la conclusión.
Aunque explica la interacción entre validez lógica y credibilidad de la conclusión, hay
que tener en cuenta que no explica el modelo el efecto de la lógica sobre las propias
conclusiones creíbles.
Algunos estudios ponen de manifiesto que los sesgos de creencias se siguen dando en
las tareas en las que los sujetos deben generar sus propias conclusiones y en las que
no hace falta un proceso de escrutinio de la conclusión.
El modelo basado en una mala interpretación del concepto de necesidad dice que los sujetos en
realidad no entienden la necesidad lógica.
Un argumento deductivo es válido sólo si es imposible que su conclusión sea falsa
mientras que sus premisas son verdaderas. Si hay una única situación en la que la
conclusión sea falsa mientras que sus premisas son verdaderas hace que el
argumento sea inválido.
Un silogismo con conclusiones posibles, pero no necesarias, se denomina un silogismo
inválido indeterminado y cuando no se sigue ninguna conclusión se denomina
silogismo inválido determinado.

Apuntes de M. Goretti González completados y modificados por Marina Uned


11

Según este modelo, los sujetos responden de acuerdo con la credibilidad de las
conclusiones en los silogismos inválidos indeterminados, pero cuando es inválido
determinado no se sigue ninguna conclusión y la credibilidad no ejerce ninguna
influencia.
Con esta distinción se explica la interacción: la credibilidad surte efecto sobre los
silogismos inválidos indeterminados y el efecto desaparece en los silogismos inválidos
determinados.
No obstante ambos modelos dejan sin explicar el proceso de razonamiento y solo se centran en la
explicación de los errores para algunos silogismos (inválidos indeterminados).

Begg y Harris sostienen que los errores de razonamiento silogísticos se encuentran en la


interpretación de las premisas, pero no por un proceso de conversión sino por la interpretación de
los cuantificadores según las convenciones lingüísticas. Los sujetos los interpretan de tres formas:
Ninguno como exclusión, algunos como intersección y todos como identidad.
La interpretación de “alguno” como “todos” y de “algunos no” como “ninguno” son
propias del significado lógico pero son inútiles psicológicamente.
Esta explicación de los errores se centra en la interpretación de las premisas según las implicaturas
conversacionales propuestas por Grice.
Implicatura designa el contenido implícito de lo que decimos y, en concreto, la
máxima conversacional de cantidad explicaría los errores en la interpretación de los
cuantificadores particulares.
Esta máxima de cantidad se relaciona con la cantidad de información que debe darse
en una conversación. Según la máxima de cantidad la conversación debe ser todo lo
informativa que requiera el diálogo, aunque nunca más de lo necesario.
Esta explicaría que los sujetos no acepten la relación de subalternancia entre un
enunciado universal y uno particular: uno universal implica su enunciado subalterno
correspondiente como Todos los hombres son mortales implica que Algunos hombres
son mortales.
Sin embargo, los sujetos interpretan que los cuantificadores universales no implican
sus correspondientes enunciados subalternos porque, según la máxima de cantidad,
sería poco informativo decir “algunos” cuando se sabe que son “todos”.

Apuntes de M. Goretti González completados y modificados por Marina Uned


12

En el cuadro de oposición se representan las relaciones lógicas que se establecen entre los 4
enunciados categóricos.

Se aprecia que tanto A como E (universales) implican sus correspondientes enunciados subalternos
particulares I y O. Ambos enunciados comparten el sujeto, el predicado y la calidad, pero difieren en
la cantidad.
Ejemplo: la verdad de Todos los hombres son mortales implica la verdad de Algunos
hombres son mortales.
A y E son contrarios porque comparten el mismo sujeto y el mismo predicado pero no pueden ser
ambos verdaderos, aunque puedan ser falsos.
Ejemplo: Todos los hombres son mortales y Ningún hombre es mortal son contrarios.
El par de enunciados A y O y el par E e I son contradictorios pues tienen el mismo sujeto y el mismo
predicado, pero difieren en calidad y cantidad. Dos enunciados son contradictorios si uno de ellos es
la negación del otro y ambos no pueden ser verdaderos o falsos a la vez.
Ejemplo: Todos los hombres son mortales y Algunos hombres no son mortales son
enunciados contradictorios.

Según la máxima conversacional de cantidad se debe transmitir la mayor cantidad de información


posible y no ocultar deliberadamente parte de la información.
El significado lógico de “algunos” sería una transgresión de las máximas
conversacionales cuando se sabe que “todo” también es verdadero y este último
cuantificador es que transmite mayor información.

Apuntes de M. Goretti González completados y modificados por Marina Uned


13

Begg, Newstead y Politzer ponen de manifiesto que la interpretación de algunos cuantificadores se


rige por las implicaturas conversacionales y no por la lógica.
Defienden la racionalidad desde un modelo de convenciones lingüísticas en el que las
reglas del lenguaje otorgan una lógica intuitiva o natural.
Sin embargo, no hay datos experimentales suficientes como decir que las
interpretaciones “Griceanas” constituyan la principal fuente de errores del
razonamiento silogístico.

Los modelos de conversión también han sido criticados porque no pueden explicar los efectos por la
figura del silogismo.
Estos modelos explican el efecto atmósfera bajo el supuesto racionalista de que el
razonamiento es lógicamente correcto, pero con unas representaciones invertidas de
las premisas y no consideran la figura del silogismo.
Sin embargo, Frase y Pezzoli encontraron un efecto análogo al efecto atmósfera con la
figura del silogismo.
El tipo de figura también presentaba diferentes grados de dificultad, siendo la
cuarta más fácil que la primera.
Johnson- Laird y Steedman
Encontraron que cuando los sujetos tenían que producir la conclusión del
argumento, éstos generaban conclusiones A-C (donde la premisa mayor se
correspondía con el sujeto y premisa menor con el predicado) con la figura 4, y
C-A (la premisa menos se corresponde con el sujeto y la mayor con el
predicado) con las premisas de la figura 1.

2.3. Modelos basados en la representación de conjuntos


Es una técnica lógica para la inferencia silogística. El método de Euler se basa en la utilización de
círculos para la representación en un plano Euclídeano de las relaciones entre los conjuntos
comprendidos en las premisas del argumento.
La universal afirmativa (A)
comprende dos representaciones:
A es subconjunto de B o los
conjuntos A y B son equivalentes.
La universal negativa (E)
comprende una en la que los
conjuntos son mutuamente
excluyentes.

Apuntes de M. Goretti González completados y modificados por Marina Uned


14

La particular afirmativa (I) comprende cuatro representaciones, considerando que algunos implica
por lo menos uno y es compatible con todos.
- Intersección entre A y B.
- B se incluye en A.
- A y B son equivalentes.
- A se incluye en B.
La particular negativa (O) comprende tres: intersección de A y B, B se incluye en A y A y B son
excluyentes.
Para saber si una conclusión es válida hace falta considerar todas las formas posibles en que se
combinan los diagramas de las dos premisas del argumento.
Un argumento es válido cuando la conclusión es verdadera en todos los diagramas
que representan todas las posibles combinaciones de las dos premisas.
Es un proceso bastante costoso, sobre todo porque el número de combinaciones
posibles es generalmente mayor que el producto de los diagramas de las dos premisas
al existir más de una forma de combinarlos.

Erickson propuso una teoría del razonamiento silogístico basada en los círculos de Euler.
Los sujetos representaban cada premisa de forma análoga a la representación
espacial de los círculos. Las distintas interpretaciones posibles de las premisas llevan
asociados unos parámetros probabilísticos que determinan su selección.
En la 1ª etapa también influirá el contenido del argumento. Para evaluar o producir
una conclusión se combinan las representaciones de las premisas en una sola
representación del silogismo.
En la 2ª etapa de combinación se asume que no hace el sujeto análisis exhaustivo de
todas las combinaciones posibles de las interpretaciones de las premisas, sino que
selecciona una combinación de acuerdo con los parámetros probabilísticos.

Apuntes de M. Goretti González completados y modificados por Marina Uned


15

En la 3ª etapa se selecciona etiqueta verbal que se corresponda con la descripción de


la combinación obtenida para dar la respuesta.
Los errores en el proceso pueden ocurrir en cualquiera de las etapas y se asume que
los sujetos son proclives al efecto atmósfera.
El problema principal es el número tan grande de formas distintas en las que se
pueden combinar los diagramas. Para resolver esto, Erickson utiliza los parámetros
probabilísticos, pero éstos han sido determinados a posteriori en función de los datos
empíricos de investigaciones anteriores sin ningún tipo de explicación psicológica que
los justifique.

El modelo de la cadena transitiva de Guyote y Sternberg.


Asume una representación simbólica semejante a los círculos de Euler, pero libre de errores al ser una
representación exhaustiva.
El peso del modelo es la especificación de los procesos de combinación y comparación de las
interpretaciones de las premisas:
- En el proceso de combinación, las interpretaciones de las premisas se van integrando en
“cadenas transitivas”, que son los enlaces entre el primer y último término de las premisas a
través del término medio.
Se pueden producir errores por la capacidad limitada de la MT.
- En la etapa de comparación, se elige una conclusión concordante con las representaciones
combinadas y se da la respuesta que se corresponda con la conclusión seleccionada.
Los errores pueden ser debidos a falta de considerar alguna conclusión concordante con la
combinación y por el efecto atmósfera.
Las críticas más importantes al modelo son:
- Asume que no hay errores en la primera etapa de la representación de las premisas cuando
hay datos que lo cuestionan.
- Tampoco contemplan los efectos de la figura y se recurre al efecto atmósfera como un sesgo
de respuesta sin explicación psicológica (como Erickson)
- Los modelos basados en los círculos de Euler predicen que la dificultad dependerá del nº de
diagramas necesarios para la interpretación y combinación de las premisas, pero los datos
ponen de manifiesto que algunos de los silogismos fáciles han podido resolverse sin dificultad
precisan de muchos diagramas y otros que son más difíciles precisan de menos.

Apuntes de M. Goretti González completados y modificados por Marina Uned


16

Newell propone otra aproximación para explicar el razonamiento silogístico por medio de la
representación espacial de los diagramas de Venn.
Los diagramas de Venn son otra técnica lógica para representar las relaciones entre conjuntos. Estos
utilizan círculos que se encuentran sobrepuestos de forma que representen las relaciones entre los
conjuntos del silogismo.
En este método se representa el silogismo en un solo diagrama.
El método de representación consiste en sombrear aquella zona en la que no hay miembros (está
vacía) cuando la relación en el enunciado categórico es universal (afirmativo o negativo) y se
representa con una X las áreas en las que existe al menos un elemento cuando el enunciado
categórico es particular (afirmativo o negativo).

Figura 4.4
Zona sombreada del conjunto (A) representa una zona vacía de elementos del conjunto A-B en la
universal afirmativa, la zona sombreada es una representación de la universal negativa puesto que
ningún elemento es miembro del conjunto A-B.
La X en la particular afirmativa (I) representa que por lo menos un elemento del conjunto A se
encuentra en su intersección con B y la X en (O) representa que por lo menos un miembro del
conjunto A no es del B.

Apuntes de M. Goretti González completados y modificados por Marina Uned


17

Si miramos en la figura 4.5 se representa un silogismo válido EAE de la Figura 1.


Los tres términos del silogismo (A, B y C) se representan por tres círculos que están
dentro de un cuadrado, que representa a su vez el universo del discurso.
Las áreas sombreadas son las zonas donde no hay miembros de la relación expresada
por los dos conjuntos. La premisa Ningún B es A se encuentra representada por la
intersección sombreada entre los círculos B y A y la premisa Todos los C son B por la
zona sombreada del círculo C, que está vacía de elementos del conjunto C-B. La
conclusión Ningún C es A es válida ya que se lee directamente en la representación de
la intersección sombreada entre C y A.

Figura 4.5

Apuntes de M. Goretti González completados y modificados por Marina Uned


18

Nevell propone una representación simbólica de los diagramas de Venn y unas reglas para combinar
las cadenas simbólicas que luego se comparan con las alternativas de R.
Este modelo pretende acomodar los silogismos categóricos al marco general que
diseñaron Newell y Simon para la solución de problemas.
Se entiende que el razonamiento silogístico es un proceso de búsqueda a través del
espacio del problema y que este espacio se representa de forma análoga a los
diagramas de Venn.
Sin embargo, no se hacen predicciones sobre los errores, ni se aportan datos empíricos que apoyen la
viabilidad del modelo.
Posteriormente, Simon comentó que es probable que la utilización sólo ocurra en
sujetos expertos y que una representación en la línea de los modelos mentales es
preferible, y más acorde con una aproximación del razonamiento silogístico.

Los modelos mentales de conjuntos fue una teoría del razonamiento silogístico en sus orígenes y hoy
constituye un marco teórico general del razonamiento deductivo. Este comprende tres etapas:
I. Etapa de interpretación y representación inicial de las premisas: el sujeto utiliza su
conocimiento sobre el lenguaje y su conocimiento general para comprender las premisas.
Se construye un modelo mental inicial de aquello que viene descrito en las premisas del
argumento.
II. Segunda etapa en la que el sujeto combina las representaciones anteriores para generar una
descripción lo más sencilla posible de los modelos construidos a partir de las premisas.
Esta descripción debe enunciar algo que no se encuentre explícito en las premisas y es la
conclusión tentativa del argumento.
III. Tercera etapa en la que el sujeto busca modelos alternativos para poder falsar la conclusión
tentativa.
Si no los encuentra la conclusión es válida, pero si los encuentra, regresa a la segunda etapa
para seguir probando conclusiones tentativas mediante la búsqueda de contraejemplos.
En la tercera etapa, con el proceso de búsqueda de contraejemplos, se ubica el “aspecto” deductivo
del razonamiento. La dificultad de los problemas se explica en términos de la cantidad de
procesamiento y los errores vienen explicados por las limitaciones de la MT.

Apuntes de M. Goretti González completados y modificados por Marina Uned


19

El principio de economía propuesto por la teoría asume que el modelo mental inicial sólo
representará la cantidad de información explícita que sea necesaria para la interpretación de la
premisa.
El modelo mental está constituido por símbolos que representan miembros
representativos del conjunto.
Ejemplo: en la universal afirmativa Todos los A son B, “a” es un miembro representativo del conjunto
A y “b” del conjunto B. Cuando un miembro del conjunto se encuentra representado dentro de un
corchete [a], quiere decir que el conjunto de miembros se encuentra exhaustivamente
representado. En este caso no hay miembros “a” que no sean miembros “b”.
En el caso de “b”, sin embargo, no hay una representación exhaustiva y, por tanto, puede haber
miembros “b” que no sean miembros “a”. Una sola representación del modelo mental de la universal
afirmativa comprende las dos representaciones espaciales de los círculos de Euler: relación de
identidad y subconjunto.
Ejemplo: si no hay miembros de “a” que no sean de “b”.
Se representa así pues no sabemos si alguno de sus miembros puede
pertenecer a A.
Los tres puntos (...) indican que podría haber otra clase de miembros que no se encuentran
representados en el modelo inicial, por ejemplo, miembros que no son “a” ni “b”. Son análogos a
una anotación mental que indica la existencia de otros modelos que están implícitos. Pueden
hacerse explícitos (fleshed out) en la medida que sea necesario ampliar la información enunciada en
las premisas.
Ejemplo: en la representación de los miembros que no son “a” y son “b” ( ¬a b ).

Apuntes de M. Goretti González completados y modificados por Marina Uned


20

En la segunda etapa del modelo se deben combinar los modelos mentales de las premisas en una
sola descripción. Se realiza añadiendo el modelo mental de la segunda premisa al modelo de la
primera mediante el término medio.
Ejemplo: si la segunda premisa es también una universal afirmativa
Todos los B son C, sería:

Y por la combinación de ambos modelos se obtiene:

Se obtiene un modelo mental de ambas premisas en el que los miembros de “a” se


representan exhaustivamente con respecto a “b” y los miembros “b” se representan
exhaustivamente con respecto a “c”.
La conclusión entre “a” y “c” es Todos los A son C y Algunos C son A.
En este silogismo no se puede generar otra combinación que dé otra conclusión que
pueda falsar la conclusión tentativa y se concluye como válido. Este silogismo AA
solamente requiere un modelo mental y es el silogismo más fácil de resolver.
Cabe recordar que Johnson-Laird y Steedan encontraron que los sujetos no siempre consideran como
sujeto de la conclusión la segunda premisa del silogismo categórico, produciéndose conclusiones en
los dos sentidos. La conclusión Todos los A son C invierte el orden de las premisas del sistema
tradicional de forma que el argumento silogístico se ajusta a la Figura 1 AAA y la conclusión Algunos
C son A se ajusta a la Figura 4 AAI.

Ahora bien, la combinación de los modelos mentales de las premisas se complica cuando hay más
modelos mentales alternativos.
Ejemplo:

Apuntes de M. Goretti González completados y modificados por Marina Uned


21

La combinación de ambos modelos sería:

Este primer modelo sugiere la conclusión Ningún C es A. Sin embargo,


como “a” no se encuentra exhaustivamente representado y podía haber
algún “c” que fuera “a”, aunque no fuera “b”, podemos generar este
segundo modelo mental donde:

Este segundo modelo refuta la conclusión anterior y sugiere que Algunos C


no son A. Sin embargo, también es posible que todos los “c” sean “a”:

En realidad ninguno de los tres modelos apoya una conclusión C-A y en los tren modelos la
conclusión válida es Algunos A no son C (O).

La teoría de los modelos mentales explica la dificultad de los silogismos y los errores por el número de
modelos mentales y por el tipo de figura.
Los resultados han puesto de manifiesto que cuanto mayor sea el nº de modelos mentales
necesarios para encontrar una conclusión válida tanto más difícil será el problema y mayor la
probabilidad de error.
La figura del silogismo también determina la dificultad y la probabilidad de que una conclusión sea
del tipo C-A o A-C. Se debe a que las conclusiones se leen en el modelo mental en la misma dirección
en la que se han representado. Cuando las representaciones de las premisas no se encuentran en la
misma dirección hace falta una operación que invierte el orden y/o la relación espacial entre los
términos para poder realizar la combinación de los modelos mentales.

Apuntes de M. Goretti González completados y modificados por Marina Uned


22

El contenido o las creencias se consideran una fuente error pues pueden influir en la interpretación,
en la combinación de modelos y en el proceso de aceptación o rechazo de la conclusión tentativa.
Si el contenido influye sobre los modelos mentales se está razonando con modelos
mal interpretados.
Cuando el contenido influye en la combinación de modelos puede acortar el proceso
de búsqueda de modelos alternativos si la conclusión tentativa es compatible con el
sistema de creencias, aunque sea inválida.
También podría ocurrir que el sujeto buscara afanosamente más modelos mentales
alternativos cuando la conclusión fuera contraria a su sistema de creencias. Este
efecto estaría influyendo en la búsqueda de contraejemplos.
Cabría esperar que este contenido no influyera en los silogismos con un solo modelo
mental, ya que el contenido afecta a la construcción de modelos alternativos. Sin
embargo, incluso este contenido influye en los silogismos de un solo modelo mental y
proponen que una conclusión increíble también podría actuar de filtro en el proceso
de evaluación, haciendo que los sujetos la sustituyan por una conclusión creíble o que
respondan que no hay conclusión.
Newstead y Evans señalan que con la incorporación del filtro de las conclusiones se está
introduciendo un mecanismo semejante al contemplado en el modelo de escrutinio selectivo,
aunque en este caso la selección ocurre en el proceso de evaluación.
No obstante, los resultados apoyan las predicciones de la teoría de los modelos
mentales frente al modelo de escrutinio selectivo y el modelo basado en la mala
interpretación de la necesidad lógica.

Apuntes de M. Goretti González completados y modificados por Marina Uned


23

La teoría de los modelos mentales se ha constituido en una teoría general del razonamiento,
ofreciendo la ventaja de explicar en un único marco teórico el proceso y los errores del
razonamiento. Aunque tiene pendiente varios problemas por resolver.
Admite que el proceso de construcción de los modelos mentales se ve influido por el
conocimiento, no analiza esta influencia sino que la da por supuesta.
Sus explicaciones y predicciones se basan en la interpretación semántica de los
operadores lógicos. Se basa en un procedimiento formal para la representación
semántica de los operadores lógicos que unen los contenidos expresados en las
premisas.
La crítica fundamental se centra en que esta teoría se autodefine como semántica,
pero no explica cómo se vincula el conocimiento almacenado con la construcción de los
MM en la memoria de trabajo.
No determina cómo se construyen los MM, ni el orden en la construcción de la
secuencia de posibles interpretaciones, ni se compromete con el tipo de
representación de los MM, ni con el orden de la combinación de los MM.
Resumen: es una perspectiva teórica fuerte que se encuentra apoyada por una amplia y variada
gama de trabajos experimentales. No obstante, el debate entre los modelos mentales y otras teorías
del razonamiento basado en reglas no ha concluido.

3. Razonamiento silogístico transitivo


Las investigaciones sobre el razonamiento con silogismos transitivos (lineales, problemas de órdenes
lineales o de series de tres términos) estudian las inferencias que dependen de las relaciones de
transitividad.
Es la propiedad de cualquier escala con la que se compara u ordenan objetos.
Estos trabajos han utilizado un silogismo constituido por dos premisas en las que se
relacionan sus tres términos en función de una propiedad transitiva y una conclusión
que establece la relación entre los dos términos no adyacentes.
Luis es mayor que Juan; Juan es mayor que Pedro; Luis es mayor que Pedro
Hay ocho estructuras básicas para representar un silogismo transitivo A > B > C.

Apuntes de M. Goretti González completados y modificados por Marina Uned


24

Además se pueden introducir relaciones negativas en una de las dos premisas o en ambas (premisas
de igualdad negada).
Si introducimos relaciones negativas en las dos premisas del ejemplo anterior
obtendremos: Luis no es tan pequeño como Juan; Juan no es tan pequeño como
Pedro; en consecuencia Luis no es tan pequeño como Pedro.
Con estas consideraciones se obtienen un total de 32 pares de premisas: 8
afirmativas, 8 con la primera premisa negativa, 8 con la segunda premisa negativa y 8
con ambas negativas.
Considerando que la tarea experimental más habitual consiste en presentar las dos premisas del
silogismo y pedir que se conteste a una pregunta sobre la relación entre “A” y “C” o que se evalúe la
validez de una conclusión, las estructuras básicas se pueden presentar con dos preguntas o
conclusiones alternativas.

También se han utilizado silogismos indeterminados en los que los dos términos de la serie están
situados hacia el mismo extremo de la relación con respecto al término medio, no pudiéndose
alcanzar una conclusión válida sobre la relación entre ambos.
Ejemplo: en el siguiente silogismo los términos A y C se encuentran situados hacia el mismo extremo
B > A y C < B y no podemos inferir la relación entre A y C, solo que son menores que B.

Apuntes de M. Goretti González completados y modificados por Marina Uned


25

En el trabajo de Störring, el razonamiento con tres términos ha planeado una polémica en el tipo de
representación de las premisas. Se describía cómo algunos sujetos parecían formar un diagrama
mental de las premisas, representándolas mediante imágenes mentales, mientras que otros parecían
resolver el problema de forma verbal.
La polémica ha girado en torno al formato de representación más apropiado para resolver estos
silogismos, que en general se resuelven con facilidad y se cometen pocos errores.

3.1. El modelo operacional


Uno de los primeros modelos en la explicación del razonamiento transitivo hacía hincapié en los
aspectos operacionales implicados en su solución. Hunter opinaba que para poder hacer una
inferencia transitiva es necesario que las premisas contengan la misma relación y que el término
medio sea el predicado de la primera premisa y el sujeto de la segunda.
Luis es mayor que Juan; Juan es mayor que Pedro; Luis es mayor que Pedro.
Cuando el argumento no contiene la misma relación (Pedro es menor que Juan) o no viene expresada
en un orden natural (Pedro no es mayor que Juan), se deben aplicar las operaciones de conversión y
de reordenación de premisas.
Mediante ello se logra que los términos medios de ambas premisas sean adyacentes.
Ejemplo: si la segunda premisa fuera Pedro es menor que Juan, entonces su
conversión en Juan es mayor que Pedro, logra que los términos medio se ubiquen en
una disposición de contigüidad.
Hunter propuso que la aplicación de estas operaciones daba lugar a los distintos niveles de dificultad
de los problemas. Se presentan las ocho estructuras básicas del silogismo transitivo y sus niveles de
dificultad según este criterio.
Cuadro abajo.

Los resultados experimentales no apoyaron todas las predicciones del modelo operacional.
El trabajo de Hunter fue anterior a su tiempo ya que el razonamiento de series no se
abordó de nuevo hasta casi una década después y con una perspectiva distinta.
Johnson -Laird y Bara encontraron que en los silogismos transitivos también ocurría el
efecto de la figura, donde al igual que en el estudio con los silogismos categóricos, el
tipo de figura favorecía las conclusiones A – C o C – A.
Como anticipada Hunter, el nivel de dificultad de los silogismos estaba relacionado
con el proceso de integración de la información en función del tipo de figura (orden
de los términos).

Apuntes de M. Goretti González completados y modificados por Marina Uned


26

También se podría resolver con la conversión de la relación de la 1ª premisa pero ésta


establece la dirección de la serie y se prefiere hacer los reajustes sobre la segunda

3.2. Modelos basados en imágenes mentales


De Soto, London y Handel sostienen que el proceso de solución requiere la combinación de las
interpretaciones de las premisas en una representación unitaria y espacial.
El modelo de la imagen mental está basado en la elaboración e interpretación de una
imagen del contenido de las premisas y dificultad depende del tipo de términos
relacionales empleados en ellas. La dificultad se da por la elaboración de la
representación espacial correspondiente a la serie de tres términos.

Apuntes de M. Goretti González completados y modificados por Marina Uned


27

I. Principios generales
a. Principio de la preferencia direccional
Se basa en la observación de que los sujetos prefieren construir los órdenes espaciales en
determinadas direcciones.
En la cultura occidental se prefiere trabajar de izquierda a derecha y de arriba abajo.
Las relaciones también se representan en estos ejes espaciales.
Se prefiere asignar la relación mejor-peor a un eje vertical en el que el término mejor
se sitúa en el extremo más alto y el peor en el más bajo.
Un silogismo transitivo será más fácil si la primera premisa contiene en primer lugar el
término que se sitúa más arriba o más a la izquierda de los ejes espaciales.
Ejemplo: “A es mejor que B” es más fácil que “B es peor que A”.
También es más fácil representar el silogismo en el que se presente el término que se
sitúa más arriba o más a la izquierda en la primera premisa y el término opuesto del eje
espacial en la segunda premisa.
Ejemplo: “A es mejor que B, B es mejor que C” es más fácil que “B es mejor que
C, A es mejor que B”.
b. Principio de anclaje de los extremos
Postula que la construcción espacial será más fácil cuando se enuncia en primer lugar uno de los dos
extremos de los ejes espaciales.
Las más fáciles serán aquellas que procedan de uno de los términos extremos al
término medio.
Ejemplo: “A es mejor que B” o “C es peor que B” serán más fáciles que “B es
peor que A” o “B es mejor que C”.

De acuerdo con los dos principios, construimos un eje mental marcado por la preferencia direccional
en el que se colocan los tres términos de la serie, obteniéndose la solución mediante la lectura de esta
representación espacial.

Apuntes de M. Goretti González completados y modificados por Marina Uned


28

II. Resultados experimentales


Los resultados experimentales muestran que:
La construcción de las disposiciones espaciales se ajusta a las preferencias culturales, como la
escritura y lectura.
Sin embargo, el principio de anclaje de los extremos sólo parece influir en la segunda premisa.
Huttenlocher sostiene que en la comprensión de la primera premisa se coloca un término medio en
relación con el otro en la disposición espacial que construyen los sujetos. Comprendida la segunda
premisa, entonces se colocará el tercer término con respecto a los dos anteriores. El efecto ancla lo
explica aludiendo al papel que desempeña el término extremo en el enunciado. Si el tercer término
de la segunda premisa se enuncia en primer lugar, la comprensión será más fácil.
Los resultados experimentales mostraron que los silogismos A es mejor que B, C es peor que B; y “B
es peor que A, C es peor que B”, eran semejantes en el nº de aciertos y tiempos empleados.

En el cuadro siguiente podemos ver, el principio del anclaje de los extremos sólo influye en la segunda
premisa. La segunda premisa de los dos primeros silogismos enuncia en primer lugar uno de los
extremos de los ejes espaciales (C) y son más fáciles. También se ve que este principio no influye
sobre la primera premisa dado que en el segundo se presenta primero el término medio (B) al igual
que en el tercer silogismo.

3.3. El modelo lingüístico


I. Clark
Clark 1969 propone que la inferencia transitiva se basa en representaciones proposicionales y que la
dificultad se debe a factores lingüísticos influyentes en la comprensión. Postula tres principios
generales.
a. Principio del marcado léxico
Algunos adjetivos bipolares son asimétricos porque presuponen uno de los extremos de la escala y
otros adjetivos son neutros con respecto a la magnitud: A es mejor que B contiene adjetivo no
marcado que expresa distinto grado en que se comparan A y B con respecto a ser buenos.
Sin embargo, la premisa A es peor que B contiene un adjetivo marcado que hace que los términos A y
B se sitúen hacia un extremo de la escala (extremo bajo del eje espacial), siendo una premisa
semánticamente más compleja y más difícil de procesar (presuponemos que ambos son malos y no
que el enunciado exprese el grado de comparación entre ellos).

Apuntes de M. Goretti González completados y modificados por Marina Uned


29

b. Principio de las relaciones funcionales


Sostiene que las relaciones de predicación se almacenan y se recuperan con prioridad a la información
comparativa. Esta representación adopta una forma resumida o comprimida básica de sujeto-
predicado.
Ejemplo: María es mejor que Ana
Se comprende que ambas son buenas y esto se representa de forma
comprimida como: María es mejor. Comprendemos y representamos que
María es mejor pero no el grado en que lo es respecto a Ana.
Ejemplo: A es mejor que B, B es mejor que C y se representen de forma comprimida
como A es mejor, B es mejor y C es menos bueno.
Como la información del predicado es prioritaria a la información comparativa
(A es mejor que B), en la construcción de la representación proposicional se
pierde el término medio (B), haciendo que el problema sea más difícil.
Ejemplo: A no es tan malo como B; B no es tan malo como C.
Darían lugar a una representación B es peor, C es peor, B es menos malo.
Cuando no se pierde el término medio, el problema es más fácil, puesto que la
relación entre A y C se puede extraer directamente de la representación.

c. Principio de la congruencia
La recuperación de la información es más fácil si la representación de las relaciones funcionales es
congruente con la pregunta formulada. Los silogismos serán más fáciles cuando esté formulada en la
misma dirección.
Ejemplo: A es mejor que B; B es mejor que C es más fácil cuando la pregunta es
congruente con la relación (¿Cuál es el mejor?) que cuando no lo es (¿Cuál es el
peor?).
Este principio se relaciona con la búsqueda en la memoria y con la dificultad impuesta por el
almacenamiento, mientras que los otros dos principios aluden al proceso de comprensión de las
premisas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


30

d. Comparación con modelo de la imagen


Tanto el modelo de la imagen como el lingüístico ofrecen explicaciones alternativas del mismo
fenómeno, generando polémica en torno al modo de representación más adecuado de las premisas
que ha dado lugar a una ardua investigación experimental. La polémica es difícil de resolver pues
ambos hacen la misma predicción pero por razones distintas.
Ejemplo: las predicciones del principio de la preferencia direccional coinciden con las
del principio del marcado léxico, pues la facilidad de la disposición de arriba a abajo
también se encuentra predicha por la facilidad de los términos comparativos no
marcados.

Según Clark, la confrontación es más evidente en las premisas negativas y los datos experimentales
apoyan las predicciones del modelo lingüístico.
Las premisas negativas tendrían un equivalente en la versión afirmativa que daría lugar a las
mismas predicciones en el modelo espacial y a predicciones inversas en el modelo lingüístico:
Ejemplo: A no es tan malo como B, B no es tan malo como C serían equivalentes a A es
mejor que B, B es mejor que C.
Según el modelo espacial, ambos tipos de premisas darían lugar a los mismos
resultados, ya que la preferencia para la construcción de la imagen mental es
en ambos casos de arriba hacia abajo.
El modelo lingüístico, no obstante, predice que la estructura lingüística es
distinta, siendo las premisas negativas más fáciles al conservar el término medio
en la representación proposicional.

e. Críticas a Clark
Algunos autores señalan que Clark parte del supuesto de la equivalencia entre las premisas afirmativa
y las negativas pero esta equivalencia puede no existir en el proceso de comprensión, pues puede que
A no es tan malo como B, no se interprete como A es mejor que B, sino como B es peor que A y
entonces la direccionalidad de abajo arriba, y el marcado léxico vuelven a coincidir en sus
predicciones. Tampoco se puede diferenciar el principio de anclaje de los extremos del modelo
espacial, y el principio de congruencia del modelo lingüístico, pues predicen resultados
convergentes, aunque por razones distintas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


31

II. Modelo mixto de Sternberg


El modelo mixto de Sternberg 1980 es un modelo conciliador que reúne aspectos tanto lingüísticos
como espaciales en la explicación del razonamiento con series de tres términos.
El procesamiento de la información lingüística precede a la representación espacial y
ambos tipos de representaciones se encuentran disponibles durante la ejecución de los
procesos de búsqueda y recuperación de la información.

Para los niveles de dificultad de los problemas, la propuesta del modelo mixto intenta integrar los
aspectos del modelo lingüístico relacionados con los adjetivos marcados en la etapa de codificación y
los del modelo de la imagen en la construcción de la disposición espacial en la que los términos se
ordenan en la dirección no preferida.
Cuando la segunda premisa es de igualdad negada, se propone la búsqueda del
término medio si la codificación lingüística de esta premisa tiene como objeto
gramatical al término medio.
Localizado éste, se construye una representación unitaria, situando primero la
primera premisa y luego la segunda.
Si la respuesta está en la segunda premisa, la lectura de la respuesta es inmediata. Si
está en la primera, se realizará un recorrido que llevará tiempo.

Datos experimentales sobre los tiempos de solución de los silogismos se ajustaron mejor al modelo
mixto que a los otros considerados aisladamente. La polémica entre el tipo de representación se
resuelve al proponer que se utilizan ambas pero en distintas etapas.
Ahora bien, es posible que los sujetos desarrollen distintas estrategias a medida que adquieren
experiencia en la solución de los silogismos transitivos.
Durante la tarea experimental, pueden empezar por una representación de las
disposiciones espaciales y a medida que van resolviendo los problemas pueden
cambiar a una representación lingüística o a la inversa.
Las instrucciones o el tipo de presentación de los problemas también pueden influir en la
representación que se adopte.
Ejemplo: si la pregunta se presenta antes que las premisas se adopta una estrategia
lingüística y si la pregunta se presenta después, una estrategia espacial.
También puede que los distintos sujetos utilicen distintas estrategias, siendo ambos modelos viables
para explicar las diferencias individuales.

Apuntes de M. Goretti González completados y modificados por Marina Uned


32

3.4. La Teoría de los modelos mentales


La Teoría de los Modelos Mentales (TMM) se encuentra en la línea de los modelos de la imagen
mental.
Defiende una representación integrada de la información basada en la construcción de
los modelos mentales y su desacuerdo se centra en la representación proposicional de
los modelos lingüísticos basados en reglas.
Johnson-Laird 1972 señala referente a la polémica entre los modelos de la imagen y el
lingüístico que los datos experimentales son poco esclarecedores. Por ello, centra su
análisis en el proceso de inferencia, independientemente del tipo de representación.

La construcción de un modelo mental de las premisas de un silogismo transitivo refleja la estructura


de la disposición espacial de los términos y esta estructura no tiene que identificarse necesariamente
con una imagen mental concreta.
En la Teoría de los modelos mentales parece que los sujetos construyen un modelo
mental de la situación descrita por las premisas basándose en su conocimiento del
significado de los términos relacionales.
Se representa la disposición espacial del contenido y se combinan estos modelos
mentales para llegar a una inferencia sobre las relaciones entre los dos términos no
relacionados explícitamente en las premisas.

Esta teoría predice que la dificultad de los problemas dependerá del número de modelos mentales
que puedan construirse.
En los problemas de series de tres términos, la validez y el número de modelos
mentales no se pueden distinguir, ya que los problemas que dan lugar a un modelo
mental son también los que alcanzan una conclusión válida, mientras que no hay
conclusión válida en los problemas que dan lugar a más de un modelo.
Por ese motivo, Byrne y Johnson-Laird 1989 se plantearon el estudio de las relaciones transitivas con
cinco términos en las que la dificultad de los problemas se puede analizar en función del número de
modelos mentales.

Apuntes de M. Goretti González completados y modificados por Marina Uned


33

Los resultados apoyan las predicciones de la teoría de los modelos mentales frente a las predicciones
del modelo de Hagert 1984 basado en representaciones proposicionales y la aplicación de reglas:
El número de modelos mentales y no el nº de reglas determina la dificultad de los
problemas.

Hay datos a favor de una representación espacial integrada en las investigaciones sobre la memoria
de trabajo y el razonamiento silogístico.
En la teoría de los modelos mentales la sobrecarga de la MT es una de las fuentes
principales de error y a medida que aumenta el número de modelos mentales
también aumenta la dificultad de los problemas. La MT está constituida por un
procesador central apoyado en un almacén fonológico y uno visoespacial. Este último
está encargado de retener en la MT la información visual (color) y espacial
(movimiento).
Si se introduce durante la realización de una tarea de silogismos lineales una segunda
tarea que requiera la utilización de este almacén visoespacial, se esperaría encontrar
un deterioro en el rendimiento de los sujetos al producirse una interferencia en la
construcción y elaboración de las disposiciones espaciales en la MT.
Los resultados experimentales han puesto de manifiesto que la introducción de una tarea
visoespacial secundaria interfería en el rendimiento de los sujetos, apoyando de esta forma la
representación de una disposición espacial en el razonamiento silogístico.

Cabe decir que no ha sido demostrado que esta representación espacial se tenga que concretar en
una imagen mental

Apuntes de M. Goretti González completados y modificados por Marina Uned


PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013

TEMA 5 – EL RAZONAMIENTO CONDICIONAL

1. INTRODUCCIÓN

El razonamiento condicional se centra en las relaciones contingentes reales o hipotéticas que vie-
nen enunciadas por medio de los operadores lógicos, “Si, entonces” (implicación material) y “Si y
solo sí, entonces” (implicación inmaterial). Esta formulación presenta algunas dificultades cuando
se interpreta desde el modelo normativo lógico.

Pepe habla de su mujer Pepa, y nos comenta que:


Si Pepa va a cenar a casa de sus padres, entonces se queda a dormir.

Cabría esperar lógicamente que la próxima vez que nos diga que Pepa va a cenar a casa de sus pa-
dres pensemos que esa noche se queda a dormir Modus Ponens.
Pero si dice: Pepa durmió anoche en casa de sus padres, ¿podríamos inferir que anoche también
cenó con sus padres?
Si se infiere de esta manera, se cometería un error : la afirmación del consecuente.
Si nos hubiera dicho: Pepa ayer no cenó con sus padres y hubieramos inferido que entonces no
durmió en casa de sus padres, cometeríamos el error de la negación del antecedente.
Si sabemos que no se ha quedado a dormir podemos inferir lógicamente que no ha cenado con
ellos Modus Tollens.
Pero si el comentario hubiera sido:
“Si y solo si Pepa va a cenar a casa de sus padres, entonces se queda a dormir”

(equivalencia inmaterial), las cuatro inferencias anteriores hubieran sido válidas.


La estructura lógica de un argumento condicional está constituída por dos premisas y una conclu-
sión. La mayor contiene un enunciado que une el antecedente ( p) con el consecuente (q) por
operadores, y en la menor se puede afirmar o negar tanto el antecedente como el consecuente,
para luego obtener conclusión.
Premisa mayor: “si p, entonces q”
Premisa menor: p afirma; ¬p (no p) lo niega; q afirma; ¬q (no q) lo niega.
Conclusión válida: q por la afirmación de p (modus ponens)
no p (¬p) por la negación de q (modus tollens)
Conclusión inválida: no q (¬q) por la negación del antecedente
p por la afirmación del consecuente.

Una conclusión es deductivamente válida si se sigue necesariamente de unas premisas que se


asumen que son verdaderas o una conclusión es válida sólo si es imposible que su conclusión sea
falsa siendo sus premisas verdaderas.
Modus PONENS (MP)
Si p , entonces q Si Pepa va a cenar a casa de sus padres (p),
entonces se queda a dormir. (q)
p Pepa va a cenar a casa de sus padres (p) (afirmación)

q se queda a dormir.

M.Goretti González 1
El modus ponens es la inferencia válida más fácil, frecuente y natural. Si asumimos que anteceden-
te y consecuente son verdaderos, cabe deducir que cuando se cumple p, entonces también se
cumple q. El modus tollens es, la inferencia válida más difícil. Se suele responder indicando que no
hay conclusión. No se suele pensar que el consecuente es necesario para que ocurra el anteceden-
te, porque es difícil creer que el que no ocurra el consecuente implique que no ocurra el
antecedente. Otra forma “rara” de expresar la relación necesaria sería : “Pepa va a cenar a casa de
sus padres, solo si se queda a dormir”. Por tanto, si Pepa no duerne en casa de sus padres, no ha
ido a cenar a casa de sus padres.
Modus TOLLENS (MT)
Si p , entonces q Si Pepa va a cenar a casa de sus padres (p),
entonces se queda a dormir. (q)
¬q Pepa no se ha quedado a dormir (¬q) (negación de prmisa menor)

¬p Pepa no ha ido a cenar a casa de sus padres

Los dos errores habituales en la implicación material son concluir que no se cumple el consecuente
porque noo se ha cumplido el antecedente (falacia de la negación del antecedente) y que se cum-
ple el antecedente porque se cumple el consecuente (falacia de afirmación del consecuente) . El
antecedente es suficiente para que ocurra el consecuente pero no es necesario y tendríamos que
haber dicho “solo si Pepa va a cenar a casa de sus padres, entonces se queda a dormir”. Cuando el
antecedente es suficiente, su negación no implica que el consecuente no pueda ocurrir con otros
antecedentes.

Falacia de la NEGACIÓN DEL ANTECEDENTE (NA)


Si p , entonces q Si Pepa va a cenar a casa de sus padres (p),
entonces se queda a dormir. (q)
¬p Pepa no va a cenar a casa de sus padres (¬p) (negación)

¬q Pepa no se queda a dormir en casa de sus padres.

El consecuente es necesario para que ocurra el antecedente, y con ello el que si no ocurre
consecuente, no pueda darse antecedente, pero si ocurre no implica que se haya dado el antece-
dente.
Falacia de la AFIRMACIÓN DEL CONSECUENTE (AC)
Si p , entonces q Si Pepa va a cenar a casa de sus padres (p),
entonces se queda a dormir. (q)
q Pepa se queda a dormir (q) (afirmación)

p Pepa va a cenar a casa de sus padres.

Si se hubiera expresado con el bicondicional “si y solo si” - “Pepa va a cenar a casa de sus padres,
entonces se queda a dormir” (equivalencia material) , las cuatro inferencias anteriores hubieran
sido válidas. El bicondicional es expresión poco habitual e incómoda por lo que la falacia de la afir-
mación del consecuente y la negación del antecedente puede deberse a que las personas
interpreten la implicación material como la equivalencia material.

Aún así, las inferencias lógicamente válidas presentan un índice de dificultad. En un meta-análisis
de 65 estudios con 700 sujetos, se obtuvo que cerca del 97% evaluaban como válidas inferencias
modus ponens (más fácil), 74% las inf.modus tollens, 64% la falacia de afirmar el consecuente y el

M.Goretti González 2
56% la falacia de negar el antecedente (más difícil). Además, este intercambio entre condicional y
bicondicional no ocurre con cualquier formulación “si p, entonces q”, sino que depende de diferen-
tes funciones semánticas del condicional (implicación indicativa, causalidad, advertencia,
permiso,...)

La tarea experimental que se plantea habitualmente para el estudio de raz.condicional se ajusta a


la estructura normativa. Se presentan premisas y la tarea del sujeto puede consistir en evaluar si la
conclusión es válida o no, en seleccionar la conclusión válida entre un conjunto de alternativas o
en generar su propia conclusión. Los estudios sobre la tablas de verdad se diseñan de acuerdo con
el modelo normativo pues presenta enunciado condicional, y se pide al sujeto que evalúe las
distintas combinaciones de los valores de verdad de las proposiciones, premisas y conclusiones o
que genere él mismo estas combinaciones. En tareas de selección se presenta una regla y cuatro
tarjetas, que se corresponden cada una con la afirmación o negación del antecedente y del conse-
cuente. La tarea consiste en seleccionar las tarjetas necesarias para comprobar si la regla es verda-
dera o falsa.

2. MODELOS DE REGLAS MENTALES

Los modelos de reglas mentales parten del supuesto de que los sujetos tienen reglas de inferencias
semejantes a las reglas lógicas y que estas reglas se aplican sobre un representación proposicional
de los argumentos condicionales con el fin de obtener o probar la conclusión. No abarcan todo el
conjunto de reglas lógicas, solo las básicas y las que se utilizan de forma natural y sin esfuerzo,
como en el modus ponens.

Se parte del supuesto general de que los problemas de razonamiento serán más difíciles en
función del número de pasos comprendidos en el procedimiento de prueba y de las propias limita-
ciones de los recursos de procesamiento de la información.

2.1. Modelo de deducción natural de Braine y O´Brien

Entre la interpretación lógica de los operadores y su interpretación en el lenguaje natural no hay


correspondencia. Braine desarrolla un modelo de deducción natural (¡si él lo dice!... porque ¡vaya tela
marinera!) Propone que la regla mental básica o esquema de inferencia del condicional es el modus
ponens. Las formulaciones del condicional que no se ajustan al modus ponens son más difíciles y
reflejándose en un número mayor de errores y tiempos de solución más largos.

Esta propuesta fue ampliada y revisada en varios trabajos posteriores. En una de las últimas, la
explicación del razonamiento condicional se basa en tres componentes:
1. Entrada léxica, la cual codifica la entrada de la información lingüística del término “si” en
esquemas de inferencia independientes del contexto. Solo se interpreta su significado.
2. Componente: programa de razonamiento: con pasos a seguir desde la información
interpretada hasta la conclusión.
3. Procesos de comprensión pragmática: que junto a la entrada léxica, interpretan el condi-
cional según sea el contexto en que ocurra.

Los esquemas de inferencia para la codificación del término lingüístico “si”, son el modus ponens y
un esquema para demostrar el condicional. El MP concreta la conclusión que se puede inferir a

M.Goretti González 3
partir de la información que se tiene de las premisas. Por ejemplo:
– conclusión --> “voy al cine”.
– a partir de premisas ---> “Si llueve, entonces voy al cine” -> (si p,entonces q); y “ llueve” -> (p)

El esquema para la demostración del condicional permite evaluar la validez del argumento. Permi-
te saber si podemos afirmarlo. Permitirá demostrar que, “Si llueve, entonces voy al cine” , voy al
cine bajo el supuesto hipotético de que llueva. Esta regla introduce suposiciones en el
procedimiento de prueba siemppre y cuando éstas sean consistentes con las premisas, evitando
caer en contradicciones dentro del propio argumento. Braien y cols.1984 propusieron 18
esquemas de inferencias del razonamiento deductivo, reglas básicas y universales. (¡No tenían otra
cosa que hacer!)

Este programa está constituido por rutinas que dan lugar a razonamiento directo y estrategias que
producen el raz.indirecto.
Las rutinas son comunes a todos los sujetos y con poco esfuerzo. Buscan aplicar emparejamiento
entre los esquemas de inferencia y la forma de las proposiciones que constituyen las premisas del
argumento. En el caso del condicional, el emparejamiento ocurre entre el modus ponens y las pre-
misas “si p entonces q” y “p”. En el caso de tener que generar conclusión “q” (voy al cine), y en el
caso de que esta conclusión formara parte de una cadena de razonamiento, entonces la inferencia
se incorporará en el conjunto de premisas con las que se trabaja.

Cuando lo que se tiene es que evaluar la validez de un argumento, se comprueba si existe una
correspondencia o una contradicción entre las proposiciones del conjunto de premisas y la con-
clusión. El emparejamiento entre un esquema de inferencia y una proposición es el mismo, pero la
inferencia que se obtiene pasa a formar parte del conjunto de premisas y se comprueba su
consistencia o contradicción con la conclusión del argumento.

Premisa mayor--> Si hay una A y una B, entonces no hay una C


Premisa menor--> Es falso que no hay una A --> Falso (falso que existe (p)) = (p)
¬ (¬p) = (p)
en consecuencia,
Conclusión
Incondicional --> “Si hay una B, entonces hay una C”
> Pasos de la rutina hacia la solución:
Esquemas de inferencia para evaluar
B (suposición) 1º considerar al antecedente de la conclusión (Hay una B) la validez sería:
dentro del conjunto de premisas posibles. Y al 2º paso se aplica un esquema de
C (conclusión) consecuente, como la conclusión (Hay una C) inferencia para REFORMULAR la
A -------------------------------------------------------------------->
premisa menor : Es falso que no hay
una A ---> F (F(p)
a partir de la suposición Hay una B (q)
A ^ B Luego se infiere “Hay una A y una B ---------------------> (q) ; y hay una A (p) / p ^ q
No C Aplicando modus ponens, se obtiene--- > No hay una C Si (p) entonces (q); a partir de p/q
Inválido Se invalida al ser incompatible con la la conclusión p ; F(p) / q incompatible

Para explicar las falacias de negar antecedente como la de afirmar el consecuente, como la

M.Goretti González 4
inferencia del modus tollens se recurre al componente 3º de comprensión pragmática. Cuando
los sujetos interpretan “si p, entonces q” también añaden las inferencias invitadas o sugeridas por
el contexto -> “Si no p, entonces no q”. Interpretación que se corresponde con el bicondicional ->
“Si y solo si p, entonces q” violando la prescripción lógica.

Para explicar la inferencia lógica correcta del modus tollens se recurre a las inferencias invitadas
del bicondicional, obteniendo una conclusión válida por una interpretación equivocada. La falta de
respuesta o lo difícil del modus tollens, se explica porque esta regla no forma parte de los esque-
mas de inferencia básicos. Para una conclusión válida se tendría que utilizar la reducción al absur-
do donde: si p es verdadera, entonces q tiene que ser verdadera, pero q es falsa, luego p tiene que
ser falsa.

Cuando las rutinas de razonamiento directo fracasan, el modelo cuenta con las estrategias de
razonamiento que no son universales, dando lugar a una amplia gama de diferencias individuales
entre las estrategias utilizadas, como procesos heurísticos, o transferencia del problema a otros
procesos de razonamiento (analógico o probabilístico,...)
(Sigo admirándo a estos señores que se les ocurre ponerse a investigar estas cosas en su momento, debe ser por lo de su
inteligencia creativa, no conformista y con ganas de querer darle al coco por el aburrimiento.... ¡vaya que si le han dado! Total,
para decirme que si no utilizo las rutinas que me han sabido describir más arriba, al final es porque utilizo mi propia estrategia a
diferencia de las que pueda utilizar otro ser humano,... ¡en fin! :-)

2.2. Teoría Psycop (psicología de la prueba ) de Rips

Rips 1994 propone la Teoría Psycop. Esta fue desarrollada de su modelo computacional ANDS, el
cual explica la deducción como un proceso de prueba mental constituido por tres componentes:
1. Estructuras de memoria
2. Gestor para el control de la aplicación de reglas,
3. Reglas mentales de inferencia.

Se parte de la idea de que las reglas mentales se utilizan para la generación y comprobación de una
prueba mental en la memoria de trabajo bajo el control de un gestor encargado de la correcta
aplicación dichas reglas mentales. La dificultad sería explicada por el número y tipo de reglas
mentales y los errores por aquellos factores que impiden la aplicación de las rutinas (limitación
MT, ausencia de la regla apropiada,...)

El procedimiento de prueba constta de una jerarquía de asertos (árbol de asertos) que incluye las
premisas y proposiciones que se derivan de las mismas; y otra jerarquía de submetas (árbol de
submetas) que incluye la conclusión y las proposiciones que la garantizan. Las reglas de inferencia
van colocando estas premisas en ambas configuraciones y se prueba el argumento cuando se da
un emparejamiento entre submetas y asertos. Hay dos tipos de reglas:
1. reglas hacia delante: derivan las implicaciones desde las premisas a la conclusión, y
2. reglas hacia atrás: son para comprobar la validez del argumento y van desde conclusión a
premisas.

En algunos argumentos se requiere la utilización de un tipo de reglas (mayor nivel de dificultad) en


otros de ambos, aumentando la complejidad o bien, puede haberlos donde no hay conclusión.

Se coloca la premisa en la parte superior del árbol de asertos, y la conclusión en la parte superior

M.Goretti González 5
del árbol de submetas, pudiéndo vincularse con otras submetas cuya verdad garantiza la verdad de
la conclusión. El modelo también utiliza suposiciones para asumir que una proposición es
verdadera y así generar inferencias adiocionales. Éstas se colocan en nodos subordinados del árbol
de asertos. Ejemplo:
Si no hay una M o no hay una P en la pizarra, entonces hay una R.
No hay una M

en consecuencia, Si no hay M, entonces hay una R

ÁRBOL DE ASERTOS ÁRBOL DE SUBMETAS

Premisa inicial:
2. Si no hay una M , entonces hay una R
1. Si no hay una M o no hay una P, entonces hay una R
(conclusión)
7. Si no hay una M, entonces hay una R

Nodo subordinado

3. No hay una M 4. Hay una R


6. Hay una R 5. No hay una M

Van enumeradas según el orden de entrada en la estructura de memoria. La premisa (1) se coloca
en árbol de asertos y la conclusión (2) en el de submetas. Luego se asume que el antecedente “No
hay una M” es verdadero y se ubica en nodo subordinado (3). También una nueva submeta “R”
subordinada para probar que el consecuente es verdadero. Este se deduce del aserto 1 si se puede
probar que “No hay una m o no hay una P” es verdadero. Luego se coloca una nueva submeta para
probar “No hay una M”. Dado que coincide con el aserto 3, se puede suponer que el aserto R es
verdadero y se puede probar como válido. El modelo evaluará como inválido un argumento
cuando no haya reglas que permitan encontrar el emparejamiento entre submetas y asertos.

Este modelo explica el proceso de razonamiento condicional como la generación de una prueba en
la memoria de trabajo en la que se admiten suposiciones. No tienen que ser necesariamente
verdaderas. El árbol de asertos reúne los pasos lógicos que conducen desde las premisas a la
conclusión y el árbol de submetas guía el proceso desde la conclusión a las premisas. Las reglas son
sensibles a las metas del sistema.

Rips formula catorce reglas de inferencia hacia atrás y diez reglas hacia adelante, que se aplican en
un orden de preferencia que empieza por las sencillas (conjunto no definido que tampoco abarca a
todo el conjunto posible, pero sí puede manejar un amplio conjunto de argumentos y su plausibi-
lidad psicológica viene dada por los propios protocolos verbales de los sujetos) De este conjunto
dos son Modus Ponens: hacia adelante y hacia atrás.
La regla del MP hacia adelante permite inferir “q” si en el árbol de asertos se encuentran las pro-
posiciones “si p, entonces q” y “p”. La regla del MP hacia atrás se aplica sobre el árbol de
submetas para aquellas situaciones en las que las condiciones iniciales tienen como meta deducir
“q” y “cuentan con el aserto “ si p, entonces q” y en este caso el sistema genera laa submeta “p” y
se infiere “q” que es el consecuente de la proposición de el árbol de asertos.

El modelo no cuenta con procedimiento directo para la detección de los argumentos inválidos. Un
argumento es inválido sólo si no se pueden encontrar reglas para probarlo. El análisis de protoco-

M.Goretti González 6
los verbales muestra que los sujetos también evaluamos un argumento inválido de forma directa y
sin necesidad de realizar una búsqueda exhaustiva.

Existen al margen varias perspectivas teóricas que no están de acuerdo con el acento lógico de
estos modelos y sus críticas subrayan la falta de explicación de los efectos del contenido sobre el
proceso de razonamiento.

3. TEORÍA DE LOS MODELOS MENTALES

3.1. Modelos mentales del condicional


La Tª de los Modelos Mentales (TMM) constituye un marco teórico gral del razonamiento deduc-
tivo. Comprende tres etapas:

1ª Comprensión: el sujeto utiliza su conocimiento sobre el lenguaje y su conocimiento en gral para


construir un modelo mental.
2ª Combinación de MM construidos a partir de las premisas con el fin de generar una descripción
lo más sencilla posible de estos. Debe enunciar algo que no esté explícito en premisas y es la con-
clusión tentativa del argumento.
3ª Validación: donde se buscan modelos alternativos de las premisas que puedan falsar la
conclusión.

La Tª MM logra explicar mayor número de resultados experimentales sobre la dificultad de los


problemas en términos de la cantidad de procesamiento y de las limitaciones de la memoria de
trabajo.

El enunciado condicional dependerá de su significado lingüístico y del contexto. El modelo mental


describirá el estado de lo que viene descrito en el antecedente y la relación del consecuente con el
antecedente que se presupone en ese contexto. En el condicional “Si Juan va a Barcelona, enton-
ces viaja en avión” , el antecedente representa la posibilidad y el consecuente representa lo que es
verdad cuando ocurre el antecedente.

Una representación exhaustiva es representada por corchetes [...] “p” no puede representarse en
otra situación que no sea aquella en la que se relaciona con “q”. Sin embargo, “q” puede darse en
otros modelos mentales con o sin “p”. Los tres puntos ... representan otros modelos posibles que
no se encuentran representados, pero que pueden hacerse explícitos. Al aumentar el número de
modelos explícitos también aumenta la carga de procesamiento. Los modelos implícitos pueden
desarrollarse en modelos explícitos de dos formas distintas, interpretación del condicional
(implicación material) y como bicondicional (equivalencia material)
En el modelo mental inicial, la inferencia modus ponens es directa y, la más fácil. Además el mode-
lo mental inicial es el mismo para el condicional como para el bicondicional, lo que explica cierta
Modelo [p] q Ambigüedad encontrada en su interpre-
inicial ... (modelos implícitos) tación.
CONDICIONAL BICONDICIONAL Cuando se plantea una inferencia Modus
Modelos [p] [q] [p] [q] Tollens: Saber que Si Juan va a Barcelona
explícitos [¬p] [q] entonces viaja en avión, y saber que Juan
[¬p] [¬q] [¬p] [¬q] no viaja en avión (¬q), no se puede ob-
tener una conclusión directa del modelo inicial, y hará
falta desplegar los modelos implícitos. Podemos ver que la inferencia modus Tollens para la impli-

M.Goretti González 7
cación material requiere tres modelos explícitos y para la equivalencia material tan solo dos. Se
puede explicar también que la inferencia Modus Tollens es más fácil en el bicondicional que en el
condicional y que no existan diferencias en el modus ponens al compartir ambas interpretaciones
el mismo modelo mental inicial.

El modelo mental inicial del condicional explica por qué los sujetos paracen ajustarse a una tabla
de verdad defectiva (bicondicional) al considerar irrelevantes aquellos condicionales en los que el
antecedente es falso.
TABLA DE VERDAD DEL CONDICIONAL
p q Implicación material Condicional defectivo
VERDADERO VERDADERO VERDADERO VERDADERO
VERDADERO FALSO FALSO FALSO
FALSO VERDADERO VERDADERO IRRELEVANTE
FALSO FALSO VERDADERO IRRELEVANTE

El modelo inicial solamente representa lo que es verdadero. Esto se ajusta a los resultados
experimentales que muestran la irrelevancia psicológica de un antecedente falso porque el modelo
mental inicial es precisamente una representación exhaustiva del estado actual de cosas descritas
en el antecedente. Para cualquier otra inferencia (que no sea modus ponens) habrá que generar
los modelos mentales explícitos. El conocimiento gral. y el conocimiento de las relaciones entre
antecedente y el consecuente influyen sobre este proceso de interpretación dando lugar a la gene-
ración de los modelos explícitos.

Las falacias de afirmar consecuente y negar antecedente se explican por la generación de los
modelos mentales explícitos: Los sujetos representan exhaustivamente tanto el antecedente como
el consecuente [p], [q] y cuando se afirma el consecuente [q] se produce también la afirmación del
antecedente [p]. La falacia de la negación del antecedente ocurre menos frecuente pues requiere
de otro modelo mental explícito: [¬p] [¬q], que da lugar a la inferencia ¬q.

Una de las críticas al modelo de reglas mentales es que acomodan los efectos del contenido a un
componente para laa comprensión de los enunciados, manteniendo intacta la estructura formal de
las reglas. Considerando que una de las reglas básicas es el modus ponens, Byrne 1989 demostró
qu esta inferencia se podía suprimir o bloquear por el contenido, y así se puede descartar que esta
inferencia se haga por la aplicación de una regla que se supone básica e independiente del conte-
nido.

Byrne inspirado en los trabajos de Rumain, Connell y Braine (1983) los cuales bloqueban las fala-
cias de NA y de la AC introduciendo una premisa adicional que establecía un antecedente
alternativo para el mismo consecuente:
Si voy a jugar al tenis, entonces me pongo el chandal. Y se presenta la premisa adicional como, Si
voy a hacer footing, entonces me pongo el chandal. Cuando se introduce esta los sujetos se dan
cuenta de que la negación del antecedente no implica la negación del consecuente (pues uno se
puede poner el chandal aunque no vaya a jugar al tenis) y que la afirmación del consecuente no
implica la afirmación del antecedente pues uno no tiene que ir necesariamente a jugar al tenis por
tener el chandal puesto. Rumian y cols. quería demostrar que los sujetos no tienen reglas para
estas falacias, pero Byrne quería con ello demostrar que no había ninguna regla mental ni la del
modus ponens. En su procedimiento no se introducía un antecedente alternativo, sino otro que

M.Goretti González 8
fuera necesario para que se cumpliera el consecuente:
Si salgo a hacer footing, entonces me paso por tu casa --> Si es una hora prudente, entonces me
paso por tu casa. En este caso la premisa adicional informa que hace falta otro antecedente para
que se cumpla el consecuente. Al presentarse “Salgo a hacer footing” los sujetos no hacen la infe-
rencia modus ponens y responden que no se sabe o que no se puede. Por tanto este resultado
cuestionna que existan reglas de inferencia MP que se apliquen independientemente del conteni-
do.

Politzer y Braine 1991 señalan que lo dicho por Byrne no es adecuado. Los autores defienden que
la interpretación que harían los sujetos de las dos premisas sería “Si salgo a hacer footing y si es
una hora prudente, entonces me paso por tu casa”, pero también uno puede decidir no pasar.
Admitiendo la réplica de estos autores, la Tª de los MM es más completa ya que logra predecir y
explicar un mayor número de resultados experimentales que los modelos de reglas. Braine 1993
sugiere que se puede razonar tanto con reglas de inferencia como con modelos mentales y que los
modelos metales son compatibles con su teoría.

3.2. La modulación semántica y pragmática.

La teoría de los modelos mentales reconoce que el conocimiento y la comprensión semántica y


pragmática forman parte de la primera etapa de comprensión. Johnson-Laird y Byrne 2002,
amplían la teoría para poder explicar los diferentes significados del condicional por medio de su
modulación.

El consecuente depende de alguna forma del antecedente y esta dependencia puede tener distin-
tos significados según el contexto en que ocurra (relación de implicación, causal, temporal, permi-
sos, obligaciones,...) El signficado central del condicional se corresponde con dos condicionales
básicos: 1) la interpretación condicional (mod.mentales) y 2) la interpretación tautológica, la cual
se expresa como “si p, entonces posiblemente q”. El antecedente es una descripción de una posi-
bilidad y el consecuente es la descripción de lo que puede ocurrir es esa posibilidad. La interpreta-
ción condicional expresa que el antecedente es suficiente para que ocurra el consecuente y que el
consecuente es compatible con todas las posibilidades.
Si p, entonces Si p, entonces posiblemente q En la interpretación tauto-
lógica hay dos modelos
Modelos Iniciales p q p q mentales iniciales para re-
... (modelos implícitos) p ¬q
presentar la posible ocu-
Modelos explícitos p q p q rrencia y no ocurrencia del
¬p q p ¬q consecuente. Donde “Si
¬p ¬q ¬p q hace bueno, entonces
¬p ¬q posiblemente salga de pa-
seo”, dando pie a la ocurrencia como a la no ocurrencia. Admite la representación de ambas posi-
bilidades.

El mecanismo de modulación semántica y pragmática interviene sobre el significado de estos


condicionales básicos dando lugar a un número indeterminado de distintos tipos de interpretacio-
nes. A consecuencia de ello se puede bloquear la generación de algunos modelos mentales. Esta
modulación facilita el despliegue de los modelos explícitos. Los sujetos utilizaban sus conocimien-
tos para hacer una inferencia modus tollens. Se encontró que la conclusión “Luis no se encuentra

M.Goretti González 9
en Marbella” (¬p) se generaba facílmente a partir de “Si Luis se encuentra en marbella (p),
entonces está en España (q) y “Luis no está en España” (¬q).

En otros casos la modulación semántica y pragmática añade información sobre la relación entre
antecedente y consecuente. Al contrario que la lógica, este mecanismo puede generar un número
ideterminado de distintos tipos de interpretaciones porque cuando se interpreta un condicional en
el lenguaje natural se están considerando las posibilidades de ocurrencias y no los valores de ver-
dad de las aserciones.

4. MODELOS DE REGLAS PRAGMÁTICAS.

La tarea de selección de Wason 1966 ha sido una de las pruebas más utilizadas para la mayoría de
las investigaciones sobre los efectos del contenido y el desarrollo de las Tªs y modelos con compo-
nentes sensibles a este contenido. Es la tarea paradigmática del condicional. Se presenta contenido
abstracto y el procedimiento consistía en presentar 4 tarjetas con letras por una cara y los números
por la otra. Se acompaña de un enunciado condicional en forma de regla y se pedía a los sujetos
que dieran la vuelta a la tarjeta o tarjetas que fueran necesarias para confirmar o falsar la regla:
“Si hay una consonante por una cara , entonces hay un número impar por la otra”.

P E 7 2

Ante la tarea, la mayoría seleccionan la tarjeta que se corresponde con el antecedente, o bien
seleccionan las dos tarjetas que se corresponden con el antecedente y consecuente (P y 7) Ello no
se corresponde con el modelo normativo donde la letra P confirmaría la regla modus ponens, y el
número 2, permitiría falsarla – modus tollens.

Al dotar de contenido a la tarea se encontró que el rendimiento de los sujetos mejoraba significati-
vamente pues estos seleccionaban las tarjetas correctas para confirmar y falsar el enunciado con-
dicional.

Barcelona Cadiz avión tren

Pronto se manifestó que no era el contenido concreto frente al contenido abstracto el responsable
de este efecto de facilitación, sino que este contenido fuera conocido por los sujetos. Su
explicación estaba basada en el repertorio de conocimientos del sujeto y el rendimiento correcto
se interpretó como un proceso de memoria y no como aplicación de reglas lógicas. No obstante,
algunos problemas con contenido concreto pero no familiar seguían produciendo facilitación.
Además, el contexto en el que se formulaba la tarea permitía resolveer correctamente los
problemas y estos resultados indicaban que la presentación de la misma con contenidos familiares
no era suficiente para explicar en todos los casos la facilitación, por tanto algunas alternativas ad-
virtieron de procesos de razonamiento específicos del dominio de conocimiento y que están mar-
cados por el contexto.

4.1. Esquemas de razonamiento pragmático

Cheng y Holyoak 1985, proponen que los sujetos utilizan esquemas de razonamiento que definen
como una estructura de conocimiento constituida por un conjunto de relgas con un nivel

M.Goretti González 10
intermedio de abstracción definido por el contexto. Estos esquemas contienen reglas que son sen-
sibles a diferetes clases de metas y se entiende que las respuestas serán correctas en la medida en
que sean de mayor utilidad para la situación en la que se encuentra el sujeto. Los aspectos
pragmáticos del razonamiento, son los encargados de encaminar el proceso de inferencia y será la
experiencia ante un conjunto de situaciones con una misma clase de metas la que irá conformando
los esquemas concretos. Si se presenta problema con contenido abstracto y los sujetos tienen
conocimientos sobre el razonamiento formal se puede resolver correctamente y en caso de no te-
nerlos, recurren a otro tipo de estrategias, muchas veces desencadenantes de sesgo de razona-
miento.

El modelo identifica unos esquemas de regulación constituido por permisos y obligaciones bajo los
cuales se pueden agrupar la mayoría de los problemas con contenido temático. Estos esquemas
hacen explícitas situaciones en las que para alcanzar una meta hace falta cumplir unos requisitos.
Los componentes incluyen los conceptos de posibilidad, necesidad, acción y los requisitos que se
han de cumplir.

Esquemas de PERMISO:
– Regla 1: Si se va a realizar la acción, entonces debe satisfacerse la precondición.
Semejante al modus ponens al enunciar explícitamente que la precondición “debe” cumplirse
cuando se va a realizar la acción.
– Regla 2: Si la acción no se va a realizar, entonces no necesita satisfacerse la precondición.
Con esta se bloquea la falacia de la negación del antecedente puesto que hace explícita la
irrelevancia de que se cumpla la precondición si no se va a realizar la acción.
– Regla 3: Si se satisface la precondición, entonces puede realizarse la acción.
Se bloquea la falacia de la afirmación del consecuente al enunciar la posibilidad de que la
acción puede, aunque no debe necesariamente satisfacerse, cuando se cumpla la precondi-
ción.
– Regla 4: Si no se satisface la precondición, entonces no debe realizarse la acción.
Enuncia explícitamente el modus tollens al incluir el imperativo “no debe” realizarse la acciónsi
no se satisface la precondición.

Estas reglas no son reglas lógicas pues son sensibles al contexto y a la interpretación de los térmi-
nos “puede” y “debe”. Además no siempere hay coincidencia entre los esquemas de razonamiento
pragmático y las reglas lógicas (Los problemas con relaciones causales y de covariación pueden
evocar esquemas de razonamiento distintos a los propuestos para las situaciones con regulaciones
y se explica porque los esquemas pueden variar en función de las metas del sujeto. Cuando el con-
texto se ajusta a una situación de regulación en la que la autoridad pone condiciones para alcanzar
un determiando objetivo, los esquemas serán los de permiso y obligación, pero si el objetivo es la
predicción sobre la transición entre estados del ambiente, se evocarán los esquemas causales. Así
se puede explicar el como los sujetos interpretan como una equivalencia material las relaciones
causa efecto y covariaciones.

Los resultados de Cheng y Holyoak (1985) mostraron que los sujetos resolvían correctamente la
tarea de selección siempre y cuando tuvieran las claves contextuales para interpretar la regla como
un permiso. Los sujetos sin experiencia en el contexto acertaban en la tarea con contenido, así
como que cuando se da entrenamiento en los esquemas, aunque sean abstractos, produce efectos
facilitadores. Girotto y cols. lo corrobora con el experimento en niños que se encuentran en el

M.Goretti González 11
estadio de las operaciones concretas e incluso otros más pequeños mejoraban significativamente
su rendimiento cuando los problemas se presentaban como esquemas de permiso. Ello lleva a de-
fender que el razonamiento está basado en los esquemas en lugar del modelo de la lógica natural.

Los autores encuentran que los esquemas de permiso producían efectos facilitadores incluso
cuando éstos no eran familiares, pero sí plausibles. El contexto donde se enmarca una regla de
permiso interactúa con su contenido para la obtención de los efectos de facilitación en la tarea de
selección.

4.2. Teoría de los contratos sociales

La Tª del Intercambio Social (evolucionismo cultural) desarrollada por Cosmides 1989, propone
una interpretación alternativa de los efectos de facilitación obtenidos con la tarea de selección de
Wason. Es semejante en aspectos a la Tª de los esquemas de razonamiento pragmático: mantienen
que los sujetos utilizan reglas de inferencia apropiadas al dominio sugerido en el problema y estas
inferencias pueden ser diferentes para distintos dominios de contenido. Se diferencian en el tipo
de reglas inferenciales que proponen y su origen. Para unos los esquemas de raz.pragmático se ori-
ginan por la experiencia, mientras que en la teoría de los contratos sociales son innatas. Señala
doña Cosmides que su teoría es una aproximación entre la moderna biología evolucionista y la
ciencia cognitiva. El enfoque evolucionista asume que la mente humana comprende un conjunto
de mecanismos de procesamiento en el sistema nervioso y que estos son producto de la selección
natural y están funcionalmente especializados para producir conductas determinadas (lenguaje,
relaciones familiares y cooperación).

Hay leyes que son inherentes al proceso de selección natural y que gobiernan y limitan el tipo de
conducta. La solución adaptativa para las situaciones de intercambio social son unos algoritmos de
contrato mediante los cuales un individuo está obligado a pagar un coste a un individuo o grupo si
quiere tener derecho a recibir un beneficio. Ello se da con el compromiso por parte de ambas par-
tes y cierta garantía de cumplirse. Detectan cuando alguien ha engañado o lo intenta. Contenido
de la tarea adaptada a la estructura coste/beneficio de forma que las cuatro tarjetas enuncian las
ss situaciones:
“Si se recibe el beneficio, entonces se tiene que pagar el coste”.

Benefi ci o Benefi ci o Cos te pa gado Cos te no pa gado


a cepta do p no aceptado (q) ( ¬ q)
( ¬ p)

El procedimiento para la detección del posible engaño daría lugar a que el sujeto eligiese las tarje-
tas “coste no pagado” y “Beneficio aceptado”, ya que permitirían detectar a los tramposos, y así ig-
norarse las tarjetas “coste pagado” y la “beneficio no aceptado”. Según Cosmides y Tooby, 89 los
resultados obtenidos por Cheng y Holyoak no constituyen un apoyo a la teoría de los esquemas de
razonamiento pragmático, sino que los efectos facilitadores de este experimento se debieron a que
se añadió información contextual que convirtieron las normas de permiso en contratos sociales.
Los problemas utilizan contenidos imaginarios que se presentan en el contexto de una historieta:
El problema de la raíz de “cassava” cuenta que en una tribu (imaginaria) cuando un hombre se casa tiene que llevar
un tatuaje en la cara y que sólo los hombres casados llevan tatuajes. Debido a que la raíz de “cassava” es un
afrodisiaco y a que sólo los casados pueden tener relaciones sexuales, los ancianos de la tribu establecieron la
s.norma: “Si un hombre come raíz de cassava, entonces tiene que llevar un tatuaje en la cara”.

M.Goretti González 12
En el problema del huevo del avestruz se cuenta que la comida “duiker” es desable y escasa. Para poder comerla
hay que encontrar un huevo de abestruz, que es una tarea de caza compleja. En este caso la norma sería:
“Si comes “duiker”, entonces tienen que haber encontrado un huevo de avestruz”.

Cuando los sujetos razonan acerca de las situaciones con la estructura coste/beneficio sus respues-
tas se ajustan a las predicciones del procedimiento para la detección del engaño.

Cheng y Holyoak 89 rebaten la crítica de Cosmides a su primer experimento señalando que una
vacuna que protege a una persona conta una enfermedad no es propiament un “coste” pagado a
otra persona o grupo. Respecto a su segundo experimento sobre el contenido abstracto, afirman
que el mero hecho de decir que se ha de cumplir un “requisito P” para poder realizar una acción A,
no marca lingüísticamente a la “acción A” como beneficio obtenido.

Cheng y Holyoak, ponen de manifiesto que Cosmides utiliza términos “intercambio social” y
“contrato social” indiscriminadamente. Ella misma reconoce que los contratos sociales también
incluyen situaciones de permiso y regulación y utiliza en algunos casos una definición amplia de
intercambio social en la que incluye el cumplimiento de un requisito para obtener un beneficio, y
una definición más restrictiva cuando el contenido del problema se ajustaa a la estructura
coste/beneficio.

4.3. Polémica entre los esquemas de razonamiento pragmático y los contratos sociales

Los esquemas de permiso podrían interpretarse como normas de contrato social y Girotto, Blaye y
Farioli (1989) estudian otros esquemas de regulación: obligaciones donde no se da esta ambigüe-
dad. Respecto a las predicciones de Cosmides, se encuentra que sigue la facilitación cuando los
problemas se formulan como obligaciones, aún careciendo de estructura coste/beneficio.
Concluyen que la teoría de los esquemas de razonamiento pragmático explican número mayor de
resultados experimentales tanto interpretando casos como situaciones de regulación social como
con la estructura de coste/beneficio.

Politzer y Nguyen-Xuan 1992 contrastan las predicciones de la Tª de los esquemas de


razonamiento pragmático y las de los contratos sociales al estudiar el papel que desempeña el su-
jeto en la tarea de selección cuando adopta distintas perspectivas. El objetivo era ampliar la
propuesta de los esquemas a situaciones de intercambio social en las que se pudiera adoptar dos
puntos de vista alternativos cuando se presentaba una promesa condicional y una advertencia
condicional. Los resultados apoyan a la teoría de los esq.de raz.pragmático y no a la de los
contratos sociales, pues se encuentra que las promesas y advertencias condicionales se ajustan a
un esquema compuesto de permiso y obligación, dependiendo del papel que desempeñe el sujeto
en ambas situaciones.

ESQUEMAS DE PERMISO ( Cheng y Holyoak, 1985)

Regla 1: si se va a realizar la acción Y, entonces debe Regla 3: Si se satisface la precondición Z, entonces puede
satisfacerse la precondición Z. realizarse la acción Y.
Regla 2: Si la acción Y no se realiza, entonces no necesita Regla 4: Si no se ssatisface la precondición Z, entonces no debe
satisfacer la precondición Z. realizarse la acción Y.

M.Goretti González 13
ESQUEMAS DE OBLIGACIÓN (Cheng, Holyoak, Nisbett y Oliver, 1986)

Regla 1: Si OCURRE la situación Y, entonces se debe realizar la Regla 3: Si la acción Z se ha realizado, entonces puede haber
acción Z. ocurrido la situación Y.
Regla 2: Si no OCURRE la situación Y, entonces no es necesario Regla 4: Si la acción Z no se ha realizado, entonces la situación
realizar la acción Z. Y no debe haber ocurrido.

Una regla de permiso se convierte en una obligación desde el punto de vista del que hace la pro-
mesa y es un permiso desde la perspectiva del que la recibe. Siempre el sujeto intentará aplicar los
esquemas de reglas de su interlocutor (el que la hace, aplica el esq.permiso y el que la recibe
utilizará esq.de obligación) . Si se adopta un punto de vista neutro entonces se hará una
interpretación bicondicional de la situación.

Markovits y Lesage 1990 encuentran evidencia experimental que apoya la utilización de


esquemas de razonamiento pragmático cuando el condicional se presenta como promesas. Los
sujetos parecen poseer esquemas de razonamiento que conducen a la interpretación bicondicional
ante problemas con promesas condicionales. El efecto de estas promesas condicionales dependía
del tipo de contexto en el que se enmarcaba el problema

Gigerenzer y Hug 1992 interpretan el cambio de perspectiva como evidencia a favor de la Tª de los
contratos sociales. Tienen como objetivo la diferenciación experimental entre el concepto de
contrato social y el algoritmo para la detección de tramposos. El porcentaje de respuestas
correctas disminuye cuando los sujetos resuelven la tarea de selección desde la perspectiva de un
contrato social con situaciones de permiso u obligación y en la que la detección de tramposos es
irrelevante. Defienden el papel que desempeña el mecanismo para la detección de los tramposos,
atenuando la relevancia del contrato social y descartando los esquemas de regulación.

Platt y Griggs 1993 logran separar por orden de importancia los efectos de algunos de los factores
que previamente habían producido facilitación, encontrando que la estructura coste/beeneficio es
necesaria praa obtener los efectos facilitadores en los problemas de contrato social. La perspec-
tiva del engaño y la presencia de la negación explicita sólo contribuyen a mejorar el rendimiento
cuando la tarea es ambigua. El término “debe” producía efectos facilitadores en un número mayor
de casos que los dos últimos factores.

Manktelow y Over, descartan ambas propuestas para apoyar una ampliación de la Tª de los MM
que incorpore las utilidades e sus representaciones. Señalan los efectos facilitadores de los térmi-
nos deónticos incluidos en los esquemas de permiso y los contratods sociales. Distinguen el condi-
cional con términos indicativos (tarea abstracta) y el condicional con términos
deónticos( esquemas de permiso y contratos sociales).

Jackson y Griggs señalan que los efectos facilitadores en los problemas con contenido abstracto
son productoo de dos factores ajenos a los esquemas de razonamiento:
1) enunciar la negación explícita para ¬p y ¬q , (“ Si hay una P, entonces hay un 7 ”--> “Si hay una P,
entonces no hay un 7”) y de la negación implícita sería “Si hay una P, entonces hay un 2” )
2) presentación de un contexto de búsqueda de posibles violaciones de la regla.

Cuando los problemas se formulan como esquemas de permiso abstractos, pero con la negación
implícita y en un contexto orientado a la comprobación de una regla y no a su violación, estos
efectos de facilitación desaparecen.

M.Goretti González 14
Cuando se usa la negación explícita, su formulación coincide con el antecedente de la regla 4 de los
esquemas de permiso, haciendo que el efecto de facilitación sea mayor en la evocación de los
esquemas.

Cuando se utiliza la negación implícita es necesario que el sujeto infiera que el cumplimiento de
una condición distinta a la comprendida en la regla implica que no se ha cumplido la condición de
la regla. Se supone que una de las dos condiciones y no ambas pueden ser satisfechas.

La propuesta de Cosmides sobre los contratos sociales queda asumida como parte de los esque-
mas de regulación de Cheng y Holyoak. La delimitación conceptual entre los esquemas de
regulación (permiso y obligación) y los contratos sociales es difusa y las críticas se han centrado
principalmente sobre el concepto de la estructura coste/beneficio, puesto que los problemas en
los que se han obtenido efectos facilitadores no se ajustan a esta estructura, incluso algunos de los
problemas utilizados por la misma Cosmides.

5. TEORÍAS DE LA RELEVANCIA

5.1. Teoría de la relevancia de Sperber y Wilson

Según la Teoría de la Relevancia (Sperber y Wilson) el razonamiento se encuentra determinado


por las expectativas que tienen los sujetos sobre la relevancia suscitada por el contenido y
contexto de la tarea. Los autores sostienen que en la tarea de selección lo que se pide a los sujetos
es seleccio-nar aquello que sea relevante para el proceso de inferencia.

Sperber y Wilson parten del supuesto de que los procesos cognitivos se guían por la información
que sea más relevante en ese momento y sobre la que acomodan un contexto de supuestos para
maximizar su relevancia (Primer principio Cognitivo de Relevancia) Cuanto mayor son las expec-
tativas sobre los efectos cognitivos mayor será la relevancia y cuanto mayor sean los costes del
procesamiento menor será la relevancia.

El ser humano está preparado para interactuar con el ambiente, y con la información más saliente
y que sea fácil de representar. Sin embargo, la información que se comunica difiere de la
información ambiental puesto que en general suscita relevancia. Todo acto de comunicación
transmite una presunción de su propia relevancia (Segundo princpio Comunicativo de Relevancia)
Este principio garantiza que espontáneamente se ponga en marcha el proceso de comprensión
ante la emisión de un acto comunicativo.

En el laboratorio encontramos que las tareas suelen ser tan artificiales que las expectativas de
relevancia de los individuos son mínimas.Las consecuencias se pueden probar directamente en el
orden en qe se encuentran disponibles y se obtiene una conclusión cuando se alcanzan las expec-
tativas de relevancia. Las consecuencias más pertinentes: 1 y 2 menor
1) la regla implica que cualquier tarjeta con una (p) tendrá una (q) por el otro lado. cos te, y es -
fuerzo míni -
2) La regla implica que en la mayoría de los contextos hay casos p y q. mo.
3) La regla contradice el supuesto de que hay casos de (p) y (¬q)

Para que los sujetos logren una interpretación del condicional como una negación de los casos (p)

M.Goretti González 15
y (¬q) como la afirmación de que no hay casos (p) y (¬q) (negación implícita) hace falta que esta
consecuencia sea por lo menos tan accesible y rica en las expectativas sobre los efectos cognitivos
como los casos (p) y (q), entendido desde la interpretación de la regla y no desde su aplicación.

Para generar una tarea de selección se proponen unas directrices:


1. Seleccionar características sencillas de forma que (p) y (¬q) resulte tan fácil como (p) y (q):
“soltero” -> combina “ser varón” (p) y “no estar casado” (¬q)
2. Generar un contexto donde los efectos cognitivos de los casos “p y ¬q” sean mayores que
los de “p y q” (que el conocimiento de p y q sea trivial).
3. Presentar la tarea de forma pragmática para que la artificialidad no desvíe la atención de
los sujetos: introducir la regla dentro del contexto de una historia y que sea uno de los per-
sonajes el que la exponga.

Sperber, Cara y Girotto 1995 diseñaron cuatro experimentos para analizar la versión abstracta y
varias temáticas de la tarea de selección vs distintas versioes de la tarea donde se manipularon los
efectos cognitivos y el coste dela relevancia. Los resultados se ajustaron a las predicciones de la Tª
de la Relevancia y mostraron la utilidad de las directrices propuestas con el fin de generar una
tarea de selección sencilla y con resultados correctos. La explicacón de estos resultados se
extiende a los efectos de facilitación encontrados en la negación explícita y con los términos
deónticos. Cuando se utiliza la negación:
“Si hay una consonante por un lado, entonces no hay número par por el otro”
Las tres consecuencias más pertinentes serían las siguientes:
1. la regla implica que cualquier tarjeta (p) tendrá por le otro lado una (¬q)
2. la regla implica que en la mayoría de los contextos hay casos (p) y (¬q) (negación explícita)
3. la regla contradice el supuesto de que hay casos p y q (negación implícita)

Los sujetos seleccionan las tarjetas (p) y (q) porque la negación implícita requiere menos coste y
los efectos cognitivos son los de la interpretación de la negación.

Los autores indican que la versión indicativa y la deóntica son dos tareas diferentes. En la primera
se razona sobre la verdad de la regla, mientras que en la deóntica se hace a partir del
cumplimiento de una regla. Los efectos de facilitación encontrados en la versión deóntica se expli-
can por su interpretación dentro de un contexto. Una regla que no contenga el término “debe”
puede interpretarse como algo que debería hacerse siempre y cuando la regla tenga sentido en el
contexto pragmático. En la versión abstracta no hace que la regla se interprete como un deber,
mientras que sí en la deóntica aunque no vaya explícito el término:
“Si hay una consonante por un lado, entonces “debe” haber un nº impar por el otro” (debe siempre)
“Si una persona bebe alcohol, entonces es mayor de edad” (no está el término “debe” pero se interpreta)

Cuando en la versión indicativa se logra la interpretación del condicional como una negación de la
existencia de casos p (hay consonante por un lado) y ¬q (no debe haber impar por el otro = par), y
en la versión deóntica como una interpretación de la ocurrencia p y ¬q, se resuelve la tarea correc-
tamente.

5.2. Teoría heurística y analítica de Evans

Evans distingue dos procesos para explicar el razonamiento: los heurísticos y los analíticos. Los

M.Goretti González 16
heurísticos seleccionan la información relevante y son procesos pre-atencionales de naturaleza
pragmática. La información seleccionada pasa a los procesos analíticos en donde tiene lugar el
razonamiento, aunque no existe un compromiso explícito con el tipo de modelo que permitiría
explicar las inferencias.

Ya sabemos que las respuestas más frecuentes en el condicional, son (p) y (p y q). La interpretación
original de Wason fue que los sujetos mostraban sesgo hacia la confirmaciónde la regla y no
perseguían su falsación. Sin embargo Evans 1972, descubrió que se daba la posibilidad de que se
diera otro sesgo, emparejamiento (E de Evans :-) Este consistía sencillamente en que los sujetos
estuvieran seleccionando las tarjetas que coincidieran con los términos de la regla y que no
pensaran en esa “afirmación” de Wason. En versiones afirmativas no se distingue entre ambos
sesgos, por lo que se investigó con las negaciones.
“Si hay una consonante por una cara , entonces hay un número impar por la otra”.
(p) (q)
Si ocurre el sesgo de emparejamiento, las tareas elegidas coincidirían con los términos de la regla
sin la negación y además sería lo correcto.

“Si hay una consonante por un lado, entonces no hay un número impar por el otro”
(si p, entonces ¬q)

P (p) E (¬p) 7 (q) 2 (¬ q)

Según el sesgo de confirmación se buscarían confirmar la regla y seleccionarían las tarjetas (p) y
(¬q) , mientras que si se da el sesgo de emparejamiento se seleccionarían las tarjetas (p) y (q)
(consonante y nº impar). Los resultados apoyan la hipótesis del emparejamiento. La selección de la
información se explica por dos heurísticos:
– uno se pone en marcha por término “Si” del condicional y hace que el sujeto se centre en el
antecedente,
– y el otro es de carácter más general y hace que la atención se dirija hacia el tema del
enunciado.

Ante una regla con una negación explícita, el sujeto se focaliza sobre el antecedente y el
consecuente y que pase de los procesos heurísticos sin haber razonado. (AY!!! si razonáramos algo más,
las cosas serían muy diferentes!) Se seleccionan las tarjetas relevantes, salientes, prominentes, sin pasar
por la parte analítica. En otras pruebas como en la tabla de verdad, la etapa analítica se pone en
marcha y filtra parte de la información que ha sido seleccionada en la etapa heurística.

6. TEORÍAS PROBABILÍSTICAS
6.1. Teoría bayesiana del condicional

Kirby 1994, introduce el análisis de los juicios probabilísticos para explicar el rendimiento de los
sujetos en la tarea de selección. El fracaso de la mayoría de los sujetos al no seleccionar la tarjeta
(¬q ) se explica por la baja probabilidad que hay de encontrar (p) cuando el conjunto de
ocurrencias es pequeño V.g. “vocales” Si hay una vocal por un lado, entonces hay nº impar en el
otro”.

M.Goretti González 17
Los autores Oaksford y Chater 1994 proponen que las frecuencias en la selección de las tarjetas
son una función monotónica de la ganancia en información que se espera obtener en cada una. Se
sitúan en el marco teórico en el que la racionalidad se entiende como adaptativa en el sentido de
que el comportamiento será racional si se adapta de forma óptima en el ambiente. Parte de los
siguientes supuestos:
1. las metas del sistema cognitivo se dirigen hacia la selección de información relevante.
2. Las propiedades que figuran en las relaciones causales son raras o poco frecuentes en el
ambiente.
3. Los sujetos resuelven la tarea de acuerdo con el modelo bayesiano para la selección óptima
de los datos y bajo el mencionado “supuesto de rareza”.

Los sujetos seleccionan la tarjeta (tarjetas) que al darle la vuelta aporte más información sobre la
comprobación de una de dos hipótesis:
1ª existe dependencia en la forma “Si p, entonces q), y
2ª la hipótesis alternativa más sencilla, que p y q son independientes.

Al aplicar el modelo se obtiene que:


– la tarjeta (p) será informativa en la medida en que la probabilidad de (q) sea baja,
– la tarjeta (q) lo será cuando la probabilidad de (p y q) sean bajas ambas,
– la tarjeta (¬q) será informativa cuando la probabilidad de (p) sea alta,
– la tarjeta (¬p) no es informativa.
Se concibe así que el orden de frecuencias en la selección de las tarjetas p > q > ¬q > ¬p
En las versiones temáticas con términos deónticos, se concibe la tarea de selección como el uso de
una regla frente a la cmprobación de una regla de versión indicativa. El modelo probabilístico
calcula la utilidad esperada, y la regla se utiliza con el fin de maximizar la utilidad esperada que
varía en función de la perspectiva.

Green, Over y Pyne 1997, encuentran que las estimaciones que hacen los sujetos sobre la ocurren-
cia de los contraejemplos de (q) se encuentran determinados por el tamaño del conjunto de (p),
aunque señalan que esta relación es algo más compleja porque el valor asignado a la información
(confirmación y desconfirmación) también se tienen que comparar con otros beneficios/costes
esperados.

6.2. Teoría de la suposición

La Teoría de la suposición de Evans y Over (2004) también asume que el razonamiento condicional
se basa en la evaluación de unas posibilidades que son hipotéticas con respecto a la ocurrencia del
antecedente. El condicional es un pensamiento hipotético por medio del cual se generan los MM
del antecedente y sobre esta base se considera la probabilidad o el grado de creencia de que
ocurra el consecuente. Ante un enunciado condicional “si p, entonces q”, los sujetos van a
considerar cuál es la probabilidad de que ocurra (q) dado (p).

Esta idea se opone a la teoría de los modelos mentales al no admitir que los modelos mentales se
ajusten a una interpretación del condicional básico como una implicación material. En la
formulación probabilística no hay cabida para la no ocurrencia del antecedente. Según la teoría de
la suposición, ante un enunciado condicional se emite un juicio sobre la probabilidad condicional
subjetiva de que ocurra el consecuente cuanndo ocurre el antecedente.

M.Goretti González 18
Evans, Handley y Over 2003, (seguían aburridos los pobres, je,je,je ) realizaron una investigación en la que
se pedía directamente a los sujetos que evaluaran la prob de los enunciados condicionales en un
contexto en el que se especificaba la frecuencia relativa de todas las posibles lógicas:
37 cartas con dibujos (círculo o diamante en amarillo o rojo)
– 1 carta con círculo amarillo.
– 4 cartas con diamantes amarillos.
– 16 cartas con círculos rojos.
– 16 cartas con diamantes rojos.
La tarea consistía en señalar en una escala de 1 (poco probable) a 5 (muy probable) la probabilidad
de que la siguiente afirmación fuera verdadera si se escogiera una carta al azar:
“Si la carta es amarilla, entonces tiene dibujado un círculo”.
(p) amarilla (q) círculo
(¬p) no amarilla (¬q) no círculo

Se calcula la probabilidad del enunciado codicional según se interprete como una implicación
material, una probabilidad condicional o una probabilidad conjuntiva. Según este cálculo, la
implicación material predice que el enunciado condicional será evaluado como muy problable
(0,90); la probabilidad conjuntiva como muy poco probable (0,03); y la prob.condicional como
enunciado con una probabilidad entre ambos extremos (0,20). (Vease las tablas de verdad)

Los resultados experimentales mostraron que el 50% de los sujetos se ajustaron a la interpretación
de la probabilidad condicional, y el 43% a la de la probabilidad conjuntiva, no siendo significativa la
del la implicación material (¡vamos que no elegimos bien cuando es la más probable!) La interpretación de los
datos de la probabilidad conjuntiva se corresponde con la del Modelo mental inicial de la Tª de los
Modelos Mentales (pq) aunque es inconsistente que los modelos mentales implícitos (¬pq y p¬q)
no hayan tenido ningún efecto sobre la evaluación del enunciado condicional.

Evans y Over no se oponen a la concepción de la teoría de los modelos mentales, son que su
crítica se centra en el supuesto de los valores de verdad. Defienden que las personas interpretan
un enunciado condicional como la probabilidad de que ocurra el consecuente cuando suponemos
que se ha dado el antecedente.

¡.... sin comentarios!

M.Goretti González 19
1

Tema 6 Razonamiento probabilístico


1. Introducción
Cuando hacemos una predicción o pronóstico, tomamos una decisión o buscamos la causa de un
hecho determinado estamos evaluando la probabilidad de que determinados acontecimientos vayan
a ocurrir o hayan ocurrido.
Nuestras predicciones sobre acontecimientos futuros se basan en información incompleta,
parcialmente imprevisible y ambigua, en los que la certeza de nuestros juicios se sitúa en un margen
determinado de probabilidad. Esto es, las conclusiones a las que llegamos se sitúan en un margen de
incertidumbre.
El razonamiento probabilístico es importante en el ámbito profesional cuando no pueden
contemplarse en su totalidad todas las variables posibles que influyen o dan lugar a una determinada
consecuencia. El diagnóstico clínico en medicina y psicología, la potencial eficacia de metodologías
innovadoras en educación, sentencias judiciales, pronósticos electorales,... son ejemplos de juicios
predictivos en los que las conclusiones no son inequívocamente ciertas sino probablemente ciertas.
El razonamiento probabilístico constituye una modalidad de pensamiento que se enfrenta a
problemas abiertos, no muy bien delimitados, en un mundo cambiante y complejo, en el que la
información es incompleta y se modifica temporalmente. Se generan por tanto, formas de percibir,
computar y representar las VV externas para emitir juicios que permitan estimar esa variabilidad y
actuar sobre el entorno.
Las leyes de probabilidad juegan un papel similar a las leyes de la lógica en el razonamiento
deductivo y constituyen un modelo normativo o prescriptivo respecto a las inferencias
probabilísticas.

2. El teorema de Bayes
Cuando asignamos un valor de probabilidad a un suceso podemos conocer o no el espacio de
probabilidades.
Si se conoce este espacio, como en el lanzamiento de un dado o de moneda,
asumiendo la equiprobabilidad de las diferentes posibilidades, la probabilidad de un
suceso aleatorio sería el cociente entre el número de resultados favorables y el número
total de resultados posibles.
Si se repite el lanzamiento de un dado, la probabilidad de sacar un dos, será
equivalente a su frecuencia relativa de 1/6.
En la vida diaria, no conocemos el espacio completo de probabilidades en relación a
un suceso determinado, por lo que estimamos subjetivamente en relación al espacio
muestral, añadiendo que las diferentes alternativas no son necesariamente
equiprobables.

Apuntes de M. Goretti González completados y modificados por Marina Uned


2

La Teoría de la probabilidad, tanto si la fuente de la que se ha obtenido la probabilidad es objetiva o


subjetiva, asume un conjunto de axiomas:
Al gabinete de Ana acudieron el año pasado 100 pacientes. De ellos 30 sufrían
trastorno depresivo, 20 fueron diagnosticados de fobias específicas, y los 50
restantes de problemas de ansiedad
1. La probabilidad de un suceso (S) varía entre 0 (imposibilidad) y 1 (certeza).
Ejemplo: La P de sufrir un trastorno de ansiedad es de 50/100 = 0,50 La P de
sufrir un trastorno depresivo es de 30/100 = 0,30 La P de sufrir fobia específica
es de 20/100 = 0,20
2. La suma de las P de todos los posibles sucesos en un espacio muestral dado es 1.
La probabilidad de “NO OCURRENCIA” de un suceso (S) es igual a 1 menos la probabilidad de
que sí ocurra.
P (noS) = 1- P(S)
Ejemplo: La suma de las probabilidades de todos los posibles sucesos =
(30/100) + (20/100) + (50/100) = 1
3. Si dos sucesos (S1) y (S2) son mutuamente excluyentes, la probabilidad de S1 ó S2 será igual a
la suma de sus probabilidades.
P (S1 ó S2) = P(S1) + P(S2)
Ejemplo: La probabilidad de sufrir un trastorno depresivo o de sufrir una fobia
específica = (30/100) + (20/100) = 0,50
Terminada la primera fase de tratamiento, el porcentaje de curación en el
grupo de trastornos depresivos fue del 50%, en fobias del 70% y del 40% en el
grupo de pacientes con problemas de ansiedad.
4. a) Si dos sucesos (S1) y (S2) son DEPENDIENTES, la probabilidad de la conjunción de estos
sucesos será igual al producto de la probabilidad de S1 por la probabilidad de S2 asumiendo S1.

P (S1 y S2) = P (S1) x P (S2 dado S1) = P (S1 y S2) = P (S1) x P (S2/S1).
El Segundo factor de este producto se denomina probabilidad condicional de S2 dado S1.
Ejemplo: La P de que un paciente haya sido diagnosticado de ansiedad y se haya curado = P
(ansiedad) x P (curado/ansiedad) = 0,50 x 0,40 = 0,20
b) Si dos sucesos (S1 y S2) son INDEPENDIENTES, la probabilidad de la conjunción de estos
sucesos será igual al producto de la probabilidad de S1 por la probabilidad de S2. P (S1
y S2) = P (S1) x P(S2)

Apuntes de M. Goretti González completados y modificados por Marina Uned


3

Imaginemos que del conjunto de pacientes que asistieron a terapia extraemos


uno al azar y está curado. ¿Cuál es la probabilidad de que dicho paciente
hubiera sido diagnosticado de depresión?
Thomas Bayes añadió a esos axiomas una fórmula conocida como el Teorema de Bayes, el cual
permite calcular la probabilidad condicional inversa (probabilidad posterior o a posteriori).
El cálculo no es directo ya que conocemos el dato (el paciente está curado) pero
tenemos tres posibles opciones de diagnóstico previo o hipótesis de partida:
depresión, fobia o ansiedad.
El teorema constituye la ley fundamental en la que se basa este tipo de inferencia
probabilística, tanto cuando la información procede de datos muestrales como
cuando es de estimaciones subjetivas de probabilidad.
El primer concepto es la Hipótesis (el paciente curado podría haber sido diagnosticado de
cualquiera). Se describe en la primera columna, y en la segunda la P asociada a cada una de las
hipótesis del espacio muestral.
La tercera columna engloba describe los dos posibles datos (curación o no curación) de un paciente
extraído al azar.
La cuarta columna recoge la probabilidad del Dato (curación) y su probabilidad complementaria para
cada hipótesis.
Con las columnas 2 y 4 podemos calcular la probabilidad que recoge el cuarto axioma: la
probabilidad conjunta de que un paciente haya sido diagnosticado de cada uno de los trastornos y se
haya curado o no. La quinta columna recoge las seis posibles probabilidades conjuntas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


4

1. La probabilidad a priori de la Hipótesis: P (H).


La hipótesis relevante para el problema que tenemos es P (depresión)
2. La diagnosticidad del Dato para la hipótesis: P (D|H).
En el problema planteado P (curación |Depresión).
Este valor recibe el nombre de diagnosticidad del dato porque el dato (curación) se puede
dar en presencia de otras dos posibles hipótesis alternativas: P (D|H2) o P (D|H3).
3. Con el producto de estos se obtiene la probabilidad conjunta de dos sucesos dependientes
P (H) x P (D|H).
Haber sido previamente diagnosticado de depresión y curarse dado el diagnóstico previo de
depresión que en nuestro ejemplo sería P(depresión) x P(curación|depresión)
4. La probabilidad condicional inversa o posterior. Denominado así porque es la P inversa de la
condicional P (D|H). P (H|D)
Conociéndose la probabilidad condicional de curarse habiendo sido diagnosticado de
depresión: P (curarse|depresión) se pretende conocer la probabilidad inversa.
Sabiendo que un paciente extraído al azar está curado ¿cuál es la probabilidad de que
hubiera sido previamente diagnosticado de depresión? P (Depresión|curación)

Siguiendo el Teorema de Bayes, el cálculo sería el resultado de dividir la probabilidad de los casos
favorables por la suma de las probabilidades de todos los casos posibles.
El axioma 4 explica el numerador del Teorema (P de casos favorables) y el axioma 3 explica el
denominador (suma de las probabilidades de los casos posibles.

Arieta Pinedo y González Labra señalan que la inferencia bayesiana permite introducir probabilidades
subjetivas tanto al evaluar a priori como al evaluar las probabilidades condicionales de un suceso.
Pueden obtenerse de distintas fuentes, tales como la evidencia, teorías previas o simplemente de la
opinión y creencias de la persona.
La hipótesis alternativa es la ausencia de la hipótesis focal de tal forma que su probabilidad
complementaria se calcula aplicando el axioma 2 de la Tª de la probabilidad. Fijémonos en el cuadro
6.1.

Apuntes de M. Goretti González completados y modificados por Marina Uned


5

Análisis en sujetos no expertos


Pero si volvemos al ejemplo de Ana, imaginemos otro experimento de razonamiento probabilístico
cuyo objetivo es analizar en sujetos no expertos en Tª de la probabilidad cuál sería la solución al
problema planteado sin necesidad de realizar cálculos matemáticos:
Problema A
Seleccionamos un paciente al azar y encontramos que está curado. ¿Qué P será mayor?: a) fue
diagnosticado de fobia específica o b) fue diagnosticado de ansiedad.
Si se elige la opción A, esta elección coincide con un porcentaje alto de participantes
aunque es incorrecta.
Problema B
Ana plantea analizar qué variables explican que después de la primera fase del tratamiento sólo el
40% de los pacientes sanen de su ansiedad. Cita un día a todos los curados y en otro día a los que
siguen en el proceso.
Elena sufre de ansiedad y acude a consulta a pedir cita el día que ésta citó a los curados. En la sala
coinciden con Elena y le transmiten a ésta el éxito y rapidez de curación tras la primera fase de
tratamiento. A partir de la información Elena considera que la primera fase de tratamiento empleado
por Ana para el tratamiento de la ansiedad: a) es altamente eficaz b) es parcialmente eficaz.
Elena selecciona la A) y es incorrecta. En el caso del problema A, aun contando con
toda la información, el error se produce porque una mayoría se centran en el valor del
porcentaje de curación (70%), la diagnosticidad del dato en relación a la hipótesis, y
desatienden a la probabilidad a priori de sufrir el trastorno (20%).
No cuenta con toda la información relevante, la diagnosticidad del dato en presencia
de la hipótesis alternativa (no se ha curado).

La evidencia empírica demuestra que el razonamiento probabilístico humano generalmente no es


extensional (no contempla el conjunto de probabilidades de forma exhaustiva).
En muchas ocasiones, las estrategias conducen a resultados correctos y son efectivas
y económicas en tiempo y esfuerzo cognitivo pero pueden resultar a la vez imprecisas.
En el problema A, se desatiende al porcentaje sobre el total de 100 casos que fueron
diagnosticados de los diferentes trastornos.

Apuntes de M. Goretti González completados y modificados por Marina Uned


6

Cuadro 6.1. Aplicación del Teorema de Bayes a partir de probabilidades subjetivas.


Pedro se presenta a una oposición, sin experiencia práctica similar, junto a otras muchas personas.
Para conseguir el puesto se tiene en cuenta tanto los méritos del opositor como la nota de examen.
Pedro considera tener muy pocas posibilidades: P (H) = 0,05 -> conseguirlo. No conseguirlo = 0,95. Lo
ha asignado después de ver el listado de los méritos de todos los candidatos. Realizado el examen,
obtuvo una nota de 8,6. La estrategia de la empresa, aun valorando el currículo, es dar una gran
importancia a la calificación del examen, hasta el punto de que prácticamente todos los que
obtienen la plaza han aprobado con buena nota. Pedro también conoce personas que aun sacando
una buena calificación no obtuvieron el puesto en convocatorias anteriores. A este hecho le asigna
una probabilidad de 0,10 -> P (sacar buena nota| no plaza) = P (D| H´) = 0,10 y P (sacar buena nota|
plaza) = 0,98 = P (D| H) = 0,98 ¿Cuál es la probabilidad de que Pedro obtenga el puesto de trabajo
una vez conocida la buena calificación obtenida en el examen? Obtenida la nota, Pedro ha pasado de
0,05 a 0,34 de probabilidad.

3. Enfoque de los heurísticos


Los heurísticos constituyen reglas y estrategias intuitivas*, que se aplican deliberadamente o no para
hacer una estimación o predicción.
*Intuitivo se aplica a un modelo de razonamiento informal y no estructurado, sin
utilizar métodos analíticos y cálculos deliberados, compatible con el modelo del
mundo de personas no expertas en lógica y estadística y que es aplicado en nuestra
conducta habitual.
La evaluación natural y económica en cuanto a recursos cognitivos y tiempo está al
margen de consideraciones básicas de la teoría de la probabilidad y puede dar lugar a
distintos errores sistemáticos (sesgos o falacias) característicos de cada uno de ellos.
El estudio de los sesgos y errores sistemáticos se investiga en el razonamiento
probabilístico, también desde los principios de la percepción normal y desde la
memoria estudiando el olvido.

Apuntes de M. Goretti González completados y modificados por Marina Uned


7

Teversky y Kahneman iniciaron y desarrollaron un programa de investigación que sustenta los tipos
básicos de heurísticos: representatividad, accesibilidad, y anclaje y ajuste.
Más recientemente se contempla el estudio desde un modelo más integrador.

a. Heurístico de representatividad
Definición
Los juicios probabilísticos responden a una de estas preguntas: 1. ¿Cuál es la P de que el objeto A
pertenezca a la categoría B? 2. ¿Cuál es la P de que el proceso B sea la causa del acontecimiento A?,
o 3. ¿Cuál es la P de que el dato A se genere a partir del modelo B?
Para responderlas acudimos al heurístico de representatividad por el cual las
probabilidades se juzgan en base a la medida en que A es representativo o se asemeja
a B.
La investigación ha demostrado que la información de los prototipos y esquemas
contribuyen significativamente a la forma en que almacenamos y procesamos la
información.
Esta estrategia para abordar estos juicios probables, produce sesgos significativos
pues la semejanza no se ve afectada por factores que deberían afectar a los juicios de
probabilidad.
La evidencia empírica demuestra el efecto de la insensibilidad a estos factores así
como el impacto sobre los juicios de concepciones estadísticas inexactas.

Insensibilidad a las probabilidades a priori


Uno de estos factores que no afectan a la representatividad (aunque debiera tener efecto sobre el
juicio probabilístico) es la probabilidad a priori o la frecuencia base del resultado.
Estudio: Kahneman y Tversky realizaron un estudio en el que los participantes
analizaron descripciones de personalidades de una muestra de 100 individuos
(ingenieros y abogados).
Condiciones experimentales: a una condición experimental se les indica que 70% son
ingenieros y 30 % abogados. En la otra condición, es 30% de ingenieros y 70 % de
abogados.
Jack tiene 45 años, casado y cuatro hijos. Conservador, prudente y ambicioso.
No manifiesta intereses políticos y sociales y emplea su tiempo libre en sus
aficiones (carpintería, navegar, resolver problemas matemáticos). La
probabilidad de que sea uno de los 30 ingenieros de la muestra de 100 es
_______%

Apuntes de M. Goretti González completados y modificados por Marina Uned


8

La probabilidad de pertenecer al grupo de ingenieros debería ser mayor en la primera


condición, y la probabilidad de pertenecer al grupo de abogados debería ser mayor en
la segunda condición.
Resultados: los participantes VIOLARON drásticamente la predicción del Teorema de
Bayes, pues en ambas condiciones se produjeron los mismos juicios. Evaluaron la
probabilidad de que una determinada descripción perteneciera a un ingeniero vs.
Abogado en función del grado en que dicha descripción era representativa de uno u
otro estereotipo, atendiendo bien poco a las probabilidades a priori de las categorías.
La dificultad para aplicar el algoritmo necesario para calcular correctamente la probabilidad de un
acontecimiento se demostró con participantes expertos.
Estudio: se planteó el siguiente problema a un grupo de médicos
Probabilidad de cáncer de mama en mujeres de 40 años es del 1%. Si una
padece cáncer la probabilidad de que la mamografía resulte positiva es del
80%. La probabilidad de que no padezca cáncer de mama tenga un resultado
positivo es una mamografía es del 9,6%. Una mujer de 40 años obtiene
resultado positivo en la mamografía en un control. ¿Cuál es la probabilidad de
que la mujer padezca de hecho cáncer de mama? _______%
Resultados: el 95% de los médicos estimaron que la probabilidad (cáncer / resultado
positivo) = entre 70-80%. Cuando se les informó de su error, y se les preguntó sobre la
causa del mismo, la mayoría afirmó que había asumido que la probabilidad de cáncer
con mamografía positiva [P (cáncer/resultado positivo)] era más o menos igual a la P
de mamografía positiva en una paciente con cáncer [P (resultado positivo/cáncer)],
pasando por alto la probabilidad a priori del dato del 1% en mujeres de 40 años.

Según Gigerenzer y Hoffrage todos los trabajos que apoyan la dificultad de los humanos para aplicar
las normas de la inferencia bayesiana es el resultado de un planteamiento metodológico inadecuado:
Existe un desajuste entre la forma en la que se presenta la información a los
participantes y el formato de la representación cognitiva natural de dicha información.
Gigerenzer y Hoffrage se basan en la teoría de la evolución, donde la mente y su
entorno han evolucionado en paralelo. El formato natural de procesamiento de series
de eventos es la frecuencia más que la probabilidad o el porcentaje.
Éstos sostienen que las demandas computacionales de los algoritmos bayesianos son
más simples cuando la información se codifica en un formato de frecuencias más que
en el formato estándar de probabilidad.

Apuntes de M. Goretti González completados y modificados por Marina Uned


9

El algoritmo bayesiano para calcular la probabilidad posterior P (H|D) sería el resultado de dividir el
número de casos con síntoma y enfermedad (dato e hipótesis) por el nº total de casos con síntoma
(casos con síntoma y enfermedad + casos con síntoma y sin enfermedad).
Las demandas con algoritmos bayesianos son más simples cuando la información se
codifica en el formato natural de frecuencias (8 de 10; 10 de 1000) porque las
probabilidades a priori no necesitan ser atendidas, lo cual es racional para el muestreo
natural.
Diferentes estudios comparativos entre las dos modalidades (frecuencia y formato
estándar de probabilidades) indicaron que el promedio de algoritmos bayesianos
correctos incrementó de 16% - estándar- a 46% en formato de frecuencias.

Insensibilidad a la capacidad predictiva del dato


Un estudiante recién llegado a un instituto es descrito por el orientador como inteligente,
con buena base y trabajador. Se plantean 2 preguntas:
- Evaluación: ¿Qué impresión te produce esta descripción en relación a la habilidad
académica del estudiante?
- Predicción: ¿Cuál estimas sería la calificación media que el estudiante obtendrá cuando
termine el curso?
Existe la gran diferencia entre ambas, ya que en la primera se evalúa el dato, y en la segunda se
predice el resultado. Se da un grado superior de incertidumbre en relación a la segunda.
Sin embargo, la hipótesis de representatividad sostiene que predicción y evaluación deberían
coincidir.

Apuntes de M. Goretti González completados y modificados por Marina Uned


10

Teversky y Kahneman lo pusieron a prueba comparando evaluación y predicción a


partir de diferentes descripciones de estudiantes.
Procedimiento:
La descripción consistía en cinco adjetivos referentes a la calidad intelectual del
estudiante y rasgos de su personalidad.
- El grupo de evaluación valoraba la calidad de la descripción en relación a la
población. Este ordenaba la capacidad académica de todos los estudiantes. (0 a
100)
- El grupo de predicción predecía el rendimiento futuro. Ordenaba calificaciones
medias que obtendrían a final de curso. (0 a 100)
Resultados:
Los resultados se transformaron a percentiles y se dispuso en una gráfica que
representaba la capacidad predictiva de la evaluación (basada en adjetivos) sobre la
media de la predicción de su calificación final.
Los juicios de ambos grupos fueron similares, si bien en el primer caso el criterio era
una variable objetiva y próxima, mientras que en el segundo se trataba de una
variable remota, basada en la impresión que producía la descripción.

En la teoría estadística de la predicción, la equivalencia observada estaría justificada sólo si la eficacia


predictiva fuera perfecta (condición lejos de cumplirse en el ejemplo).
La descripción puede no ser objetiva y exacta o si lo es, las circunstancias personales
del estudiante no serán siempre favorables durante el curso, perjudicando así su
rendimiento.
Los sujetos, en su juicio predictivo, parecen ignorar la probabilidad del dato dada la
hipótesis P (D|H´)
La predicción basada en la “impresión” de la descripción sin considerar otros factores
que afectan, da lugar a sesgos sistemáticos en el juicio probabilístico que responden al
concepto de “ilusión de validez”.

Apuntes de M. Goretti González completados y modificados por Marina Uned


11

Concepciones estadísticas inexactas


La concepción errónea de la regresión constituye otro ejemplo de sesgo en el juicio predictivo basado
en el heurístico de representatividad.
Se usa la regresión para predecir una medida basándonos en el conocimiento de otra.
La regresión estadística o regresión a la media es la tendencia de una medición
extrema a situarse más próxima a la media cuando se realiza una segunda medición.
Estudio: se seleccionan cuatro grupos de 10 niños: los con 10 mejores notas y los 10
con peores notas en cada una de las dos versiones.
Resultados: se observó que los 10 mejores en cada versión mostraron rendimiento
promedio inferior en la versión alternativa y que los 10 peores en cada versión
rindieron en promedio mejor en la versión alternativa.
Contrariamente a la predicción del concepto de regresión a la media, el carácter extremo de la
evidencia potencia la fuerza de la impresión y la confianza subjetiva en su replicabilidad.
En la vida cotidiana encontramos muchos fenómenos similares al ejemplo cuando
comparamos la altura o la inteligencia de padres e hijos, o el rendimiento de las
personas en exámenes consecutivos.
No obstante, no desarrollamos intuiciones correctas en relación a ello pues es
incompatible con la creencia de que el resultado predicho debería ser representativo al
máximo de la evidencia disponible y tan extremo como ésta.

Otro resultado en relación con el heurístico de representatividad se observa cuando se evalúa la


probabilidad de obtener un resultado determinado en una muestra extraída de una población
específica. El experimento ilustra este sesgo denominado insensibilidad al tamaño de la muestra:
Estudio 1:
Existen dos hospitales en el lugar, uno grande y otro pequeño:
- En el grande nacen una media de 45 bebés al día (días habrá más y días habrá menos).
- En el pequeño nacen una media de 15 bebés.
- Sabemos que aproximadamente el 50% de los bebés son niños (varones). Sin embargo, el
porcentaje exacto varía c/día.
- Durante el período de un año, cada hospital registró el nº de días en los cuales el 60% de los
nacimientos fueron varones.
¿Qué hospital registró un nº superior de esos días?
a) el hospital grande
b) el hospital pequeño
c) aproximadamente el mismo (menos de un 5% de diferencia entre ambos)

Apuntes de M. Goretti González completados y modificados por Marina Uned


12

Resultados:
21 personas dijeron (a), otros 21 dijeron (b) y 53 personas dijeron la opción (c)
La mayor parte dijo que la probabilidad era la misma en ambos hospitales, aparentemente porque se
describe con el mismo estadístico, que se considera representativo de la población en general.

En contraste, la teoría del muestreo sostiene que el número debería ser superior en el hospital
pequeño porque en una muestra de gran tamaño es más difícil superar el 50%.

La insensibilidad al tamaño de la muestra explica también las expectativas en los juegos de azar, en la
medida en que esperamos que las muestras pequeñas de procesos aleatorios representen el
proceso con un elevado número de ensayos. Esta expectativa (intuición representativa local) explica
el fenómeno de la falacia del jugador.
Después de observar números rojos en la ruleta, la mayor parte cree que luego le toca
el “turno” al negro, cuando las probabilidades siguen siendo mínimas.

Teversky y Kahneman estudiaron las intuiciones estadísticas de psicólogos experimentados y


demostraron que la concepción errónea del azar no se limita a personas ingenuas.
La creencia en la ley de los números pequeños revela que la expectativa de una
hipótesis válida en relación a una población puede basarse en la significación
estadística de un resultado en una muestra, prestando poca consideración a su
tamaño.

La falacia de la conjunción
La representatividad no es extensional, es decir, no siempre está determinada por la frecuencia ni por
la inclusión de clases de los datos que componen el espacio muestral.
Por el contrario, en el modelo normativo de la teoría de la probabilidad, la ley más simple
(cualitativamente) es el principio de la extensión:
Si la extensión de A (conjunto de posibilidades asociadas con A) incluye la extensión
de B (B ⊂ A) entonces P (A) > P (B).
Ya que el conjunto de posibilidades asociadas con la conjunción A y B está incluida en
el conjunto de posibilidades asociadas con A, puede aplicarse el mismo principio a la
conjunción: P (A) > P (A Y B).
Una conjunción no puede ser nunca más probable que cada uno de sus constituyentes.
Principio que se aplica tanto si A y B son o no independientes y es válido cualquier
valor de probabilidad del mismo espacio muestral.

Apuntes de M. Goretti González completados y modificados por Marina Uned


13

El estudio de la regla de la conjunción en los juicios de probabilidad ofrece el contraste más claro
entre el principio o regla extensional de la teoría de la probabilidad y los principios psicológicos de la
representatividad.
Estudio:
El problema de Linda es el ejemplo más citado para representar la falacia de la
conjunción. Se proporciona a los participantes la descripción de la personalidad de
Linda.
Una joven de 31 años, soltera, sincera y muy brillante. Licenciada en Filosofía.
Cuando era estudiante estaba profundamente comprometida en temas de
discriminación y justicia social, participando también en manifestaciones
antinucleares.
Se presentan las opciones:
a) Linda es una maestra en escuela elemental.
b) Trabaja en una librería y asiste a clases de yoga.
c) Es feminista.
d) Es asistente social en psiquiatría
e) Es miembro de la Liga de Mujeres Votantes.
f) Es cajera de un banco
g) Es agente de seguros
h) Es cajera en un banco y feminista
Procedimiento: la tarea consistía en asignar puntuación del 1 al 8 las afirmaciones
anteriores donde 1 (muy probable) a 8 (menos).
La descripción de Linda fue diseñada para ser muy representativa de una feminista
activa y muy poco de cajera de banco, por lo que se esperaba que considerasen más
representativa de la personalidad de Linda la CONJUNCIÓN de ambas (h) que el menos
representativo (f).
Resultados: el porcentaje de participantes que mostró el orden predicho de c > h > f
fue del 85%
La violación de la regla de conjunción es la comparación directa entre f y h (falacia de la
conjunción).
Según Teversky, la semejanza de un ejemplar con una categoría se define en función de la
ponderación de las propiedades que son comunes y distintivas y esta ponderación varía en función del
contexto estimular y la tarea experimental.
En la descripción de Linda, la ponderación con una cajera de banco es baja. El hecho
de añadir feminismo como rasgo distintivo explica la forma en que los participantes
ordenaron la lista de afirmaciones sobre las actividades que desarrolla ella, en función
del grado con el que encajaban con el estereotipo que se deriva de la descripción.

Apuntes de M. Goretti González completados y modificados por Marina Uned


14

Siguiendo la regla extensional de la Lógica, la clase cajeras de banco incluye a las


cajeras de banco feministas lo que invalida desde un punto de vista normativo el juicio
probabilístico de los participantes, que invierte la relación probabilística de ambas
clases.
Tversky y Kahneman se plantearon si los participantes podrían reconocer la validez de la regla de
conjunción si se expresaba el problema de forma explícita.
Estudio 2: Después de la misma descripción inicial se recibían las afirmaciones f) Linda
es cajera de un banco; y h) Linda es cajera de un banco y feminista en forma de
argumentos 1 y 2, respectivamente:
Argumento 1: Es más probable que Linda sea cajera en un banco a que sea
cajera en un banco y feminista, puesto que todas las cajeras de banco
feministas son cajeras de banco mientras que algunas cajeras de banco no son
feministas, y Linda podría ser una de ellas.
Argumento 2: Es más probable que Linda sea cajera en un banco y feminista a
que sea cajera en un banco, puesto que se parece más a una feminista que a
una cajera de banco.
Resultados: La mayoría eligieron el argumento no válido (2) del parecido frente al
argumento extensional válido.
Esto explica que aun cuando se induce una actitud reflexiva no elimina el atractivo del
heurístico de representatividad.
Otros estudios sobre el tema, proporcionando cuestionarios con preguntas sobre razonamiento
probabilístico previo a la tarea, o bien incluso investigando en dominios específicos y con expertos,
los resultados siguen siendo consistentes con el heurístico de representatividad.

b. Heurístico de accesibilidad
Las personas evaluamos la frecuencia de los ejemplares de una categoría o probabilidad de un
acontecimiento por la facilidad con la que los ejemplos nos “vienen a la mente” o se “nos ocurren”.
Evaluamos por ejemplo el riesgo de sufrir un infarto más probable en personas de
entre 50 y 60 años.
La frecuencia o probabilidad de un evento, acontecimiento o circunstancia se juzga en
base a la disponibilidad o facilidad de acceso a sus ejemplos porque los ejemplos de
categorías más frecuentes se recuerdan más fácil y rápido que los ejemplos de
categorías menos frecuentes.
No obstante, a veces esta accesibilidad se ve afectada por otro tipo de factores, produciéndose
sesgos que Teversky y Kahneman agrupan en cuatro: sesgo debido a la facilidad de recuperación, a la
facilidad en la construcción de ejemplos, en la facilidad para imaginar situaciones, y en la correlación
ilusoria e ilusión de control.

Apuntes de M. Goretti González completados y modificados por Marina Uned


15

Sesgo debido a la facilidad de recuperación


Estudio: presentaron a los participantes listas grabadas con 39 nombres.
Lista 1: incluía 19 nombres de mujeres famosas y 20 nombres de hombres menos
famosos.
Lista 2: 19 nombres de hombres famosos y 20 nombres de mujeres menos famosas.
La fama y la frecuencia en función del sexo estaban inversamente relacionadas en
ambas listas.
Los participantes se dividieron en dos grupos:
- Grupo 1 se les pidió que RECORDARAN EL MAYOR NÚMERO DE NOMBRES QUE
PUDIERAN.
- Grupo 2 se les pidió que juzgaran para cada una de las dos listas si contenían más
nombres de hombres o mujeres.
Resultados: en ambos grupos fueron de idéntico signo para las listas 1 y 2.
- Los del grupo 1 recordaron más nombres de mujeres en la lista 1 y de hombres en
la lista 2.
- La FAMA y no la frecuencia determinó la facilidad de recuerdo.
- En el grupo 2 dijeron que en la lista 1 había más mujeres y en la lista 2 más
hombres (la FAMA otra vez en medio y no la frecuencia relativa real).

El sesgo observado demostró el efecto significativo del heurístico de accesibilidad en el juicio


probabilístico.
Además de la familiaridad, existen otros factores como la saliencia.
La probabilidad subjetiva de accidentes de tráfico aumenta temporalmente si acabamos de ver un
coche volcado en la carretera. Este sesgo de inmediatez se basa en la facilidad de recuperación de las
experiencias recientes frente a las remotas.
Un resultado consolidado es el de la investigación en la auto-percepción de estados emocionales,
pues parece que se perciben como más intensas las emociones previas e inmediatas. Son juzgadas
así desde el punto de vista fenomenológico (de forma más vívida), sensitivo (inmediatas se perciben,
distantes se recuerdan) e informativo (más rica en detalles).
Estudio: Van Boven, White y Huber lo evidencian en la presentación de dos secuencias
de películas separadas en un período de tiempo de 20 minutos.
En ambas se mostraban atrocidades, pero en la vista más cercana en tiempo, se le
atribuyó haber afectado al estado emocional. Se exhibió el sesgo de inmediatez.

Apuntes de M. Goretti González completados y modificados por Marina Uned


16

Sesgo debido a la facilidad en la construcción de ejemplos


Para estos problemas Teversky y Kahneman proporcionaron una regla al participante para la
construcción de ejemplos de 2 categorías y les pidieron que estimaran su frecuencia relativa.
El participante no podía enumerar todos los ejemplos posibles, sino que intentaba buscar algunos
ejemplos y juzgar la frecuencia de cada categoría por la accesibilidad relativa de éstos.
Estudio 1: se seleccionaron consonantes que en inglés son más frecuentes en la
tercera posición de una palabra (K, L, N, R, y V).
La letra (L) aparece con mayor probabilidad en: a) la primera posición. b) la
tercera posición.
La frecuencia estimada fue significativamente mayor para la primera posición (falso)
para las cinco letras estudiadas, demostrando sesgo en la estimación de la frecuencia
relativa debido a la superior facilidad de generar ejemplos que empiecen con una letra
determinada vs a los que la contienen en tercera posición.
Posteriormente, se replicaron bajo condiciones más estrictas de control y alguna modificación. Wanke,
Schwarz y Bless manipularon el valor informativo o diagnóstico de la experiencia subjetiva de
accesibilidad generando en los participantes a través de las instrucciones la atribución errónea de la
experiencia de facilidad de recuperación.
Estudio 2:
Todos los participantes escribieron en un folio en blanco 10 palabras que contenían la
letra T en la tercera posición.
Los grupos se diferenciaron en la manipulación experimental del valor diagnóstico de
la experiencia de facilidad de recuperación de las palabras que empezaban por la letra
(T):
1. Grupo “FACILITACIÓN”: debía escribir las 10 palabras que empezaban por T en
folio con filas de pequeñas (t) impresas en color pálido
Se le informó que la impresión de éstas era para facilitarle la recuperación de las
palabras.
2. Grupo “INHIBICIÓN”: escribiría 10 palabras que empezaban por (t) sobre el mismo
tipo de folio pero se le indicó que esto DIFICULTARÍA su tarea de recuerdo.
3. Grupo “CONTROL”: realizó la tarea sobre folio en blanco.
Todos los participantes valoraron el grado de dificultad de una y otra tarea de entre 1
a 8 (muy difícil) inmediatamente después de realizar cada una de ellas.
Los juicios de frecuencia de palabras que empiezan por (T) respecto a los que la
contienen en la 3ª posición se realizaron concluidas ambas tareas, emitiendo en
escala de 8 puntos, donde 1 = Muchas palabras con (t) en 3º lugar que palabras que
empiecen por (t) y 8 = muchas palabras que empiezan por (t) que palabras las
contengan en 3er lugar.

Apuntes de M. Goretti González completados y modificados por Marina Uned


17

Resultados:
Todos los sujetos (todos independientemente de la condición experimental)
informaron que les resultaba más difícil recordar palabras que la tienen en la tercera
posición.
El efecto de la manipulación del valor diagnóstico de la experiencia de recuperación
produjo un impacto significativo en los juicios de frecuencia relativa de los
participantes.
- Aquellos que creían que la hoja facilitaba, emitieron el juicio más bajo de
frecuencia relativa de las palabras que empezaban por (t).
- Los que creyeron que su ejecución había sido inhibida, aportaron el juicio más
alto de frecuencias relativas de las palabras que empiezan por (t).
- El juicio de los del grupo de control se mantuvo en medio de los otros.
Estos resultados demuestran que la experiencia fenomenológica o subjetiva de facilidad o dificultad
en la recuperación de la fuente de información determina la estimación de la frecuencia relativa en los
juicios.
Cuando la experiencia PIERDE versus gana el valor diagnóstico, la frecuencia relativa
DISMINUYE versus aumenta en coherencia.
Por tanto, la estimación de frecuencias relativas se basa en la experiencia subjetiva de
facilidad de recuperación y en el grado de confianza que el sujeto atribuye a dicha
experiencia.
Una variable relevante es la accesibilidad de posibles contextos.
Los contextos de palabras abstractas como amistad, amor,... resultan más fáciles de
imaginar o asociar a historias vividas, leídas o películas que palabras concretas y
careciendo de connotaciones por lo que no se evoca fácilmente algún escenario.

Sesgo debido a la facilidad para imaginar situaciones


La facilidad para imaginar es importante en la evaluación de probabilidades en la vida real.
Ejemplo: el riesgo que entrañe una expedición al Amazonas, se evaluará en función de la facilidad
para imaginármela de forma vívida con posibles contingencias peligrosas, aunque los posibles
desastres no sean tales como riesgo real.

Apuntes de M. Goretti González completados y modificados por Marina Uned


18

También puede el riesgo puede ser subestimado, si el peligro real es difícil de concebirlo o no
acceden a la mente.
Estudio: Sherman, Cialdini y otros pusieron a prueba esta hipótesis:
Procedimiento:
Grupo de control (sólo lectura): leyeron informe sobre una supuesta enfermedad
(hiposcenia - B).
Grupo fácil imaginar: los síntomas de la enfermedad eran concretos y mucho de estos,
experimentados por los participantes (cansancio, dolor muscular,...). Grupo difícil de
imaginar: los síntomas eran menos concretos (sensación vaga de desorientación, mal
funcionamiento del SN e inflamación de hígado).
En la condición fácil se les pedía que imaginaran los síntomas mientras leían el
informe.
Luego se les pidió que juzgaran la probabilidad de sufrir hiposcenia – B en el futuro en
escala de 1 (poca) a 10 (mucha).
Resultados: Los imaginativos mostraron tendencia a juzgar la probabilidad de contraerla
mayor al grupo control e inferior en la del grupo “difícil imaginar”.

Sesgo debido a la correlación ilusoria e ilusión de control


Las asociaciones entre eventos se fortalecen como resultado de la ocurrencia conjunta repetida. Esto
determina que juzguemos la frecuencia de ocurrencia conjunta de dos acontecimientos que están
asociados como elevada.
El término correlación ilusoria propuesto por Chapman agrupa los errores que se producen como
resultado de la sobreestimación de la correlación entre dos eventos.
Ejemplo: la ocurrencia conjunta de palabras cuyo significado está fuertemente
asociado se sobreestima en relación a su ocurrencia conjunta de palabras cuyo
significado real.
Estudio: los participantes recibían pares de palabras proyectadas en pantalla.
Unas a la derecha (huevos, tigre o cuaderno) y otras a la izquierda (beicon,
león, flor, barca) y se agrupaban al azar. La probabilidad de que una palabra de
la izquierda se emparejaba con cada una de las tres de la derecha era la
misma.
Resultados: los participantes sobreestimaron la frecuencia de aparición de los
pares semánticamente relacionados como lo era: beicon-huevos o león-tigre.
La relación semántica explica la fuerza de asociación en la memoria y la
facilidad para su recuperación, lo que lleva a sobreestimar la frecuencia
objetiva.

Apuntes de M. Goretti González completados y modificados por Marina Uned


19

Esto mismo mantiene el origen de la supersticiones o las creencias mágicas, el “efecto


halo” y los estereotipos sociales (delito correlacionado con grupo minoritario genera
estereotipo negativo sobre éste).

Cuando se sobreestima la correlación entre la conducta y sus consecuencias se produce “ilusión de


control”.
Se define como la expectativa de probabilidad de éxito personal inadecuadamente
elevada en relación a la probabilidad objetiva.
Langer simuló distintos tipos de azar induciendo la ilusión de control al introducir
factores relacionados con la habilidad y destreza del jugador como competitividad,
posibilidad de elegir, familiaridad con los estímulos,... Este fenómeno es uno de los
factores que explica el sentimiento excesivo de confianza en el éxito y el riesgo
excesivo asumido en los juegos de azar.
Esta ilusión constituye uno de los factores que contribuye además a explicar la
persistencia del sesgo de sobreconfianza en la calibración del propio juicio (juicio de
segundo orden). Apartado 5.

c. Heurísticos del prototipo


Kahneman y Frederick han utilizado el término “Heurístico del prototipo” enmarcándolo en el nuevo
enfoque del juicio heurístico que ofrece un modelo más integrador que el inicial presentado.
Parece ser que estos heurísticos son el resultado de un doble proceso de sustitución donde una
categoría se sustituye por su ejemplar prototípico y un atributo de la categoría (el que se evalúa en el
juicio emitido) por una propiedad del prototipo.
Ejemplo: cuando un participante juzga la probabilidad de que Jack pertenezca a una
muestra de 30 ingenieros está llevando a cabo dos procesos de sustitución. Sustituye
inicialmente la categoría ingeniero por su ejemplar prototípico, y luego sustituye el
atributo de la probabilidad de la pertenencia a la categoría por la propiedad de
semejanza del prototipo.
Desde el modelo normativo de la teoría de la P, la probabilidad de pertenencia debería variar con la
probabilidad a priori de la categoría. En la predicción por representatividad de la pertenencia de un
ejemplar a una categoría se descarta la probabilidad a priori porque el prototipo de una categoría no
contiene información sobre la frecuencia de sus miembros.
La novedad de este enfoque integrador se concreta en que la representatividad no es necesariamente
la propiedad del prototipo que sustituye al atributo de la categoría.

Apuntes de M. Goretti González completados y modificados por Marina Uned


20

Estudio: se presenta una doble pregunta: a) ¿cómo te sientes de feliz con tu vida en
general? Y b) ¿cuántas citas románticas has tenido durante el último mes?
Resultados: demostraron que la correlación entre ambas fue insignificante
planteadas en este orden, y sí correlacionaron con valor de 0,66 invertido el
orden de las mismas. Por tanto, el nº de citas del último mes, no puede
considerarse representativo del sentimiento global de felicidad, pero la
accesibilidad de la información le confiere una saliencia y peso relativo
elevados.

La evaluación retrospectiva de las experiencias con valor afectivo ilustra bien el doble proceso de
sustitución basado en la accesibilidad de la información.
La evaluación retrospectiva de la intensidad de la experiencia afectiva se basa
fundamentalmente en el promedio entre la media del pico más saliente de la
experiencia global y el pico más próximo al final de la experiencia.
Estudio: Redelmeier y Kahneman registraron el nivel de dolor en una prueba de
colonoscopia.
Dicha prueba duraba de entre 4 y 69 minutos. Se tenía paciente A y B, y los
resultados evidenciaron que la evaluación retrospectiva del dolor producido por
la prueba, podía predecirse con un grado considerable de eficacia promediando
el pico más elevado con la magnitud de dolor que había producido el momento
final de la experiencia.
A informó que había sido mucho más desagradable pero el pico máximo no se
diferenció entre ambos sujetos y el participante B soportó una prueba más
prolongada.
Lo que ocurre es que el valor afectivo de la experiencia para el A quedó
determinado por ser este pico alto próximo al final de la prueba. El simple
hecho de añadir al terminar la experiencia un intervalo corto de malestar
mínimo produce en los pacientes una evaluación global de la experiencia como
menos aversiva e incrementó luego pruebas de seguimiento.

Un doble proceso de sustitución da lugar al heurístico del prototipo que determina el juicio subjetivo
del sujeto.
La categoría “dolor que produce la experiencia global” se sustituye por el prototipo
“promedio del pico más elevado de dolor y del valor más próximo al final de la
experiencia”. Pero en este caso la propiedad del prototipo no viene dada por la
representatividad de la información (duración total de la experiencia o magnitud
promedio del dolor global) sino por su accesibilidad en la memoria.

Apuntes de M. Goretti González completados y modificados por Marina Uned


21

La insensibilidad a características extensionales de las categorías (probabilidades a priori, relacion


monotónica entre la duración de la experiencia y su valor afectivo) constituyen ejemplos de la
desviación sistemática del modelo normativo de la lógica en el juicio intuitivo bajo incertidumbre.
El proceso común de sustitución del atributo de la categoría por una propiedad del
prototipo se demuestra en variedad de dominios e indica que los juicios complejos se
sustituyen por valoraciones semánticamente más simples y accesibles.

A diferencia de los ejemplos descritos en los apartados previos, el ejemplo del “dolor” no constituye
en rigor un juicio probabilístico, sino la estimación cuantitativa subjetiva de una experiencia con valor
afectivo.
El efecto del heurístico de anclaje no responde al doble proceso de sustitución de los
heurísticos del prototipo. Aunque puede también integrarse en el amplio marco
conceptual de los efectos de accesibilidad.

d. Heurístico de anclaje y ajuste


Normalmente realizamos estimaciones de cantidades a partir de un valor inicial que se va ajustando
hasta la respuesta final. El valor inicial o punto de partida puede sugerirse por la formulación del
problema o ser el resultado de un cómputo parcial. En uno u otro caso, diferentes puntos de partida
producen estimaciones diferentes sesgadas hacia el valor inicial.
Estudio: Tversky y Kahneman pidieron estimar el porcentaje de países africanos en Naciones Unidas.
- El valor inicial (0 y 100) se establecía haciendo girar una rueda de fortuna en su
presencia.
- El experimento se desarrolló en 2 fases:
 1º fase de juicio comparativo: estimar si el porcentaje era superior o inferior al
resultado del giro de la rueda.
 2º fase de juicio absoluto: se pedía establecer el porcentaje concreto requerido.
Resultados: la mediana de las estimaciones para valores iniciales de 10 y 65, fueron de
25 y 45 respectivamente, demostrando el efecto del valor de partida en la respuesta
final.

En el caso anterior los valores de partida no eran informativos al ser producto de azar. Valores
numéricos informativos pueden también servir como anclajes. El participante basa su estimación en
un cómputo inicial incompleto.

Apuntes de M. Goretti González completados y modificados por Marina Uned


22

Estudio: Tversky y Kahneman solicitaron el resultado en 5 sg de los siguientes


productos:
Descendente: 8x7x6x5x4x3x2x1
Ascendente: 1x2x3x4x5x6x7x8
Resultados: la mediana de la estimación en secuencia descendente fue de
2.250 y para la ascendente de 512. El valor real es 40320. El producto de los
primeros números constituye la información de anclaje que explica el valor
estimado en el juicio absoluto.
Según la aproximación teórica inicial en la fase comparativa se genera una estimación de la cantidad
independiente del valor de anclaje y compara este valor con su estimación para determinar si el
anclaje es demasiado alto o bajo.
Para emitir el juicio absoluto, ajusta el juicio inicial en la dirección apropiada hasta
encontrar el valor más aceptable. Este proceso de ajuste es insuficiente porque
termina el límite más próximo al valor del ancla dentro del rango de valores posibles.
El sesgo en el proceso de anclaje no se situaría en la producción del juicio estimado
inicial sino en el proceso posterior de ajuste.

Los resultados de Jacowitz y Kahneman cuestionan esta interpretación.


Estudio: los valores de anclaje proporcionados se basaron en las estimaciones de 15
problemas de juicio cuantitativo obtenidas en un grupo de sujetos que no
participaban luego en el experimento de estimar altura del monte Everest, la distancia
entre San Francisco y Nueva York,... Los valores de anclaje correspondían al percentil
15 y 85 de este grupo como anclas de valor bajo vs alto.
Resultados: los autores demostraron un efecto asimétrico en el sesgo de
anclaje. Este fue significativamente superior para los valores elevados. Se vio
reforzado por el hecho de que un porcentaje de sujetos superior al grupo de
15% inicial, generaron juicios cuantitativos superiores al valor del percentil 85
y no fue así con el porcentaje de sujetos que generaron juicios inferiores al del
percentil 15 del grupo inicial.
Los valores de anclaje altos incrementan la plausibilidad de los valores superiores al ancla en mayor
medida que los bajos incrementan la plausibilidad de los valores inferiores al ancla, siendo la razón de
que 0 es el claro límite inferior para los valores bajos, pero no se da límite superior (infinito).
Según los autores, se pone de manifiesto que el sesgo no siempre se da en el proceso
de ajuste de la estimación inicial, sino que el valor del ancla en sí mismo puede alterar
la creencia inicial del individuo y modular el juicio absoluto emitido.
Por tanto se sugiere que este proceso de anclaje se inicia en la fase de comparación y
sesga la estimación inicial del sujeto, previa al juicio absoluto.

Apuntes de M. Goretti González completados y modificados por Marina Uned


23

Se concluye enumerando tres posibles causas del anclaje en tareas de juicio


comparativo, sin considerarlas mutuamente excluyentes:
- Un punto de partida para el ajuste. (Responde a la formulación de Tversky y
Kahneman)
- Indicio conversacional, debido a la saliencia que le confiere el experimentador.
- Una sugerencia o prime.

La investigación reciente sugiere que el anclaje se origina con frecuencia en la fase de recuperación de
la información y que el ancla actúa como una sugerencia, haciendo que la información consistente
con ella sea accesible rápidamente.
Se ha demostrado que el efecto de anclaje no se produce si no se cumplen determinadas
condiciones de compatibilidad entre ancla (valor inicial) y juicio requerido, como es la escala de
medida en la que se formulan ambos.
Además Strack y Mussweiler 1997, indicaron que es necesario que se expresen en la misma dimensión
(altura vs anchura).
Estudio: a varios participantes se les formuló dos preguntas. – 1ª juicio comparativo
considerando valor del ancla “mayor o menor que”, – 2ª juicio absoluto.
Se utilizaron cuatro condiciones 2 x 2 (compatibilidad o no de la dimensión del ancla
con la dimensión del juicio y valor del ancla alto vs bajo).
La interacción significativa de las dos VI reveló que el efecto de anclaje solo fue
significativo cuando las dimensiones fueron iguales y sólo cuando el valor del ancla fue
elevado (resultados Jacovitz y Kahneman).
Según Strack y Mussweiler, estos resultados no pueden explicarse por la mera activación generada
por el valor numérico del ancla. El hecho de que el efecto de anclaje disminuya de forma significativa
cuando la dimensión del juicio difiere de la del ancla, no puede explicarse por el priming numérico
que proporciona el ancla.
Sugieren los resultados que la fuerza del efecto depende de la medida en que la información es
activada por el ancla también se percibe como aplicable al juicio absoluto.

Strack y Mussweiler 1997 terminan su investigación con otro experimento que permite poner a
prueba la hipótesis del priming semántico y no el numérico per se, es el responsable de los efectos de
anclaje.
Estudio: en este caso utilizaron un 2 x 2 (ancla plausible / no; ancla alta vs baja)
Como VD se registraron valores de juicios y la latencia de respuesta en los dos juicios
(comparativo y de valor absoluto).

Apuntes de M. Goretti González completados y modificados por Marina Uned


24

El análisis de la latencia desvela algo interesante:


En tarea comparativa las latencias (tiempos) fueron significativamente mayores para
las anclas plausibles frente a las no plausibles, mientras que en los juicios absolutos
este patrón fue al revés.
Esto sugiere que cuando el ancla es un valor plausible, los participantes resuelven la
tarea comparativa elaborando la respuesta en un proceso cognitivo que consume
tiempo. La información relevante es fácilmente accesible y acelera la respuesta en la
tarea de juicio absoluto posterior.
Si esto es correcto, cuanto más tiempo consuma el juicio comparativo menos tiempo
consumirá el juicio absoluto. Por tanto, las latencias en ambos juicios deberían estar
inversamente correlacionadas pero sólo si la tarea comparativa utiliza información
relevante para el juicio de valor absoluto. Sólo cuando el ancla es plausible debería
esperarse una correlación negativa entre las latencias de R de los juicios comparativo
y absoluto.
Los resultados apoyan la hipótesis. En el caso de las anclas plausibles, ambas latencias
de respuesta correlacionaron negativa y significativamente, de manera que las
latencias más largas en comparativo implicaban latencias cortas en absoluto.

Chapman y Johnson 2002 presentan modelo alternativo a esta propuesta de Tversky y Kahneman del
1974, que permite interpretar el sesgo de anclaje en amplio abanico de tareas y procedimientos
experimentales.
El mecanismo se basa en proceso de accesibilidad selectiva que se genera en la fase
inicial de recuperación de la información y determina la formación de la respuesta.
Este proceso es el resultado de múltiples causas y los mecanismos responsables
pueden producirse en más de una fase.
Los sesgos y errores se producen a consecuencia del priming asimétrico en el proceso
de recuperación de la información, incrementando desproporcionadamente la
disponibilidad de rasgos compartidos por “ancla” y respuesta y reduciría la
disponibilidad de aquellos rasgos que los diferencian.
Ejemplo: imaginamos haber heredado una silla antigua a la cual tenemos que asignar un precio.
El precio de una similar fijado por un anticuario podría servir para valorarla y ajustarla
luego según la diferencia en calidad. En este caso, el proceso de anclaje es equilibrado
e ilustra la funcionalidad del heurístico como recurso rápido que implica un esfuerzo
cognitivo mínimo.
Imaginemos que asistimos a subasta televisiva de muebles antiguos y utilizamos el
precio de partida de una silla similar en diseño pero firmada por un importante
diseñador. Si activamos los rasgos compartidos en detrimento de los rasgos que

Apuntes de M. Goretti González completados y modificados por Marina Uned


25

diferencian ambos objetos nuestra estimación será elevada en exceso y se cometerá


sesgo en la valoración.
A diferencia del enfoque del efecto de anclaje como ajuste insuficiente determinado por el valor del
ancla, el modelo de accesibilidad selectiva atribuye el sesgo en el juicio absoluto a una ponderación
excesiva de los rasgos comunes entre el ancla y la respuesta en detrimento de los discrepantes,
basada en la tendencia confirmatoria.
Si el ancla produce efecto sobre el juicio incrementando la accesibilidad de rasgos comunes y reduce
a los diferentes, el hecho de incrementar experimentalmente la accesibilidad de rasgos diferentes
debería reducir el sesgo hacia el valor inicial.
Estudio: Chapman y Johson pidieron a unos estudiantes que predijeran sobre las
siguientes elecciones presidenciales en EEUU.
Debían escribir los dos últimos dígitos del nº de la seguridad social y considerarlo
como una probabilidad.
Se les pide que pensaran en la probabilidad de que el candidato republicano ganara
las elecciones presidenciales y que compararan su respuesta con el número apuntado.
Esta primera estimación de probabilidad no se registró, para que se consideraran los
dígitos como valor de anclaje. Las probabilidades de anclaje fluctuaron de 0 a 99% con
media de 48% y Md= 51%.
Asignar a los sujetos de forma aleatoria a una de tres condiciones experimentales:
- Condición “a favor”: escribir razón por la que el republicano debía ganar.
- Condición “en contra”: ““““no debería ganar.
- Condición “neutral”: no se les pidió escribir.
Segunda estimación por escrito de que el candidato republicano ganara las
elecciones. Se establecieron tres categorías de participantes:
- Similar: aquellos a los que se les pidió una razón a favor con valores de anclaje POR
ENCIMA del 50% o aquellos en contra con anclaje INFERIOR al 50%
- Diferente: los de razón a favor con anclaje INFERIOR al 50% y aquellos en contra
con anclaje SUPERIOR al 50%
- Neutral: los del grupo neutral.
Resultados: confirmaron la hipótesis de partida demostrando que el efecto de anclaje
fue significativo sólo para las condiciones “similar” y “neutra”, y el sesgo de anclaje
puede reducirse o eliminarse propiciando que los participantes identifiquen razones
discrepantes con el valor del ancla.

Apuntes de M. Goretti González completados y modificados por Marina Uned


26

A pesar de que la evidencia confirma la hipótesis, el mecanismo explicativo de este fenómeno no se


reduce siempre a esta explicación. Según Epley y Gilovich 2001, los procesos implicados en el efecto
de anclaje difieren dependiendo de si el ancla es suministrada por el experimentador o por cualquier
otra fuente externa, o bien es por el propio participante a partir de las preguntas planteadas.
En este último caso, el proceso de ajuste sería el responsable del efecto en la medida
en que el valor numérico del ancla, por su condición de respuesta auto-generada,
adquiriría el estatus de respuesta candidata con el peso específico suficiente para
iniciarlo.
Estudio: los autores lo pusieron a prueba “valor del ancla lo genera el experimentador
vs el participante”.
Se pidió a los participantes que explicaran cómo habían llegado a la R para cada
pregunta.
Las respuestas fueron grabadas, transcritas y evaluadas por dos jueces. Para cada
respuesta el juez evaluaba si el participante conocía el valor del ancla, si utilizaba esta
como base de la respuesta y si mencionaba el ajuste a partir del valor del ancla para
alcanzar la estimación final.
El acuerdo entre estos era alto (0.94) y consideraron que los sujetos habían utilizado el
mecanismo de anclaje y ajuste si sus informes verbales se referían tanto al ancla como
al proceso de ajuste.
A los que se les proporcionó el valor del anclaje utilizaron menos el mecanismo de
ajuste a partir del ancla que aquellos que habían generado de forma espontánea el
valor inicial.
Epley y Gilovich 2001, coincidieron con Jacowitz y Kahneman al proponer una taxonomía de posibles
efectos de anclaje en los juicios bajo incertidumbre en la medida en que son muchas las variables que
pueden intervenir en función de la tarea o experimento.
Los resultados del apartado nos permiten señalar: la magnitud del valor del ancla, alto
frente bajo, la compatibilidad de la escala de medida y la dimensión del ancla y juicio
absoluto, el grado de plausibilidad del ancla, generada espontáneamente o
comunicada.
En el siguiente apartado se aborda un marco explicativo contextualizado en el enfoque de los
heurísticos con supuestos teóricos explícitos que explican desde una perspectiva más integradora los
sesgos sistemáticos del razonamiento probabilístico.

Apuntes de M. Goretti González completados y modificados por Marina Uned


27

3.1. La teoría del apoyo


Para ilustrar la falacia de la conjunción Tversky y Kahneman 1973 aportan otro ejemplo.
Pidieron a un grupo que estimaran el número de palabras de 7 letras en inglés que
acababan en -ing en cuatro páginas de una novela y a otro grupo que comentaran lo
mismo pero referido a palabras que terminaban en – n.
La mediana de la estimación para el primer grupo fue de casi tres veces superior a la
del segundo, presumiblemente porque las palabras que terminan en ing son más
accesibles al recuerdo que las palabras que contienen la n en sexta posición.
La teoría del apoyo es una perspectiva del juicio intuitivo bajo incertidumbre que permite explicar
gran parte de la evidencia de las operaciones mentales que responden a la denominación del juicio
basado en heurísticos en la evaluación de frecuencias y probabilidades.
El efecto de desempaquetado es el principio explicativo de esta teoría, el cual quiere
demostrar que “el todo es menor que la suma de sus partes”.
Las descripciones detalladas de un acontecimiento determinado dan lugar, de forma
sistemática, a juicios de probabilidad superiores que las que genera una descripción
general del mismo acontecimiento (“1000 personas morirán en un terremoto”, parece
más probable que un evento inclusivo donde “1000 personas morirán en un desastre
natural”).
Para explicarlo, Tversky y Koehler desarrollaron una teoría no extensional del juicio probabilístico en
la cual la probabilidad subjetiva no está ligada a los acontecimientos, sino a las descripciones de estos,
denominadas hipótesis.
Las desviaciones de la lógica experimental en el juicio humano no es una colección de
ejemplos aislados. La evidencia empírica demuestra que el juicio probabilístico sobre
un evento determinado depende del grado en que se explicita su descripción.
Cada hipótesis A, posee un valor de apoyo determinado, s(A), que corresponde a la
fuerza de la evidencia favorable a dicha hipótesis.
La clave de la teoría es que desempaquetar la descripción de una hipótesis en sus
posibles componentes o hipótesis elementales generalmente aumenta su apoyo.
Así, el apoyo de la disyunción explícita Ca ѵ Cn es igual o mayor que el apoyo de la
disyunción implícita, C, que no menciona ninguna causa.
s(C) < s( Ca ѵ Cn )
La Teoría del apoyo es subaditiva para disyunciones implícitas (C), y aditiva para las disyunciones
explícitas (Ca ѵ Cn).

Apuntes de M. Goretti González completados y modificados por Marina Uned


28

El grado de subaditividad es influido por varios factores, uno puede ser la interpretación de la escala
de probabilidad.
La subaditividad será más pronunciada cuando la probabilidad se interpreta como la
predisposición de un caso individual, respecto a cuándo se estima como frecuencia
relativa en una determinada población.
Kahneman y Tversky denominan respectivamente a estas dos modalidades de juicio
singular y distribucional (más preciso).
Esta propuesta (de los amiguetes K y T) indica que la disyunción implícita “accidente”
se desempaqueta con mayor facilidad en sus componentes “accidente de coche, de
avión, fuego, ahogamiento,...”cuando se considera a la población en su conjunto frente
a una persona individual.
La razón es que las posibles causas de muerte se representan en las estadísticas de
mortalidad de la población, pero no en la muerte de una persona. La tendencia a
“desempaquetar” una disyunción implícita es mayor en modo distribucional que en
singular o individual.
Por tanto, cuando el problema se formula en términos de frecuencias se espera que se
produzca menor “descuento”, es decir, menor diferencia entre la probabilidad de la
hipótesis implícita y la suma de las probabilidades de las hipótesis elementales
explícitas.
Estudio: Tversky y Koehler 1994 pusieron a prueba el supuesto del principio del “desempaquetado”: la
subaditividad para las disyunciones implícitas.
Los participantes se dividieron en 2 grupos:
- 1. Grupo: Recibió la instrucción de estimar las probabilidades de muerte para el caso
de una persona determinada como consecuencia de causa específica.
- 2. Grupo: Realizaron una tarea de juicios de frecuencia y evaluaron el porcentaje de
personas de los 2 millones de muertes del año previo que podían atribuirse a cada
una de las causas.
La tarea consistía en evaluar una hipótesis implícita (muerte como resultado de causa natural) o una
disyunción explícita (muerte a consecuencia de una enfermedad cardíaca, cáncer o alguna otra causa
natural), pero nunca ambas.
Se definieron tres componentes y cada uno se dividía en 7 subcomponentes. Se esperaba que el
hecho de explicitar en mayor medida las causas de la muerte incrementaría la subaditividad: la
diferencia entre la probabilidad asignada a la hipótesis implícita y la suma de las probabilidades de
los componentes de la hipótesis. Los resultados arrojaron que la estimación media de una disyunción
implícita - P(causas naturales) - , es menor que la suma de las estimaciones media de sus
componentes.

Apuntes de M. Goretti González completados y modificados por Marina Uned


29

Tversky y Kahneman 1994 denominaron factor de desempaquetado al índice del grado de


subaditividad, calculando la ratio de las prob.asignadas a las hipótesis explícitas y la prob.asignada a
la hipótesis implícita. Puede calcularse dividiendo: Σ la suma Σ de las prob de las hipótesis
elementales explícitas por la prob.de la hip.implícita P Cuanto mayor sea el valor de dicho factor,
mayor el grado de subaditividad observado. Siguiendo con el ejemplo anterior, indicar que el grado
de subaditividad aumentó con el nº de componentes en la disyunción explícita (mayor grado al
juzgar probabilidades que al hacerlo con frecuencias). Quedó respaldado y demostrado incluso en
juicios probabilísticos con expertos. A una muestra de médicos se le presenta un escenario con una
mujer que llega con dolor abdominal. – A la mitad de los participantes se les pide que asignen
probabilidades a 2 diagnósticos: gastroenteritis y embarazo ectópico, y a una categoría residual:
ninguno de los dos. – La otra mitad debía asignar a 5 diagnósticos específicos. Si los juicios de los
médicos se ajustaran a la Tª clásica de la probabilidad, la prob.a la categoría M.Goretti González 17
residual sería equivalente a la suma de las prob.de los tres componentes desempaquetados en la
condición de los 5 diagnósticos: 1 grupo: (gastroenteritis + embarao ectópico ) ; (residual) 2 grpuo:
gastroenteritis + embarao ectópico + (------) + (------) + (------) Los resultados indicaron que la
prob.asignada a la hipótesis residual en la condición de 2 diagnóst. Fue significativamente menor a la
de los tres componentes “desempaquetados” en la cond.de cinco diagnóstico. El modelo bayesiano
asume el supuesto de aditividad, y principio de extensión en la teoría de la probabilidad. El principio
de extensión es de las relgas más simples y transparentes en la teoría de la probabilidad. Su violación
es uno de los errores más llamativos y sorprendentes del razonamiento probabilístico. La regla de la
conjunción es violada por la falacia de la conjunción; la regla de la disyunción, donde la prob. De A o
B no puede ser inferior ni a la probabilidad de A ni a la de B porque constituye la suma de ambas.
También la subaditividad es una clara violación de la regla de la disyunción cuando no se explicitan
las causas de un evento en una disyunción implícita. Van Boven y Epley 2003 generalizaron el
hallazgo de Tversky y Kahneman a juicios evaluativos con valor afectivo, en los que se juzga el
carácter positivo o adverso de una categoría o delas consecuencias de un acontecimiento. Los
autores señalan que los factores más relevantes que explican el efecto serían las descripciones
detalladas de los elementos constituyentes de una hipótesis permitiendo recordar con mayor
facilidad posibilidades que han pasado por alto y facilitan la simulación mental y la imaginación vívida
de las categorías o acontecimientos. Parece ser que en los juicios evaluativos de una categoría
parece jugar un papel más importante la facilidad con la que se recuerdan sus elementos
constituyentes que la cantidad total de elementos que pueden recuperarse.

Apuntes de M. Goretti González completados y modificados por Marina Uned


30

4. La teoría de los modelos mentales


Esta teoría ofrece un marco explicativo unitario para la deducción e inducción y sostiene que las
conclusiones probabilísticas son el resultado de ambos tipos de inferencias.
Los individuos razonamos construyendo modelos de las situaciones descritas en las
premisas.
Una conclusión es posible si mantiene en al menos un modelo de las premisas, es
probable si aparece en la mayor parte de los modelos y es necesaria si se da en todos
los modelos.
Se aplica a la forma natural en la que razonan los individuos ingenuos sobre
probabilidades. En concreto, da cuenta del razonamiento extensional sobre
probabilidades, es decir, del razonamiento deductivo que genera la probabilidad de un
acontecimiento a partir de las posibilidades que pueden ocurrir.
Se basa en unos principios fundamentales:
I. Principio de verdad
Las personas representan situaciones construyendo exclusivamente aquellos modelos
mentales que responden a una posibilidad verdadera, debido a la capacidad limitada de la
MT que impide que se representen de forma exhaustiva todos los modelos explícitos que
representen el conjunto completo de posibilidades mutuamente excluyentes, lo que
implica violación del principio de extensionalidad.

Las situaciones con prob.0 (cero) corresponden a lo que es falso, por lo que, de acuerdo
con la teoría, no se representan generalmente en los modelos.

II. Principio de equiprobabilidad


Cada modelo representa una alternativa equiprobable, a menos que el conocimiento o
creencias indiquen lo contrario (se asignan probabilidades distintas).

III. Principio de proporcionalidad


Garantiza la equiprobabilidad, la P de un evento A, depende de la proporción de modelos
en los que ocurre; es decir, p (A) = nA/ n.
Un corolario de éste, es el principio de inclusión: si un acontecimiento A ocurre en cada
modelo en el que ocurre otro acontecimiento B, entonces A es al menos tan probable
como B, y si A ocurre algunos modelos en los que B no, entonces A es más probable que
B.

IV. Principio numérico


Si una premisa hace referencia a una probabilidad numérica, los modelos serán
etiquetados con sus valores numéricos apropiados, y una probabilidad desconocida
puede ser calculada restando la suma de las (n-1) P conocidas de la P global de la n
posibilidades en la partición.

Apuntes de M. Goretti González completados y modificados por Marina Uned


31

Para explicar las inferencias bayesianas se requiere de un 5º principio que Johnson-Laird y col.
Ilustran con este ejemplo:
De acuerdo con las estadísticas, 4 de cada 10 personas sufren una enfermedad,
3 de cada 4 con la enfermedad tienen el síntoma, y 2 de cada 6 sin la
enfermedad tienen el síntoma. Pat es una persona seleccionada al azar y tiene
el síntoma. ¿Cuál es la probabilidad de que Pat sufra la enfermedad?
Los sujetos ingenuos construirán los modelos mentales verdaderos y equiprobables, que serían
etiquetados con sus valores numéricos apropiados.

Modelos implícitos

¿Cuál es la probabilidad de que Pat sufra la enfermedad dada la


presencia del síntoma?
De acuerdo con Johnson - Laird y col. 1999 esta probabilidad puede ser calculada a partir de la
representación extensional de los modelos mentales vistos en la tabla anterior sin necesidad de utilizar
el Teorema de Bayes.
V. Principio del subconjunto
Suponiendo la equiprobabilidad, la probabilidad condicional p (A|B) depende del
subconjunto de B que es A, y la proporcionalidad de A respecto a B da lugar al valor
numérico.
Si los modelos se etiquetan con sus frecuencias absolutas entonces la probabilidad
condicional es igual al modelo de A y B dividido por la suma de todas las frecuencias de
modelos que contienen a B.
Al computar la ratio de estas relaciones de subconjuntos, los sujetos asignan
erróneamente valores al numerador o denominador.
Si aplicaran correctamente el principio serían capaces de inferir deductivamente el subconjunto A y
B (enfermedad y síntoma) del conjunto apropiado B (síntoma) y resolver correctamente la inferencia
bayesiana a partir del cálculo de la relación probabilística 3/5.
Si los sujetos se focalizan en el modelo extraerían este subconjunto por error del conjunto total de
posibilidades y afirmarían a la capacidad predictiva del dato (probabilidad de que B se observe en
ausencia de enfermedad – no A).

Apuntes de M. Goretti González completados y modificados por Marina Uned


32

Giutto y Gonzalez 2001 manipularon el contenido de las instrucciones para ayudar a los sujetos a
considerar el numerador y denominador de forma adecuada, aplicando el principio del subconjunto
para calcular la probabilidad condicional inversa.
Para resolver problemas similares al de Pat plantearon dos pasos pidiendo que se
completaran frases añadiendo los valores:
Vamos a analizar cuál es la P de que Pat sufra la enfermedad en el supuesto de
que presente el síntoma. Del total de 10 posibilidades, Pat tiene ___
posibilidades de tener el síntoma; entre éstas ___ estarían asociadas con la
enfermedad.
Las instrucciones facilitaron la respuesta correcta (de 5 posibilidades de tener el síntoma, 3 están
asociadas con la enfermedad).

Según Johnson - Laird y col , la versión numérica del principio del subconjunto no podría aplicarse de
forma obvia si los datos se proporcionan en porcentajes o en frecuencias. Los principios normativos
de la inferencia bayesiana resultan contra-intuitivos frecuentemente y propone una pedagogía del
razonamiento bayesiano basada en la teoría de los Modelos Mentales en la que las probabilidades se
planteen en términos numéricos sencillos, y así permitir la inferencia de la P condicional posterior
aplicando el principio del subconjunto sin necesidad de aplicar el Teorema de Bayes.

Barbey y Sloman 2007, integran el enfoque de los MM enmarcado en las hipótesis de los conjuntos
anidados.
Los errores y sesgos en la inferencia bayesiana se reducen de forma considerable
cuando el planteamiento del problema facilita la representación de las relaciones
inclusivas de las categorías relevantes para resolverlo.
Según éstos el que se haga más fácil debido a la presentación de frecuencias en vez de
en formato de probabilidades, se debe a que el formato de frecuencias contribuye a
clarificar y hacer más transparentes las relaciones inclusivas pertinentes.
Los autores proponen una representación transparente de las tres categorías relevantes del
problema, basada en la representación gráfica con círculos de Euler.
Ejemplo: compararon el rendimiento de dos grupos de sujetos en dos versiones de un
problema semejante al de Pat.
Se ha desarrollado una prueba para detectar una enfermedad. La probabilidad
de que un americano la padezca es de 1/1000. Un individuo que no padece la
enfermedad tiene una probabilidad del 5% de dar positivo en la prueba. Un
individuo que padece la enfermedad dará positivo en la prueba en todos los
casos. ¿Cuál es la probabilidad de que una persona extraída al azar que dé un
resultado positivo padezca realmente la enfermedad?

Apuntes de M. Goretti González completados y modificados por Marina Uned


33

La respuesta modal con este tipo de versión es 95% ya que suponiendo que el error
de la prueba sea un 5% (falsos negativos), debería producir un 95% de resultados
correctos.
Los sujetos estarían pasando por alto la probabilidad a priori de sufrir la enfermedad
siendo uno de los sesgos más característicos en la estimación de P condicionales.
Los grupos que se compararon diferían exclusivamente en que en el grupo
experimental la redacción del problema se acompañaba del diagrama que se
representa -A- y el porcentaje de respuestas correctas ascendió de 20% a 48%.

La gráfica de los conjuntos anidados redujo de forma sustancial el sesgo observado en la condición
control, a pesar de que el problema se formuló en términos de probabilidades.
Los diagramas hacen explícito que las posibilidades de que una persona dé positivo en
la prueba (tenga síntoma) es un subconjunto de todas las posibilidades y que las
posibilidades de padecer la enfermedad es, a la vez, un subconjunto de las
posibilidades de dar positivo en la prueba.
La representación de las relaciones inclusivas de las categorías nos ayuda a inferir la
respuesta correcta: del total de individuos que da positivo en la prueba, 50, 1
padecerá la enfermedad: 1/50 =2%.

Apuntes de M. Goretti González completados y modificados por Marina Uned


34

Sloman y cols. 2003 demostraron que el hecho de añadir la categoría de “falsos negativos” al
problema incrementaba significativamente la dificultad, tanto en términos de probabilidad como de
frecuencias.
La nueva categoría no era relevante y no altera el valor del resultado pero incrementa
en complejidad, ya que dificulta captar las relaciones relevantes. Añadirla supone la
representación de un modelo mental adicional que aumenta la “carga” en la memoria
de trabajo y dificulta la aplicación del principio del subconjunto para alcanzar la
solución correcta del problema.
Según la teoría de los modelos mentales, el hecho de añadir la categoría de FN supone la
representación de un modelo mental adicional, que aumentaría la carga en la MT y dificulta la
aplicación del principio del subconjunto. Los individuos intentan minimizar la carga de la memoria de
trabajo representando de forma explícita sólo aquellos casos en los que las premisas son verdaderas
y se pasan por alto los casos en que son falsas.

Johnson-Laird y Savary demostraron que razonando sobre probabilidades relativas, la mayor parte de
los sujetos alcanzaban conclusiones imposibles cuando no consideraban los casos en que las premisas
son falsas:
Solo una afirmación es correcta sobre una mano de cartas de póker:
Hay un Rey o un As, o ambas
Hay una Reina o un As, o ambas
¿Qué es más probable, el Rey o el As?
Los participantes asumirían de forma tácita el principio de indiferencia o
equiprobabilidad de las premisas e inferirían que aquel evento que ocurre en un
mayor número de modelos es el que tiene mayor probabilidad de ocurrir.
La respuesta mayoritaria de los sujetos es el As y se justifica porque el As aparece en
una proporción superior de modelos mentales. La respuesta es falsa.
El enunciado es planteado como una disyunción exclusiva: X o Y, pero no ambas. Por
tanto, no pueden ser ciertas las premisas una y dos simultáneamente.
El As es el elemento común a ambas premisas, si una de ellas es falsa, el As es falso
también en la otra. Nunca el As podría ser más probable que el REY.

Apuntes de M. Goretti González completados y modificados por Marina Uned


35

Cuando los casos falsos se tienen en cuenta y no se contempla la equiprobabilidad de los modelos
mentales, la respuesta correcta emerge con facilidad en la representación mental del sujeto. Cuando
la basamos en la menor información explícita posible para evitar saturar nuestra limitada capacidad
de procesamiento, podemos llegar a conclusiones ilusorias sobre lo que es más probable. El exceso
de confianza subjetiva emitida revela modalidades de ilusiones cognitivas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


36

5. Juicio probabilístico y calibración


La calibración es el grado de precisión o ajuste entre el juicio probabilístico sobre la confianza en el
propio rendimiento y la eficacia objetiva avalada por los datos de la ejecución.
La forma de analizar el rendimiento objetivamente y valorar la confianza subjetiva ha
sido abordada y analizada.
Uno de los hallazgos más robustos de esta línea de investigación es el denominado
“efecto de exceso de confianza” (sobre-confianza) siendo el hecho de que las personas
tenemos más confianza en la eficacia de nuestro rendimiento de lo que avalan los datos
objetivos. El sesgo no se limita a los estudios de laboratorio pues se observa también
consistentemente en el ámbito profesional.
Un segundo efecto estable y consistente sobre la calibración es “efecto fácil-difícil”
que constata que el grado de sobreconfianza aumenta con el grado de dificultad de las
preguntas.

5.1. Enfoques teóricos

5.1.1. El enfoque de los Modelos Mentales Probabilísticos (MMP)


Gigerenzer, Hoffrage y Kleinbölting 1991 propusieron un marco integrador que permite explicar el
“efecto de exceso de confianza” y el “efecto difícil-fácil”.
La tarea prototípica en juicios de confianza incluye preguntas de cultura general con
dos alternativas.
El desajuste en la calibración no es una característica intrínseca del juicio humano, sino
la consecuencia de la utilización de tareas con escasa validez ecológica, que no
permiten poner en marcha un MMP que propicie un proceso de inferencia inductiva
adecuado.
Un modelo mental probabilístico es un procedimiento inductivo que se utiliza cuando
el conocimiento es limitado y permite realizar inferencias rápidas.
La clave conceptual es que un MMP estará adaptado si permiten conectar la estructura
específica de la tarea con una estructura de probabilidad en una clase de referencia del
ambiente natural del sujeto, almacenada en su MLP.
Ejemplo: Imaginemos que formulamos ¿Qué ciudad tiene más habitantes?: a) Bilbao o
b) La Coruña.
La pregunta permite generar una clase de referencia representativa extraída del
entorno natural del sujeto, que podría ser “ciudades españolas con una población
superior a 200.000 hab”.
El desajuste en la calibración vendría dado o porque la referencia que integra los
elementos no es representativa del entorno natural o, siendo representativa, porque
no lo son los elementos a comparar.

Apuntes de M. Goretti González completados y modificados por Marina Uned


37

Un MMP para una tarea determinada integra una clase de referencia (ciudades con + de 200000
habitantes), una variable criterio (nº de habitantes), y claves probabilísticas que varían en su grado de
validez.
La MMP asume que las inferencias sobre preguntas inciertas o desconocidas se basan
en estas claves probabilísticas, que se generan, se evalúan y se activan para dar la
respuesta.
En el ejemplo se podían dar: a) tener o no equipo de fútbol, b) ser capital o no de una
comunidad autónoma c) tener o no Universidad d) ser ciudad o no de veraneo,... Si las
ciudades a y b tuvieran ambas equipo de fútbol, esta clave no sería válida pues no
ayuda a responder la pregunta.
La Teoría asume que el orden en que se generan las claves refleja una jerarquía de
acuerdo con su grado de validez. Se ilustra la jerarquización de las claves
probabilísticas para inferir la R en la siguiente figura:
El conocimiento limitado del
participante se concreta en los
valores perdidos en la matriz de
objetos a comparar x claves
probabilísticas. Los propios objetos,
las claves y/o los valores de las claves
pueden resultar desconocidos para el
sujeto.

Gigerenzer, Hoffrage y Kleinbölting 1991 pusieron a prueba su teoría con este diseño:
Estudio:
Se formularon 2 tipos de preguntas:
- Representativas: se utilizó como clase de referencia en un ambiente natural de
participantes alemanes Conjunto de ciudades del oeste de Alemania con más de
100.000 hab.
- Seleccionadas: fueron de cultura general, y se sometieron al mismo grupo de
sujetos.
El sujeto debía emitir un juicio de confianza relativo a cada una de sus respuestas, tras
contestar a la pregunta; y un juicio de frecuencia que debía emitir después de cada
bloque de 50 preguntas, referido al nº estimado de respuestas correctas en dicho
bloque.

Apuntes de M. Goretti González completados y modificados por Marina Uned


38

De acuerdo con la Tª de MMP, el sesgo de sobreconfianza, esperado en los juicios sobre cada
pregunta individual, debería corregirse y ajustarse a la eficacia objetiva cuando se emite un juicio de
frecuencia. El supuesto que lo justifica es que cada bloque de preguntas, en conjunto, constituía una
muestra de la clase de referencia natural “conocimiento de cultura general que he demostrado en
pruebas o exámenes previos”.
Resultados:
En relación a los juicios de confianza se observa un sesgo de sobre-confianza que es
más acusado cuanto mayor es la eficacia de las respuestas de los sujetos.
El sesgo se corrige cuando se utilizan preguntas representativas.
La curva de confianza para el grupo de preguntas representativas se asemeja a una
curva de regresión para la estimación del porcentaje de aciertos a partir de la
confianza asignada, revelando subconfianza en la parte izquierda, sobreconfianza en
la derecha y cero sobreconfianza como promedio.
La media de las diferencias no difiere significativamente de 0 por lo que es un juicio
bien calibrado.
Se analiza la curva de calibración del conjunto de preguntas emparejadas, las
preguntas representativas equivalentes en nivel de dificultad a las de cultura general.
En consonancia con la predicción de los MMP, si las ciudades a comparar no son
representativas de la clase de referencia, la calibración no es ajustada y se observa
también el sesgo de sobreconfianza en este dominio especifico de conocimiento. El
sesgo se corrige cuando el juicio de confianza se refiere a la frecuencia de aciertos en
una muestra representativa de preguntas seleccionadas. La diferencia media entre la
frecuencia estimada de respuestas correctas en cada bloque de preguntas
seleccionadas y la frecuencia real no difiere de 0.

De acuerdo con los autores de los MMP, si bien los resultados apoyan la teoría como modelo
integrador de resultados empíricos, ésta requiere un mayor desarrollo para responder a
determinadas cuestiones que no quedan resueltas con claridad. Los aspectos a delimitar son la
selección de la clave probabilística que se activa, si el orden en que se activan las claves es ajustado a
la jerarquía de acuerdo con su validez, o las condiciones que determinan que las claves se sustituyen
o se integran de forma múltiple.

Se responden a algunas de estas cuestiones en trabajos posteriores de los autores.

Apuntes de M. Goretti González completados y modificados por Marina Uned


39

Gigerenzer y Goldstein formulan el algoritmo básico “TakeThe Best” (elige el mejor – TTB), que
constituye el marco conceptual de la teoría de los MMP.
El algoritmo representa gráficamente como un diagrama de flujo basado en 5 principios
para claves binarias.
Supone una ordenación subjetiva de las claves de acuerdo con su grado de validez. La
clave superior en el rango constituye la mejor clave, que permite discriminar entre las
dos alternativas de R.

Apuntes de M. Goretti González completados y modificados por Marina Uned


40

I. Principio de reconocimiento
Reconocimiento de un objeto constituye un predictor de la variable.
Ejemplo: sería el número de habitantes. Si una persona debe decidir cuál de las dos
ciudades a y d tiene más hab., la inferencia será la ciudad a) porque no ha oído hablar de
la otra ciudad.

II. Búsqueda de claves con validez


Se recuperan de la memoria las claves y sus valores en un orden jerárquico de acuerdo
con su grado de validez. La validez ecológica de una clave es la frecuencia relativa con la
que predice correctamente el resultado.
Ejemplo: comparando las dos ciudades, el 87% de los casos la ciudad que tiene equipo de
fútbol tiene más habitantes, la validez ecológica de la clave es del 87%.

III. Regla de discriminación


Una clave discrimina entre dos objetos si uno de ellos tiene un valor positivo en la clave y
el otro no lo tiene (o bien tiene un valor negativo o se desconoce su valor).
Ejemplo: en la tabla de valores binarios, si a>b, el algoritmo TTB se limita al área
sombreada, para inferir si b>c la búsqueda se centra en el área punteada.

IV. Principio de sustitución de la clave


Como se observa en el diagrama, si la clave discrimina, se para la búsqueda de nuevas
claves. Si no lo hace, se vuelve al paso 2 donde se ha de elegir nuevamente.

V. Regla de maximización para la elección


Se elige el objeto con un valor positivo en la clave.
El algoritmo TTB es un procedimiento no compensatorio: sólo la clave que mejor
discrimina determina la inferencia, sin que la combinación de valores de claves diferentes
ni la integración de información puedan contrarrestar la elección basada en la clave con
mayor validez.

El modelo TTB se enmarca dentro de un modelo de racionalidad ecológica que permite explicar cómo
el sesgo de sobreconfianza se corrige cuando el participante realiza la inferencia sobre objetos de su
entorno natural (clase de referencia), que le permiten seleccionar claves probabilísticas con
suficiente validez en relación a una variable derivada de la clase de referencia. Una clave
probabilística válida es aquella capaz de predecir la inferencia adecuada.

Apuntes de M. Goretti González completados y modificados por Marina Uned


41

5.1.2. El modelo “fuerza-peso” de la confianza en la evidencia


El trabajo de Griffin y Tversky, 1992 contribuye a despejar la incógnita sobre qué ocurre cuando se
selecciona una clave con escaso valor predictivo para realizar la inferencia y cuáles son las razones
para explicar esta decisión.
Estudio: replican el estudio de Gigerenzer y cls.
Seleccionaron al azar una muestra de 30 pares de estados americanos y pidieron a los
sujetos que eligieran qué estado era superior en 3 atributos: a) nº de habitantes. b)
porcentaje de participación en el voto, c) porcentaje de graduados en bachillerato.
Resultados: reflejaban que el sesgo de sobreconfianza no podía reducirse solo al efecto
del nivel de dificultad.
El nivel de eficacia en las respuestas para las VV “voto” y “educación” fue muy similar
y cercana al azar, y sin embargo, el sesgo de sobreconfianza fue significativamente
superior en la VV de “educación”, que responde al efecto llamado ilusión de la validez.
El estereotipo americano está más unido a la educación que a la participación electoral
(se considera que el nivel educativo es superior en un estado, en función del nº de
universidades famosas o eventos culturales que celebran). La representatividad de las
VV en relación al nivel educativo determina su recuperación como clave probabilística,
aunque poseen escasa validez objetiva.
Estos resultados delimitan dos VV conceptualmente importantes que contribuyen a explicar las
claves que se recuperan a la hora de emitir un juicio probabilístico.
La evidencia disponible para emitir un juicio intuitivo se interpreta según 2
coordenadas: la “fuerza” o saliencia de la evidencia y su “peso” o validez predictiva.
A distinción se relaciona con conceptos estadísticos. La Teoría estadística y el cálculo
probabilístico prescriben reglas que combinan con precisión fuerza y peso o validez,
en cambio el juicio humano no combina ambos factores, lo que produce sesgos y
errores de calibración.

El modelo teórico del juicio probabilístico que integra esta dicotomía predice sobre-confianza cuando
la fuerza es elevada y el peso es bajo y subconfianza cuando la fuerza es baja y el peso es elevado.
La fuerza de la evidencia tiende a dominar ya que el sujeto se focaliza en la
“impresión” que le produce la evidencia (calidez de la carta) para luego ajustar el
juicio de acuerdo con su conocimiento de su validez (fiabilidad de quien la escribe).
El juicio combina el anclaje en la fuerza de la impresión basándose en la
representatividad de la evidencia, con un proceso de ajuste que tiene en cuenta el
valor predictivo de la evidencia (insuficiente).

Apuntes de M. Goretti González completados y modificados por Marina Uned


42

Ejemplo: Imaginemos el juzgar la probabilidad con la que una persona será contratada
a partir de una cara de recomendación escrita en términos cálidos y enfatizando en
sus cualidades positivas.
Las personas focalizamos en la fuerza o carácter extremo del contenido de la carta y
tendemos a predecir un resultado favorable al candidato, sin atender de forma
suficiente al peso o validez predictiva de la carta: la credibilidad de quien la escribe.
Tendemos a pasar por alto el tamaño de la muestra.
Relación modelo fuerza-peso con el concepto de calibración en 5.2.

El análisis precedente sugiere que las personas basamos la confianza en nuestro rendimiento en la
impresión sobre los resultados sin observar suficientemente la calidad de los datos.
Griffin y Tversky replican y reinterpretan el efecto fácil-difícil de acuerdo con este
enfoque.
Estudio: Lichtenstein y Fischhoff demuestran en un experimento (respaldado por
estudios posteriores) que:
- El efecto de sub-confianza (un rendimiento objetivo superior al juicio de confianza)
se daba en buena parte del rango cuando los ítems eran fáciles.
- Un efecto de sobreconfianza (rendimiento inferior el juicio de confianza) a lo largo
de la mayor parte del rango cuando los ítems eran difíciles.
- Una sobreconfianza extrema en todo el rango cuando eran “imposibles”
(considerar si un párrafo en inglés lo había escrito un británico o un americano).

5.2. La calibración en el juicio de los expertos


El juicio probabilístico de los expertos no siempre está calibrado. El efecto fácil-difícil se da en
calibración con participantes expertos. La evidencia indica que desatienden a las probabilidades a
priori de las hipótesis y a la capacidad predictiva del dato, siendo los predictores más claros de la
calibración sesgada.
Koehler, Brenner y Griffin 2002, proponen un modelo de calibración adaptado al juicio probabilístico
sobre un caso particular, que integra la teoría del apoyo (apartado 3.1.) con el modelo de calibración
“fuerza-peso” de la confianza en la evidencia. Incorpora también algunas predicciones sobre la
perspectiva de los heurísticos en el juicio probabilístico (Apartado 3.).
La revisión realizada confirma las hipótesis derivadas de su modelo. La calidad del
diagnóstico y pronóstico en el juicio clínico de los médicos sustenta el cuerpo empírico
de evidencia más amplio.
Estudio: analizaron los datos de 9 investigaciones, que se agrupan en tres categorías.

Apuntes de M. Goretti González completados y modificados por Marina Uned


43

Ejemplo: un grupo de médicos realizó el estudio clínico individual de distintos


pacientes que padecían “tos aguda” persistente. Cada paciente era examinado
por un solo médico y éste rellenaba una lista de síntomas estandarizada. Luego
se pedía al médico que estimara la probabilidad de que el paciente tuviera
neumonía en una escala de 0 a 100 (sin conocimiento de la radiografía).
La “tos aguda y persistente” era el dato y “padecer neumonía” la hipótesis
focal.
El parámetro alfa mide la discriminalidad del dato (diferencia de apoyo de la hipótesis
focal frente a las hipótesis alternativas).
La capacidad predictiva del dato respecto a la hipótesis focal constituye un indicador
de la calidad o el peso de la evidencia.
El parámetro alfa constituía un dato objetivo y su valor aumenta en relación directa
con la capacidad predictiva del dato respecto a la hipótesis focal, frente a otras
hipótesis alternativas.
El juicio de los médicos muestra una marcada sub-confianza cuando tanto la
probabilidad a priori como la discriminabilidad son elevadas, una ligera sobreconfianza
cuando la P a priori es baja y la discriminabilidad es alta, y una sobre-confianza extrema
cuando la P a priori es muy baja y la discriminabilidad es baja.

Koehler y col encajan los resultados en el marco teórico de Griffin y Tversky y con el enfoque más
general de los heurísticos en el juicio probabilístico.
Interpretan que la “impresión” que causa el síntoma cuando el médico se enfrenta a
un caso particular se ve reforzada por la accesibilidad de la fuente de información: el
carácter vívido de la experiencia personal y la proximidad al paciente.
Esta impresión, que determina inicialmente la fuerza de la evidencia, adquiere especial
relevancia debido a un factor adicional: la probabilidad a priori.
La “saliencia” del síntoma parece variar, además, en relación inversa con la tasa de la
enfermedad en la población. Cuanto más atípica resulta la enfermedad, mayor
relevancia adquiere el síntoma y esta relevancia facilita la recuperación de la memoria
de información coherente con la evidencia, que resulta de mayor medida disponible.
La disponibilidad de síntomas coherentes con la hipótesis focal contribuye a su
proceso de “desempaquetado” en sus síntomas componentes, incrementando así su
probabilidad subjetiva.
El sesgo en la focalización inicial del juicio a favor de la hipótesis focal respecto a las
hipótesis alternativas, restará eficacia al proceso de ajuste final, que no considerará de
forma suficiente la discriminabilidad objetiva del síntoma: su validez predictiva real de
la enfermedad.

Apuntes de M. Goretti González completados y modificados por Marina Uned


44

Esta combinación de fuerza (impresión) y peso (validez predictiva) de la evidencia (tos aguda y
persistente) respecto a la hipótesis focal (neumonía) se ajusta con bastante exactitud al marco teórico
de Griffin y Tversky.
La combinación de fuerza alta (tasa muy baja) y peso bajo (discriminabilidad baja) produce
sobre-confianza extrema (línea negra discontinua de puntos), mientras que la combinación de
fuerza baja y peso alto produce subconfianza (discontinua rayas). Cuando la fuerza tiende a
ser alta peor moderada y el peso elevado la calibración es ajustada (raya negra solida), aunque
tiende a la sobreconfianza.

6. Sesgo predictivo y sesgo retrospectivo


I. Sesgo predictivo
La disponibilidad de la evidencia nos hace sobrevalorar la fuerza de la evidencia sin que atendamos
suficientemente a la validez de los datos disponibles. El sesgo de sobreconfianza es incluso más
acusado en el caso de los expertos por su mayor resistencia a admitir que se han equivocado.
¿A qué obedece esta persistencia en las creencias?
Kahneman denomina a este sesgo cognitivo “ilusión de validez” y establece él un paralelismo entre
esta ilusión cognitiva y la ilusión perceptiva de Müller-Lyer.
En el caso de la ilusión perceptiva, cuando la persona es advertida de que no puede
confiar en lo que percibe, corrige su ilusión e informa correctamente de lo que ahora
es una creencia basada objetivamente.
En contraste con esa facilidad, la constatación de nuestros errores de calibración en
los juicios predictivos puede contribuir a que aceptemos el hecho intelectualmente,
pero es poco probable que produzca un impacto real sobre nuestros sentimientos y
modifique acciones futuras.
¿A qué se debe la dificultad para corregir la ilusión de validez?
La confianza subjetiva se sustenta en los que denomina la falacia narrativa, basada en el intento
continuo de buscar un sentido al mundo que nos rodea y una coherencia en los hechos que se
suceden.
Ejemplo: El autor lo ejemplifica con una experiencia personal. La impresión que
genera la observación de una única experiencia determina un juicio predictivo
engañoso basado en la ilusión de validez sustentada en la necesidad de coherencia. La
confianza excesiva dificulta que el feedback sobre la falta de precisión pueda
corregirlo en el futuro y ajustarlo con eficacia a la evidencia objetiva.
La confianza subjetiva para resultar de un modo de procesamiento fácil y rápido que busca
coherencia asociativa y que entronca directamente con la sensación y el sentimiento que con el
juicio cognitivo deliberado.

Apuntes de M. Goretti González completados y modificados por Marina Uned


45

II. Sesgo retrospectivo


El sesgo retrospectivo es la otra cara de la moneda de la “ilusión de coherencia”.
La ilusión de validez nos hace confiar en exceso en nuestros juicios predictivos si son coherentes con
la evidencia presente y este sesgo retrospectivo revisa y reestructura nuestra concepción sobre un
hecho del pasado si la evidencia disponible la contradice.
Este sesgo es extremadamente robusto demostrado a lo largo de todas las etapas evolutivas de la
vida.
I. Estudio Blank y Fischer 2000
Blank y Fischer 2000, realizaron el experimento en el cual los participantes predecirían los
porcentajes de voto que obtendrían los distintos partidos políticos en las elecciones y recordar las
predicciones después de las elecciones.
Los participantes recordaron haber estimado un porcentaje de voto que difería en un punto del
porcentaje real, desviándose de forma significativa de sus predicciones iniciales.
Se les preguntó si el resultado les sorprendía y en caso negativo que detallaran las razones. La mitad
no se sorprendió afirmando que los resultados coincidían con su predicción personal. El resto
afirmaron que los resultados no podían ser de otra manera y ofrecían distintas razones que
justificaban la necesidad del resultado.

II. Componentes del sesgo retrospectivo


Los tres componentes del sesgo retrospectivo identificados inicialmente por Fischhoff y col y los
procesos psicológicos subyacentes:
Las impresiones de necesidad: grado en que los resultados de un acontecimiento se
perciben como determinados casualmente.
La atribución causal se explica porque las personas elaboramos antecedentes
consistentes con el resultado de forma que parezca en mayor medida
predeterminado.
Las impresiones de predictibilidad: asumen las percepciones y juicios coherentes con el
hecho de que los resultados podrían haberse anticipado. Efecto de “siempre supe que
iba a ocurrir”.
La predictibilidad implica consideraciones metacognitivas que presuponen que
el resultado podría haberse anticipado en algún momento.
Las distorsiones de la memoria: recuerdo erróneo de que sus predicciones estuvieron
muy cerca de lo que de hecho lo estuvieron.
Estas distorsiones están gobernadas por procesos de memoria que se
concretan en el anclaje en el resultado y la reconstrucción de la predicción
inicial.

Apuntes de M. Goretti González completados y modificados por Marina Uned


46

Cada componente responde a una idea psicológica distinta y no siempre se da en el mismo


participante pero el denominador común, sí es el resultado de la construcción narrativa basada en la
búsqueda de coherencia.

Según Kahneman [...] estamos predispuestos a pensar que el mundo es más regular y predecible de
lo que realmente es porque nuestra memoria, de forma automática y continua, mantiene una
historia sobre lo que está sucediendo, y porque las reglas de la memoria tienden a hacer la historia
tan coherente como sea posible y a suprimir las alternativas. El pensamiento rápido no duda. [...]
cuando una impresión convincente entra en conflicto con nuestro conocimiento, la impresión
generalmente prevalece [...]

Apuntes de M. Goretti González completados y modificados por Marina Uned


1

Tema 7 Toma de decisiones


1. Introducción
Los juicios probabilísticos son parte del proceso de toma de decisiones porque la incertidumbre se
encuentra presente en el proceso de decisión.
I. Qué decisión hay que tomar
El primer paso es el planteamiento general de cuál es la decisión que hay que tomar. Este
planteamiento de la decisión determina las alternativas que se generan, lo que da lugar a resultados
completamente diferentes.
Ejemplo: Luis tiene que decidir qué va a hacer al terminar sus estudios: ¿cuál será la
mejor forma de lograr un buen nivel de vida? Son alternativas centradas en aspectos
económicos. Pero si por el contrario: ¿podría ampliar mis estudios con algún curso
para postgraduados? Las alternativas serán diferentes.
Esto mismo ocurre en decisiones políticas o sociales. Las alternativas generadas, por
tanto, la decisión será completamente distinta según el tipo de preguntas que se haga
el individuo.
Este planteamiento general de la decisión está determinado por las metas de la persona. Los sujetos
con metas a corto plazo o a largo plazo decidirán de forma diferente.
Ejemplo: Una persona que desea trabajar los dos meses de verano para ganar dinero e
invertir en sus estudios futuros, puede elegir un empleo de muchas horas y con
mucha dedicación, y con un buen sueldo. Sin embargo, con metas a largo plazo,
elegirá empleos que le permitan mantener calidad de vida, y ganar algo menos de
salario.

II. Generación de alternativas u opciones


Ante decisión importante (deliberada y consciente) el siguiente paso sería la generación de las
alternativas u opciones, sin desechar a priori ninguna de ellas.
Serán diferentes en función del conocimiento y de los valores de la persona, así como de los factores
socioculturales.
Normalmente discriminar entre alternativas está determinado por la accesibilidad de la
información.
Se tiende a tener en cuenta la información presentada y sólo en la forma que se
presenta, ignorando a la vez datos que han de inferirse, transformarse o recuperarse
de la memoria.
Ejemplo: Comprar un coche (modelo y marcas) en función de la publicidad evaluamos
las características más salientes, atendemos a los accesorios, diseño o detalle que el
fabricante ha merecido hacer hincapié.

Apuntes de M. Goretti González completados y modificados por Marina Uned


2

III. Evaluar alternativas


Una vez generado un número suficiente de alternativas, se evalúan con el fin de elegir la mejor.
Por una parte, se evalúan las expectativas o la probabilidad de ocurrencia de cada una, y por otra, las
consecuencias que pueden esperarse en el caso de ocurrir.
Una decisión correcta debería tener en cuenta tanto la probabilidad de que la
característica se dé (% de Mercedes que son seguros) como las consecuencias, que
equivaldrían al valor que la persona da a dicha característica.
Ejemplo: En la compra del coche evaluamos del modelo consumo, resistencia,
potencia o seguridad.

a. Probabilidad de ocurrencia
Las estimaciones de la probabilidad se encuentran determinadas por el uso de heurísticos concretos y
éstos a su vez influyen sobre la elección final de la opción.
Ejemplo: Las madres que sobreestiman la probabilidad de ocurrencia de una
enfermedad grave por el impacto de una noticia. Este aumento de la probabilidad
percibida producido por el heurístico de accesibilidad puede llevar a tomar decisiones
sobre aplicar tratamiento o vacunación no siempre acertada.
Estas sobreestimaciones de las probabilidades ocurren con las alternativas más
deseables, y la subestimación con lo menos deseable. Esta tendencia es conocida
como Principio de Pollyanna (protagonista de novela que siempre tenía razones para
ser feliz).
Ejemplo: Se da en los concursos o juegos de lotería en los que las personas que
juegan sobreestiman las posibilidades de ganar el premio. También se dan a la
vez otros sesgos: sesgo de exceso de confianza en el juicio emitido, o sesgo
retrospectivo consistente en la creencia, conocido el resultado final, de que las
cosas podían suceder de esa forma y se había predicho previamente.

b. Evaluación de consecuencias
La evaluación de las consecuencias de los resultados ha sido habitual que se conceptualizara en
términos de ganancias o pérdidas.
Es frecuente estudiar la toma de decisiones en los juegos de azar con situaciones de
elección entre dos apuestas. Los modelos más estudiados han tratado la elección bajo
riesgo con un solo atributo en cada alternativa, generalmente la ganancia y la pérdida
económica tras la ocurrencia o no del suceso.

Apuntes de M. Goretti González completados y modificados por Marina Uned


3

Cuando es un tanto más compleja y cada alternativa muestra una serie de atributos, los modelos
normativos son complicados y para llegar a una decisión, requieren tanto de experto en el tema
sobre el que se trata como de experto en el análisis de la decisión.
Ejemplo: La necesidad de evaluar simultáneamente las probabilidades y las
consecuencias se pone de manifiesto cuando éstas afectan a toda la población
(análisis de campañas de vacunación contra enfermedades de baja prevalencia, pero
cuyas consecuencias son graves que no permiten correr riesgos).

En otros casos más sencillos, la persona realiza una elección bajo incertidumbre evaluando
expectativas y sus consecuencias. Las alternativas tienen cualidad para el individuo (beneficiosa o no)
y una importancia determinada (según el grado de beneficio o perjuicio) que son diferentes para
cada persona y que también varían en la misma en distintas situaciones (intraindividual).

2. Teoría normativa de la decisión


Una decisión es una respuesta a una situación en la que existe más de un curso posible de acción:
opción o alternativa de elección.
Suele basarse en las expectativas que tenemos sobre la ocurrencia de futuros acontecimientos y en la
evaluación de las consecuencias de dichos acontecimientos en función de nuestras metas y valores.
Ejemplo: Llegamos de una jornada de trabajo agotados. Nos invita un amigo a ir al
cine. Ante tal situación se ha de elegir el quedarse en casa descansando o ir a ver la
peli en buena compañía, pero con el riesgo de dormirnos en la misma.
Los cursos de acción serían: Ir al cine o quedarnos en casa.
A la vez tenemos unas expectativas de lo que puede ocurrir: 1- si nos quedamos,
descansar y no ver una buena peli. 2- elegir ir al cine, y puede ocurrir que veamos la
película o que no por quedarnos dormidos en la misma.
Desconocemos la probabilidad de ocurrencia de estos acontecimientos pero podemos
estimar su probabilidad y así evaluaremos sus consecuencias. En una escala de
satisfacción entre 0 y 100.
En el diagrama en forma de árbol de decisión de la situación estamos combinando las
propias expectativas (juicios probabilísticos) con los intereses y los deseos personales.
El árbol de decisión no proporciona una solución pero sí la representación de las
expectativas sobre la ocurrencia de los hechos futuros y de la evaluación de sus
consecuencias. Ello permite visualizar gráficamente cuál es la alternativa que brinda
una mayor satisfacción y su expectativa según nuestros criterios.

Apuntes de M. Goretti González completados y modificados por Marina Uned


4

En la toma de decisiones se suelen diferenciar tres situaciones relacionadas con las expectativas:
1. aquellas en las que se conocen las probabilidades (comprar o no un billete de lotería)
 CONTEXTO DE RIESGO

2. en las que se desconocen y éstas se pueden estimar (seguir trabajando o poner negocio
propio)  CONTEXTO DE INCERTIDUMBRE

3. situaciones en las que hay certeza sobre las opciones y sólo se ha de elegir entre las mismas
(pedir carne o pescado en el restaurante). La certeza indica que no hay dudas sobre los
acontecimientos futuros y la decisión se toma bajo este supuesto.
 CONTEXTO DE CERTIDUMBRE

Las expectativas se definen como el grado de creencia o probabilidad de que ocurra un


acontecimiento concreto. Generadas éstas, se evalúan sus consecuencias asociadas en función de
criterios personales.
Se considera que la decisión se toma en un contexto de riesgo cuando se conocen las
probabilidades, en un contexto de incertidumbre cuando éstas se estiman y en uno de
certidumbre cuando se conoce con seguridad la ocurrencia.

I. Modelos del valor esperado


La teoría normativa asume que cuando decidimos, lo hacemos eligiendo aquello que tiene el máximo
valor en los resultados que se esperan obtener.
Unos matemáticos del XVII y XVIII consideraron estudiar la probabilidad y la toma de decisiones en
los juegos de azar como pauta de comportamiento óptima.
El objetivo era encontrar la forma de cuantificar el valor de una apuesta en los juegos
o en decisiones bajo condiciones de riesgo.
Apuntes de M. Goretti González completados y modificados por Marina Uned
5

Suponían que el valor que el sujeto asignaba a una cantidad monetaria coincidía
exactamente con esta.
Los modelos desarrollados bajo este supuesto se denominaron Modelos del valor esperado
coincidiendo este valor con la esperanza matemática el juego.
El Valor esperado de una alternativa es la suma del producto de c/valor por su
probabilidad de ocurrencia. La mejor elección será aquella que obtenga el máximo
valor esperado:

La alternativa 1 es la mejor porque tiene un valor esperado de 900 euros frente a 404
de la 2ª. Esta cantidad es promedio ponderado de los resultados que se esperan
ocurran en el futuro. Se pondera cada resultado posible con respecto a la frecuencia
con que se espera.
También se puede obtener a partir de estimaciones subjetivas, y es el valor esperado
la representación de las creencias personales sobre la ocurrencia del posible
resultado.

II. Paso del valor esperado a la estimación subjetiva - Paradoja de San Petersburgo
Según la teoría del valor esperado los sujetos buscan maximizar sus ganancias y elegirán la opción 1.
No obstante, no todos se ajustan a la elección y prefieren la opción 2, en la que se gana menos pero
se gana siempre. Ello hizo que el “valor esperado” fuera sustituido por el concepto de la utilidad
esperada, entendida como el grado en que las consecuencias de una opción alcanzan las metas
personales en una situación determinada.

La primera objeción a este criterio fue en el S.XVIII (Nicolás Bernouill) aunque fue Daniel Bernouilli el
que desarrolló y lo publicó como Paradoja de San Petersburgo.
Trata de la decisión de un jugador ante un juego con valor esperado infinito:
- El jugador A plantea las reglas del juego y el jugador B tiene que decidir cuánto dinero
está dispuesto a pagar por participar en él.

Apuntes de M. Goretti González completados y modificados por Marina Uned


6

- La regla consiste en que el jugador A lanzará una moneda hasta que caiga el lado de la
cara, y el número de veces necesarios (n) para conseguirlo determinará la cuantía del
premio.
- Si A lanza una moneda y sale cara en la primera tirada, pagará dos ducados al jugador
B y termina el juego (el jugador B cobra más cuanto más tarde salga cara).
- La pregunta que se plantea en la paradoja es: ¿cuánto pagaría el señor B al jugador A
por participar en este juego?
Según el criterio del valor esperado, el jugador B debería participar en el juego si el valor esperado es
mayor que la suma exigida para entrar a jugar y rechazar la propuesta cuando ésta sea menor.
Para calcular el valor esperado total del juego se suman todos los valores esperados en cada
lanzamiento, dando como resultado un número infinito de “ducados”.

La paradoja surge porque con un valor infinito se debería apostar cualquier cantidad de
dinero. Al señor B le interesa que salga cara lo más tarde posible. Los resultados
evidenciaron que generalmente no están dispuestas a apostar más de 20 monedas por
participar.
Pone de manifiesto que no es realista asumir que B espere poder jugar durante tiempo
ilimitado para obtener número infinito de monedas a cualquier precio.
Para resolverlo, Daniel Bernoulli propuso la noción de utilidad esperada como valoración subjetiva de
las posibles consecuencias monetarias del juego.
Es en función de la riqueza de cada individuo y está en relación inversa a su nivel de
riqueza. Ganar o perder 200 euros no es lo mismo para un rico que para un pobre, y
cuánto más dinero se tenga menos se valorará dicha ganancia o pérdida.

Apuntes de M. Goretti González completados y modificados por Marina Uned


7

El autor también avanza el concepto de utilidad marginal decreciente al señalar que la función de
utilidad es siempre creciente pero crece cada vez más despacio (forma cóncava).
Es necesario diferenciar entre el valor esperado (cantidad objetiva) y la utilidad
esperada que depende de las circunstancias (la utilidad de un bien varía en función de
la cantidad que ya se posee de ese bien).
En la paradoja descrita los individuos están dispuestos a pagar distintas cantidades por participar en
el juego según su criterio, aunque el valor esperado sea infinito. Esta distinción permite analizar la
toma de decisiones bajo riesgo (se conocen las probabilidades) considerando las valoraciones
subjetivas que hacemos.
Bernouilli logró demostrar que el valor del dinero no es lo mismo para todos y que dicha valoración
es en proporción a la utilidad que pueden obtener de él.

2.1. Teoría de la utilidad esperada


El concepto de utilidad esperada de Bernoulli fue retomado por Neumann y el economista Oskar
Morgenstern (1944). La teoría de la utilidad esperada de Neumann y Morgenstern ha sido el modelo
estándar de la decisión individual en situaciones de riesgo.
Esta teoría del ámbito de la economía está interesada en “qué” deciden las personas
más que en “cómo” deciden. Su interés se centra en el análisis de la relación entre
aquello que se decide y los valores personales que le han llevado a ella. El resultado del
análisis permite entender los actos de elección como las actitudes que tiene una
persona hacia el riesgo.
Los autores proponen unos axiomas que garantizan la coherencia en el proceso de toma de
decisiones.
Se necesita una escala de preferencias con la que poder evaluar las opciones. La
noción de utilidad es la escala de preferencias con mayor aceptación de los modelos
normativos. Si las preferencias satisfacen estos axiomas existe una función de utilidad
que las representa.
Con esta función se está asumiendo que las metas u objetivos de las personas se
expresan en sus preferencias, buscando resultados acordes con los valores que se
tienen.

Para calcular la utilidad, se asume que los atributos de una opción son independientes y que cada uno
tiene un peso o importancia.
Implica ello que cada uno tiene una utilidad que indica el grado en que esa propiedad contribuye a
alcanzar las metas y objetivos. Las personas conocen su entorno, son capaces de ordenar las
alternativas según el criterio de utilidad y eligen la de mayor utilidad (proceso de maximización). La
decisión óptima será aquella que refleje sus preferencias.

Apuntes de M. Goretti González completados y modificados por Marina Uned


8

Esta teoría presenta las siguientes ventajas:


1) consideración de toda la información disponible sobre las diferentes opciones,
2) comparación entre cualquier par de opciones dado que comparten una misma escala de
preferencias y
3) establecimiento de una estructura de preferencias coherente a partir de la determinación de
utilidad de cada opción.

2.1.1. Los axiomas de la teoría de la utilidad esperada


Esta aproximación ofrece un conjunto de axiomas para poder construir una escala de utilidades en la
que la representación de los valores de las consecuencias se ajuste a una concepción ordinal de la
utilidad.
Los axiomas son principios fundamentales e indemostrables sobre los que se construye
una teoría. Son proposiciones claras y evidentes que se admiten sin demostración
dado que se justifica por sí misma. Pueden no ser evidentes, pero su expresión lógica
se utiliza para la deducción y generación de conceptos.
Nos ayudan a comprender que el criterio de racionalidad incorporado en esta teoría
solo requiere que las personas sean coherentes con la asignación de sus propias
utilidades.
Savage 1954 generalizó la teoría de la utilidad esperada para permitir la inclusión de las
probabilidades subjetivas basadas en las creencias propias u opiniones sobre probabilidad de los
hechos.
Edwards 1954 denomina a esta ampliación “el modelo de la utilidad subjetiva esperada” en un
artículo que fue el primer intento de la psicología por acercarse a este dominio. Sin embargo, no es
habitual hacer una distinción porque los axiomas y teoremas sistematizados de Savage cumplen las
leyes de la teoría de la utilidad esperada y las probabilidades subjetivas que contempla cumplen las
leyes de la probabilidad.
I. Axioma de completitud u ordenamiento completo
A > B; B > A; A ≈ B
Si A y B son alternativas de un conjunto S, entonces siempre es cierto uno y solo de los
siguientes enunciados:
1- A se prefiere a B
2- B se prefiere a A
3- Se prefieren las dos, y por tanto, son indiferentes
Ante un conjunto de alternativas, las personas pueden ordenarlas según las
preferencias. Además, asumiendo que es posible ser indiferente ante dos alternativas
se hace explícito ante dos alternativas donde “no se puede decidir” dejar de decidir.
Las alternativas son comparables y la persona ha de preferir una de ellas o
considerarlas como equivalentes.

Apuntes de M. Goretti González completados y modificados por Marina Uned


9

II. Axioma de transitividad:


Si A > B y B > C, entonces A > C
Si se prefiere A respecto a B, y la alternativa B respecto a C, se deberá preferir A respecto
a C.
Permite relacionar el orden de preferencias entre 2 alternativas a través de una
tercera en común. Este orden debe ser coherente o consistente entre sí.
Ejemplo: Se prefiere piña como postre. El camarero indica que de no haber podría
elegir entre pera o manzana. Si se responde pera, se establece un orden, donde se
prefiere la piña a la pera y ésta a la manzana o bien que se prefiere siempre piña
respecto a la manzana.

III. Axioma de cierre:


Si A y B son alternativas de un conjunto S, entonces ApB también lo son.
Enuncia la capacidad de las personas para conceptualizar las probabilidades asociadas
con las alternativas.

Si A y B son alternativas de un conjunto S, entonces la probabilidad dela alternativa A


(p) y la probabilidad de la alternativa B (p-1) también forman parte de ese conjunto.
En ApB se considera implícita la probabilidad de la alternativa B (1-p) dado su
complementariedad.

IV. Axioma de reductibilidad:


[(ApB)qA´] ≈ (ApqB)]
Este introduce la distribución de probabilidades entre alternativas para poder
descomponer una alternativa compuesta en una simple. Una alternativa compuesta es
aquella en la que alguna de sus consecuencias es también una alternativa.
Las reglas de la probabilidad permiten reducir toda alternativa compuesta a una
simple que sea equivalente.
La P de A por B por A’ (0,15) es equivalente a P de A’ por B (0,15).
Las dos alternativas son equivalentes ya que las consecuencias finales y las P son las
mismas y la diferencia radica en la forma en que se obtienen las consecuencias (una o
dos etapas). Mediante este axioma se expresa que las preferencias dependen sólo del
resultado final y de su P asociada y no del proceso a través del cual se obtiene el
resultado.

Apuntes de M. Goretti González completados y modificados por Marina Uned


10

V. Axioma de independencia:
A > B si y solo si (ApC) > (BpC)
El orden de preferencias entre dos alternativas simples no cambia por la adición de
una nueva alternativa. Si tenemos 2 simples asociadas a una tercera, la preferencia
entre las dos compuestas resultantes es independiente de la tercera alternativa
simple.
Ejemplo: si preferimos piña a pera (A > B) como postre, entonces deberíamos preferir
una alternativa compuesta por piña y naranja (ApC) frente a otra compuesta de pera y
naranja. (BpC)

VI. Axioma de consistencia:


A > B si y solo si A > (ApB) > B
Es básico y nos indica que si la alternativa A se prefiere a B, entonces la A se prefiere
siempre que se presente con cierta probabilidad.
Ejemplo: Si preferimos piña a pera, entonces preferimos cualquier alternativa que
ofrezca posibilidad de obtener piña. Se prefiere piña y pera que pera solo, por escasa
que fuera dicha probabilidad.

Apuntes de M. Goretti González completados y modificados por Marina Uned


11

VII. Axioma de continuidad:


Si A > B > C, entonces existe una probabilidad p tal que B ≈ (ApC)
Este es importante para la construcción de la escala de utilidad porque asume que
habrá un valor entre 0 y 1 que permite que la persona sea indiferente.
Se establece que si A es preferido a B y B es preferido a C, entonces siempre es
posible encontrar una probabilidad P para que la alternativa B sea equivalente a la
combinación de la probabilidad P de A con la probabilidad 1 – p de la alternativa C
(ApC).
Con esto se asegura que no haya una alternativa mejor o peor a las otras y se puede
localizar en la escala la opción B entre A y C.

Cuando se cumplen estos axiomas la función de utilidad establece:

1) x se prefiere a y si y solo si la utilidad de x es mayor o igual a y


2) la utilidad de una alternativa es igual a la utilidad de cada resultado ponderada por su

probabilidad.

A partir de estas dos propiedades se puede construir la curva de la función de utilidad.


I. Aversión al riesgo
Ejemplo:
OPCIÓN A: una ganancia segura de 240 euros
OPCIÓN B: un 25% de probabilidades de ganar 1000 euros y un 75 % de ganar 0 euros.

Si eligen la A, sabemos que han asignado una utilidad


mayor al valor esperado de 240 euros que al valor
esperado de 250 euros. El cálculo es:

En la representación gráfica de esta elección se ubica la utilidad de B en una cantidad del 25 % en el


eje Y. Como A se prefiere, la utilidad de A se ubica en un punto encima de B. En el eje X la cantidad
de euros correspondiente a A y al unir los puntos obtenemos una función cóncava de la utilidad.
Se ilustra la actitud conocida como aversión al riesgo porque describe a aquellas personas que
prefieren una ganancia menos que sea segura.

Apuntes de M. Goretti González completados y modificados por Marina Uned


12

II. Neutralidad ante el riesgo


Si la utilidad esperada fuera proporcional a la cantidad del valor esperado, sería lineal y representaría
una actitud neutral hacia el riesgo.
La utilidad B U(B) sería = U(A).

Apuntes de M. Goretti González completados y modificados por Marina Uned


13

III. Preferencia por el riesgo


También encontramos personas que presentan preferencia por el riesgo al elegir situaciones con
mayor riesgo por una mayor cantidad de dinero que situaciones de menor riesgo y menor cantidad
de dinero.
Ejemplo:
OPCIÓN A: una ganancia segura de 260 euros.
OPCIÓN B: un 25% de probabilidades de ganar 1000 euros y un 75 % de ganar 0 euros.
El cálculo sería:

En la representación gráfica vemos que la utilidad de B se sitúa en una cantidad equivalente al 25 %


del eje Y, pero ahora A es algo mayor que 250 € y su utilidad es menor que la utilidad de B.
La forma de la función es convexa y representa la preferencia por situaciones con mayor riesgo y
ganancia.

Resumen:
La utilidad describe las preferencias de un sujeto y los axiomas imponen las restricciones sobre sus
posibles relaciones, aunque no determinen cuáles son estas transferencias.
Cuando se conoce la utilidad designada a una opción, se puede obtener una función
de utilidad individual y demostrar que esa persona buscará alcanzar su máxima
utilidad subjetiva en la toma de decisiones si las preferencias son coherentes y
consistentes con los axiomas.
Esta teoría proponía que para ser racionales en la toma de decisiones no había falta compartir la
misma función de utilidad, sino que bastaba con ajustarse a los mismos axiomas normativos en esa
búsqueda por alcanzar la máxima utilidad esperada que había sido definida individualmente.

2.2. Objeciones a la teoría de la utilidad esperada


Los axiomas anteriores fueron objeto de críticas entre las que destacan las paradojas de Allais 1953 y
la de Ellsberg de 1961. Indicaban cómo se podían violar algunas de las restricciones impuestas,
cuestionando así el concepto de racionalidad subyacente de la teoría.

Apuntes de M. Goretti González completados y modificados por Marina Uned


14

2.2.1. Paradoja de Allais


La paradoja formulada por Allais se centra en la violación del axioma de independencia.
Este anuncia que el orden de preferencias entre dos alternativas simples no cambia
por la adición de una nueva alternativa.
Si una alternativa A se prefiere a B, entonces cualquier combinación de A y C con una
probabilidad determinada debe ser preferida a otra combinación de B con C con la
misma probabilidad.
Allais describió dos situaciones:
I. Situación primera:

En esta primera la mayoría opta por la alternativa A en la que se gana 1 millón con certeza.
Para hacer el cálculo de la utilidad esperada entre ambas alternativas se considera la
ganancia de 1 millón eliminando la P de la alternativa B y conservando la P restante en
la alternativa A (1 – 0,89=0,11):

Elegir la opción A implica que la utilidad U (A) 0,11 es mayor que la utilidad de la alternativa B U(B)
0,25.

Apuntes de M. Goretti González completados y modificados por Marina Uned


15

II. Segunda situación


La paradoja se plantea cuando se presenta la segunda situación en la que las dos alternativas
comparten una ganancia de 0 euros.

Considerando la ganancia común de 0 euros en C y conservando la probabilidad restante en la


alternativa D (0,90 – 0,89 = 0,01) la situación sería:

La mayoría de las personas prefieren la alternativa D inicialmente.


Implica que U(C) 0,11 es menor que la utilidad de la alternativa D, U (D) 0,25

Savage 1954 hace un análisis de la paradoja de Allais ampliando el axioma de independencia con el
principio denominado aspecto cierto (sure-thing).
Este afirma que si dos alternativas comparten un resultado concreto, la preferencia
será independiente del valor de este resultado común.
Las personas descartan el resultado seguro y basarán su elección en los posibles
resultados diferentes entre alternativas.
Ante la situación primera, la decisión entre A y B se centrará en elegir entre la probabilidad de 0,01
de ganar 1 millón o 0 euros; y la probabilidad de 0,10 entre 1 millón y 2,5 millones.

Apuntes de M. Goretti González completados y modificados por Marina Uned


16

Ante la situación segunda, el aspecto seguro es la ganancia de 0 con P de 0,89. Cuando se descarta el
aspecto cierto entre C y D, sigue siendo la decisión entre 0,01 de ganar 1 millón y 0 euros; y la
probabilidad de 0,10 entre 1 millón y 2,5 millones.

La elección de las alternativas A y D contradice la coherencia del orden de preferencias.


La preferencia es opuesta dependiendo de cómo se presente el problema, lo que
contradice el principio descrito por la tª de la utilidad.
En la primera situación, se prefiere la opción A con ganancia segura menor que en B,
en la que existe una probabilidad aún pequeña de quedarse sin nada.
En la segunda situación, la pequeña diferencia existente entre probabilidades de las
dos alternativas queda compensada por la gran diferencia entre ganancias.
Debe considerarse la relación entre la probabilidad y la ganancia de un resultado y no
sólo el valor absoluto de su producto (como en la Tª de la perspectiva que trataremos)

Apuntes de M. Goretti González completados y modificados por Marina Uned


17

2.2.2. Paradoja de Ellsberg


La segunda paradoja planteada por Ellsberg 1961 se basa en el concepto de ambigüedad.
Se extraen bolas de colores. 90 bolas: 30 rojas, 60 negras y amarillas en proporción desconocida. La
extracción al azar supone ganancia distinta en función del color.
Se presentan dos situaciones:

La mayoría prefiere la opción A en la primera situación y la D en la segunda.


La elección indica la preferencia por ganancias con probabilidades conocidas, evitando la ambigüedad
de la probabilidad de obtener una bola negra o amarilla.
También violan el axioma de independencia.
El aspecto cierto entre todas las alternativas se encuentra en las bolas amarillas. Si descartamos este
resultado comprobamos que la elección entre A y B es la misma que D y C.
Conclusiones:
Por tanto la teoría de la utilidad esperada se ha descartado como modelo normativo válido de la toma
de decisiones.
Se puede considerar que es una guía prescriptiva adecuada o un buen criterio para el hombre
racional, pero no un modelo descriptivo de decisiones. Analiza cómo debería de ser una decisión
correcta, para una correcta planificación, inversión o estrategias políticas, pero no es buena
descripción de las elecciones de las personas en su vida diaria.

Apuntes de M. Goretti González completados y modificados por Marina Uned


18

3. Teorías descriptivas de la decisión


Las personas no asignan probabilidades subjetivas tal y como establecen las leyes estadísticas sino en
base a atajos cognitivos aunque estos lleven a errores. Tampoco se asigna utilidad siguiendo los
axiomas explicados.
Pronto la evidencia empírica y los resultados experimentales mostraron que los axiomas se violaban
repetidamente.
I. Violación axioma de la transitividad
Se expone un ejemplo de que no se cumple el axioma de la transitividad donde A >B y B > C,
entonces se prefiere A sobre C.
Esta violación se da dentro de un entorno cotidiano:
Ejemplo: Estudiante que quiere completar sus estudios y debe elegir entre psicología,
sociología y antropología. Descubriendo que ha de inscribirse rápidamente por pocas
plazas considera inicialmente su preferencia hacia la psicología con mayor calidad de
enseñanza.
Mientras espera piensa que su mayor interés es la sociología y podría obtener
calificación mayor. Parece mejor optar por esta alternativa, pero sigue pensando y
considera que el curso de antropología tiene calidad mayor, con posibilidad de
calificación mejor, por lo que definitivamente opta por esta. Aun así sigue pensando
en su inicial elección...
Esta descripción de la violación de la transitividad en las elecciones, se presenta a
menudo incluso en casos simples como el expuesto.

II. Violación axioma independencia


Slovic y Tversky (1974) también encontraron que los sujetos eran inconsistentes en sus preferencias
ante situaciones de elección semejantes a la conocida paradoja de Allais.

Apuntes de M. Goretti González completados y modificados por Marina Uned


19

Las cantidades de dinero son las mismas en las 2 situaciones, pero las probabilidades
de la situación 2 se han dividido.
Según la utilidad esperada, aquellos que elijan la alternativa A deberían elegir la C, y si
eligen la B, luego debían optar por la D.
Resultados:
La mayoría prefería la A en la situación 1: mostraban aversión al riesgo porque
preferían ganar 30 $ sin riesgos que ganar más con un riesgo de 0,20 de no
ganar nada.
En la segunda situación la mayoría elegían la alternativa D donde mostraban
que preferían ganar 45$ con un riesgo de 0,80 que 30 $ con un riesgo de 0,75,
demostrando lo indicado por Allais (no se cumple el axioma de independencia
de la teoría de la utilidad esperada).
Esto fue denominado el efecto de la certeza porque la reducción de una ganancia segura a una
ganancia con una probabilidad de 0,25 tiene mayor impacto, que la correspondiente reducción de una
P de 0,80 a 0,20.

III. Violación del principio de invarianza


Otros resultados discrepantes con la teoría de la utilidad muestran la violación del principio de
invarianza.
Este es un supuesto básico implícito para la coherencia sustentada por los axiomas.
Establece que la relación entre las preferencias no debe depender de la descripción
de las alternativas (apartado a y b) o del procedimiento utilizado para hacer la
elección (apartado c).

a. Primer estudio de Tversky y Kahneman, 1981 – Efecto del marco (framing effect) en dinero
Se demostró cómo las personas muestran una actitud diferente ante el riesgo según
se presenten los problemas en términos de pérdidas o ganancias.

Apuntes de M. Goretti González completados y modificados por Marina Uned


20

Las dos situaciones plantean una elección entre 400$ seguros o 500 $ y 300 $ con una
probabilidad de 0,50 (según la teoría de la utilidad son idénticos).
Los resultados mostraron que la mayoría elegía la alternativa A en la 1 y la alternativa D
en la 2.
El valor esperado es igual, pero se encuentra que cuando el problema se formula en
términos de ganancias, los sujetos muestran actitud aversiva al riesgo. Y cuando se
presenta en términos de pérdidas, se muestra una preferencia por el riesgo.
Este efecto es conocido como el efecto del marco (framing effect) o de la inversión de
las preferencias sin limitarse a aspectos monetarios.
Es una imagen en espejo de una actitud aversiva al riesgo cuando se trata de
ganancias y preferencia por el riesgo cuando son pérdidas muy persistente y
no limitada a aspectos monetarios.

b. Estudio 2 de Tversky y Kahneman 1981 – Efecto del marco (framing effect) en vidas
En otro estudio de Tversky y Kahneman 1981, se planteaba la elección entre dos
programas sanitarios ante una enfermedad de origen asiático:
Supongamos que se avecina una enfermedad asiática para la que se han
estimado 600 fallecimientos. Se proponen dos programas alternativos:

Los programas A y B tienen el mismo valor esperado (salvar 200 frente a 400) y los C y
D son idénticos a A y B, pero en términos de muertes (400 muertes frente a salvar 200
vidas).
En la 1ª situación la mayoría elegía opción A, mostrando la aversión al riesgo y el
efecto de certeza. En la 2ª situación, la mayoría eligieron el D, mostrando una
preferencia por el riesgo y evitando una pérdida segura.

Apuntes de M. Goretti González completados y modificados por Marina Uned


21

Esto es claro ejemplo de la inversión de las preferencias para las ganancias y las
pérdidas puesto que las dos situaciones son idénticas y de la violación del principio de
invarianza.
Recordemos que las elecciones no deberían cambiar en función de la
descripción de la situación o de la formulación de los problemas, siempre que
contengan la misma información.

c. Estudio de Tversky, Sattah y Slovic 1988


Relacionado también con el principio de invarianza, pero cambiando el procedimiento (en los dos
apartados anteriores se cambió la descripción de las alternativas).
Según este principio las preferencias manifestadas no deberían cambiar si cambia el
método por el cual se obtienen.
La hipótesis era que si los sujetos prefieren una determinada alternativa en una tarea de elección,
entonces también deberían preferir esa misma alternativa cuando en otra tarea se les pide asignarle
un coste.
Alrededor de 600 personas mueren al año por accidente de tráfico. Se
implantarán varios programas para reducir el número. Considerar los dos
programas descritos:

Grupo 1: Se pedía elegir y la mayoría lo hacía hacia el programa X. Preferían salvar 70


vidas que ahorrar 43 millones.
Grupo 2: se le presentaba lo mismo pero sin indicar costo del programa Y, debían
estimar el coste que considerasen necesario para que las dos alternativas fuesen
atractivas por igual.
El coste de Y debería ser menor que en el programa X pues morían más.
Asumiendo que, si se tiene en cuenta solo el coste, será preferible la
alternativa más barata  podemos inferir qué prefieren los sujetos a partir de
la cantidad asignada para igualarlas.
Si establecen el coste superior a 12 millones significa que prefieren el programa
X porque la diferencia entre ambos se reduce.
Si lo establecen menor, prefieren el Y dado que la diferencia se incrementa.
Cuando se pedía este tipo de respuesta se prefería el Y en su mayoría.

Apuntes de M. Goretti González completados y modificados por Marina Uned


22

Los autores explican esta violación por la importancia relativa a los atributos.
Los que son más importantes para la elección (vidas salvadas) pierden peso cuando se
trata de tasar o poner precio.
Las personas mostrarán su apoyo a una iniciativa pública de forma diferente según se
les pregunte en las encuestas por sus preferencias o por su opinión sobre cuantía de
sus costes.

d. Estudio Shafir 1993


También se ha puesto de manifiesto esta violación cuando la decisión de elección de
una alternativa cambia por la decisión de rechazarla.
Según este principio, en una decisión binaria no debería influir la elección o el
rechazo: si A se prefiere a B, entonces se rechazará B frente a A.
Shafir encontró que los atributos positivos son más importantes cuando se “elige” y los
negativos cuando se trata de “rechazar”.
Se pedía a un Grupo 1 de sujetos que tomaran la decisión de concederle la custodia a uno de los dos
progenitores y a un Grupo 2 la decisión de denegarla.

La información del progenitor A es una información media, sin atributos que


destaquen lo positivo o negativo. Sin embargo, en la información sobre el progenitor
B hay una combinación de atributos que sobresalen como positivos y negativos.
La mayoría elegían tanto por otorgarle la custodia como denegársela al B.
Esta discrepancia muestra cómo dos tareas que parecen equivalentes dan lugar a dos
elecciones distintas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


23

Conclusión:
Las personas no atienden únicamente a la utilidad de los componentes de cada alternativa para
decidir:
Prefieren la alternativa cierta cuando se ofrece ganancia y riesgo cuando se trata de
pérdidas de la misma magnitud.
No siguen leyes lógicas de transitividad o independencia.
En ocasiones varían según VV del contexto y la tarea.
Aun cuando parecen ajustarse a la lógica, no significa que traten de maximizar el valor o la utilidad
de las alternativas. Por tanto hay que considerar los aspectos subjetivos o propios de la persona.

3.1. Teoría de la Perspectiva


La teoría de la perspectiva, prospectiva o expectativa de Kahneman y Tversky es una modificación de
la teoría de la utilidad esperada basada en la descripción de las decisiones de los sujetos.
Pretende remediar las deficiencias anteriores.
Introduce dos conceptos nuevos: el valor y el peso de las alternativas.
El valor de una opción es el resultado de la suma del producto del valor asignado a
cada resultado X por el peso otorgado a la probabilidad de obtener X.

El concepto de utilidad se sustituye por el concepto de valor, que se define en términos de ganancias
y pérdidas desde un punto de referencia y no absolutos. La consideración de las alternativas se hace
en función de las variaciones o cambios (ganancias – pérdidas) respecto a un marco o nivel de
referencia.

I. Función del valor


La función del valor tiene forma de “S” y es asimétrica.
Tanto en el ámbito de las ganancias (parte cóncava) como en el de las pérdidas (parte
convexa), el valor que se atribuye a cada nueva unidad es cada vez menor (pierde
pendiente).
Esto explica que en términos de ganancias se prefiera una segura a otra mayor pero
solo probable (aversión al riesgo) y que en términos de pérdidas se prefiera asumir el
riesgo de una pérdida mayor en lugar de evitar la pérdida menor pero segura.

Apuntes de M. Goretti González completados y modificados por Marina Uned


24

En el origen de las coordenadas, la pendiente en el tramo de las pérdidas es mayor que


en el tramo de las ganancias.
Esta asimetría explica los resultados que mostraban mayor sensibilidad al grado
de desviación de un resultado con respecto a un punto de referencia que al
resultado por sí solo (dada la misma variación absoluta, se observó mayor
impacto en el ámbito de las pérdidas que en el de las ganancias).

II. Tratamiento de las P de las alternativas


La Tª de la perspectiva considera que tomamos decisiones ponderando por el peso decisorio (no las
probabilidades objetivas).

Los pesos decisorios guardan una relación no lineal


con probabilidades objetivas: los pesos son mayores
cuando las probabilidades son bajas
(sobreestimación), pierden pendiente y son menores
en los tramos centrales de las probabilidades
(subestimación) y se recuperan cuando estas son altas
(efecto de certeza).

Apuntes de M. Goretti González completados y modificados por Marina Uned


25

Resumen (puntos I y II):


I. Las aportaciones principales señalan que la función del valor subjetivo es cóncava para
ganancias y convexa para las pérdidas y su inclinación es mayor cerca del punto de
referencia (sensibilidad a ganancias o pérdidas en mayor en la primera unidad +10 y -10).
A partir de este punto la inclinación es mayor en el ámbito de las pérdidas que en el de
las ganancias y esta inclinación describe el mayor impacto negativo que tiene una pérdida
frente al impacto positivo de una ganancia de igual valor.

II. Además, la teoría hace un tratamiento distinto a las P asignadas a los resultados. Se
postula que se subestiman las probabilidades moderadas y altas, y se sobreestiman las
probabilidades pequeñas y la certeza.

III. Patrón de las actitudes hacia el riesgo


En la siguiente tabla se puede ver el patrón habitual de las actitudes encontrado hacia el riesgo.
Como se observa, la aversión al riesgo ocurre en el ámbito de las ganancias cuando las P son altas y en
el ámbito de las pérdidas cuando son bajas. La preferencia por el riesgo ocurre en las pérdidas cuando
las P son altas y en las ganancias cuando son bajas.
Como el valor de las ganancias y pérdidas se define desde un punto de referencia, las variaciones en
el marco o contexto de la situación inducen a variaciones en dicho punto de referencia. Se explica así
por qué cuando se cambia el contexto de la situación, de ganancias a pérdidas o viceversa, hay un
cambio de preferencias.

IV. Fases en el proceso de elección


La teoría de la perspectiva propone la existencia de dos fases: “edición”, una revisión preliminar de
las alternativas para obtener una representación más sencilla, y “evaluación” que da lugar a la
elección de la alternativa que haya obtenido el valor más alto.

Apuntes de M. Goretti González completados y modificados por Marina Uned


26

a. Fase de edición
El objetivo es organizar y reformular las alternativas para simplificar los siguientes procesos de
evaluación y elección. Se pueden aplicar varias operaciones que transforman los resultados y las P
asociadas con las alternativas ofrecidas:

1) Codificación de los resultados en pérdidas y ganancias.


Estos se definen en relación a un punto de referencia. Si corresponde con el estado
planteado por el problema, las ganancias y pérdidas coinciden con las cantidades.
Pero este punto de referencia puede cambiar por la formulación del problema o
expectativas de la persona.

2) Combinación de las probabilidades asociadas a resultados idénticos.


Permite simplificar el conjunto de alternativas.
Ejemplo: 200 euros con P de 0,25 más otros 200 euros con P de 0,25, puede reducirse
a 200 euros con P de 0,50.

3) Segregación de los componentes ciertos de los componentes con riesgo.


Ejemplo: Una alternativa de 300 euros con P de 0,80 y 200 euros con P de 0,20 se
puede descomponer en una ganancia segura de 200 euros y una ganancia de 100
euros con P de 0,80.

4) Cancelación de los componentes compartidos por todas las alternativas.


La opción común se cancela.
Ejemplo: La elección entre 200 € con P 0,20, 100 € con P 0,5 y -50 con P 0,3 frente a
200 € con P 0,2, 150 con P 0,5 y -100 con P 0,3, se puede reducir por cancelación a
100€ con 0,50 y -50 con 0,3 frente a 150 € con 0,5 y -100 con 0,3.

5) Simplificación por el redondeo o por eliminación de las alternativas muy poco


probables.
Ejemplo: 101 euros con P de 0,49 euros se pueden considerar como 100 con P de 0,50

Una vez editadas las alternativas se pasa a la fase de “evaluación.

Apuntes de M. Goretti González completados y modificados por Marina Uned


27

b. Fase de evaluación
Comprende la función del valor subjetivo y la función de la probabilidad ponderada de obtener un
resultado.
Las estimaciones del valor de una alternativa son cambios en riqueza o bienestar y no
en estados finales (como los procesos sensoriales evalúan cambios o diferencias en
lugar de magnitudes absolutas).
El valor es tratado como una función con dos aspectos: una posición inicial que sirve
de punto de referencia y la magnitud del cambio desde ese punto de referencia.
La teoría se basa en una ecuación básica que describe la forma en la que se combinan
la probabilidad y el valor subjetivo para determinar el valor global de las alternativas.

Puede aplicarse a elecciones que implican otros atributos como calidad de vida,... siempre que los
resultados se codifiquen como ganancias o pérdidas en relación a un punto de referencia.

3.2. Teoría Portafolio


Otros enfoques describen de forma más sencilla y natural el proceso de elección entre alternativas
centrados en la relación entre el valor esperado y el riesgo.
Consideran dos aspectos fundamentales en una situación de decisión:
- La promesa de ganancia potencial de cierta cantidad,
- El riesgo como posibilidad de sufrir una pérdida.
Coombs centra su interés en analizar el riesgo y su relación con el valor esperado, señalando que
cuando tomamos decisiones bajo riesgo adoptamos compromiso entre maximizar el valor esperado y
optimizar el riesgo.
Sostiene que las personas tenemos niveles de riesgo diferente y que cada una
elegiríamos la alternativa que más se aproxime a nuestro nivel de riesgo ideal (no
siempre se busca minimizar el riesgo).
Su teoría Portafolio incluye el riesgo percibido de cada alternativa como determinante de la elección
de las personas.
Éste es función de la probabilidad de perder y también de la cuantía de esa pérdida.
La preferencia es función del valor esperado y del riesgo percicibido.
Para cada nivel del valor esperado existe también un nivel de riesgo óptimo. Se
denomina riesgo ideal y es un nivel particular donde la persona elige la alternativa A
frente a B poniendo de manifiesto que A se encuentra más cercana al riesgo ideal que
B.

Apuntes de M. Goretti González completados y modificados por Marina Uned


28

Cuando presentan el mismo valor esperado la elección será función únicamente del riesgo.
Si se quiere incrementar el riesgo manteniendo constante el valor esperado, entonces
habrá que aumentar también la probabilidad y la cuantía de las ganancias (las pérdidas
de la alternativa más arriesgada deben compensarse con ganancias mayores).
Ahora bien, cada persona tiene un nivel de riesgo ante un mismo valor esperado y la
elección estará determinada por la alternativa que permita alcanzar el nivel de riesgo
a asumir.

I. Resultados experimentales Coombs y Huang 1970


Los resultados experimentales de Coombs y Huang 1970 confirmaron que los sujetos elegían la
alternativa con el mayor valor esperado cuando la diferencia entre los diferentes niveles de riesgos y el
riesgo ideal era la misma.
Encontraron que este nivel de riesgo ideal y persona no era el mínimo nivel de riesgo posible.
Estas diferencias individuales no deberían considerarse como rasgo de personalidad estable sino
como las diferencias que se muestran en su percepción de los riesgos y de los beneficios de una
situación determinada en un momento concreto. P
Ejemplo: los estudiantes de países occidentales daban mayor peso a las probabilidades
de las ganancias y la percepción del riesgo disminuía a medida que mejoraban los
resultados en el juego.
Mientras que los estudiantes orientales concedían mayor peso en la magnitud de las
pérdidas y la influencia de los resultados positivos era mucho menor en su percepción
del riesgo.
Como Figner y Weber 2011 señalan, la asunción de riesgos en la toma de decisiones depende de
factores que se agrupan en términos como quién, dónde y las diferentes interacciones entre ambos
(los diferentes quienes reaccionan diferente ante los dóndes).

Apuntes de M. Goretti González completados y modificados por Marina Uned


29

II. Umbral de aceptación


El líneas generales, cada individuo tiene un nivel óptimo de tensión entre la ganancia que desea
obtener y la presión de riesgo que puede soportar. Según Coombs y Huang – 1970 nivel de tensión
entre codicia y el miedo.
Existe un umbral de aceptación de la alternativa en ambas dimensiones donde no se
elegirá una alternativa cuya ganancia sea menor que su umbral de ganancias, ni aquella
cuyo riesgo sobrepasa el umbral de riesgo establecido.
Para ser aceptable, la alternativa no debe violar ninguno de los dos umbrales.

Este tipo de regla de decisión entra dentro de las llamadas estrategias de decisión no compensatorias
ya que ninguno de los dos criterios puede contrarrestar al otro: un riesgo alto no compensa una gran
ganancia y un riesgo muy pequeño tampoco compensaría una ganancia pequeña.

4. Los heurísticos para la elección entre alternativas

4.1. Aspectos básicos del enfoque del procesamiento de la información


El enfoque del PI se apoya en el concepto de “racionalidad restringida” propuesto por Simon 1983 al
asumir que las limitaciones cognitivas conducen a la elaboración de modelos simplificados de los
problemas y a tomar decisiones que sean coherentes con dichos modelos.
Al simplificar la tarea de elección, se sustituye el principio de maximización por el
principio de satisfacción.
Bajo este principio, las alternativas se clasifican como satisfactorias o no según
cada uno de los atributos más relevantes y se seleccionan aquellas que
satisfagan un determinado nivel de aspiración o valor de referencia.
Ejemplo: una persona que se plantea comprar una vivienda y tiene mucha
información sobre el mercado inmobiliario, no tiene recursos de procesamiento
suficientes como para poder maximizar su utilidad esperada. Para tomar la decisión,
tendrá que seleccionar previamente un conjunto limitado de casas para luego
compararlas hasta elegir aquella que mejor alcance su nivel de aspiración.
Este enfoque trata de sustituir el concepto de una persona racional que cuenta con toda la
información, con preferencias estables y una capacidad de cómputo ilimitada por el concepto de una
personal racional, pero con limitaciones en el procesamiento de la información, tales como capacidad
de memoria limitada, recursos atencionales escasos,...
Se debe además reflejar la intersección entre estas limitaciones y las demandas impuestas por los
diferentes ambientes en los que se toma una decisión.

Apuntes de M. Goretti González completados y modificados por Marina Uned


30

Este enfoque contempla el hecho de que lo que cada persona evalúe como satisfactorio pueda
cambiar con el tiempo y la experiencia a medida que el nivel de aspiración cambie.

I. Estrategias y heurísticos
El objetivo del enfoque consiste en describir los distintos procedimientos mediante los cuales las
personas toman sus decisiones.
Se requieren procedimientos heurísticos sencillos que permitan seleccionar y procesar.
Se sustituye el principio de maximización por el de satisfacción.
Ahora la elección no se basa en un análisis exhaustivo de todas las alternativas hasta
encontrar la óptima sino la satisfactoria.

Payne, Bettman y Johnson 92, señalan que las personas tienen más de una estrategia de elección y
éstas pueden ser en algunas ocasiones deliberadas, otras veces el resultado de aprendizajes previos
y en otras pueden ser intuitivas.
El análisis de costes y beneficios explica la interacción entre los recursos de
procesamiento limitado y las demandas de las tareas y contextos.
Esta interacción ocasiona que el conjunto de estrategias para la elección comprenda un
abanico amplio de heurísticos, desde los rápidos y apropiados para las decisiones bajo
presión de tiempo y poca capacidad de cómputo, hasta los de procesamiento
secuencial lento y apropiado para decisiones más complejas y deliberadas.

II. Metodología
La metodología utilizada tiene como objetivo identificar el proceso para luego describirlo:
Los métodos para el rastreo del proceso tratan de observar la estrategia empleada
mediante el análisis de los protocolos verbales, el análisis de los movimientos oculares,
la monitorización de la búsqueda de información y el análisis de la actividad cerebral
por RMF.

En otros casos, se infiere en estudios en los que se presentan pares de alternativas (X,
Y) y si se elige uno u otro se inferirá que se utiliza una regla u otra.
Se trata de cubrir dos objetivos: descubrir qué estrategias y qué reglas empleamos; y qué rasgos de la
tarea y del contexto determinan la selección y uso de estas estrategias.

4.2. Criterios de elección bajo incertidumbre

Apuntes de M. Goretti González completados y modificados por Marina Uned


31

Las situaciones de incertidumbre (se desconocen las probabilidades aunque se pueden estimar) son
las que mejor se ajustan a la toma de decisiones de la vida cotidiana y las situaciones de riesgo
caracterizan mejor la toma de decisiones en los juegos de azar y en los ámbitos profesionales.
Se va a estudiar algunas de las estrategias o criterios descriptivos básicos que adoptan las personas
cuando tienen que decidir entre varias alternativas con múltiples consecuencias o atributos sin
conocer la P de ocurrencia.
Estos criterios de elección son conocidos como reglas de decisión, heurísticos de elección, estrategias
de decisión y estrategias de PI.

4.2.1. Criterios de elección entre alternativas

I. CRITERIO ADITIVO LINEAL


Se ajusta al modelo normativo de la utilidad esperada.
Se asigna a los atributos una ponderación por importancia para luego multiplicarlos por el valor
determinado de ese atributo.
Ejemplo: en la compra de la casa asignamos un 9 (0-10) al atributo precio, un valor 5 a
la distancia al trabajo, etc.
A continuación se analizará cada alternativa asignándole una ponderación al valor
concreto del atributo. A una vivienda con precio medio asignamos un 5, y se multiplica
por 9 (45)
Se suma el resultado obtenido en c/u de los atributos para cada alternativa y se elige
la de mayor puntuación.
La estrategia maneja toda la información disponible y es una estrategia compensatoria porque la
alternativa que tenga puntuación baja en un atributo puede compensarse con otra alta en otro.
Se puede utilizar aunque requiere mucho esfuerzo y tiempo cuando hay un conjunto amplio de
alternativas.

II. CRITERIO DE LA “RAZÓN INSUFICIENTE” DEL LAPLACE


Se intenta paliar la poca información en situaciones bajo incertidumbre para hacer estimaciones
según modelo normativo.
Se desconoce la probabilidad de resultados y se asume su equiprobabilidad. La probabilidad de todos
los resultados (n) es la misma (1/n) y una vez calculado se elige la alternativa con mayor utilidad
esperada.

III. CRITERIO DE DOMINANCIA

Apuntes de M. Goretti González completados y modificados por Marina Uned


32

Criterio coherente con modelo normativo, pero sólo para aquellas decisiones en las que exista la
mejor o peor alternativa.
Estrategia sencilla en la que se exploran todas para encontrar la mejor y elegirla o la peor y eliminarla.
Generalmente resulta difícil encontrar una alternativa que supere a todas en todo, pero es un criterio
útil para un análisis preliminar con el fin de discriminar las más débiles (dominadas) y reducir el
número de ellas a considerar.

IV. CRITERIO “EL MÁXIMO DE LOS MÁXIMOS” (MAXIMAX)


Se conoce como el enfoque optimista.
Consiste en elegir aquella que presenta el mejor resultado considerando que éste ocurrirá (máximo de
los máximos).
Si son utilidades, se elige la de mayor utilidad y si son costes, la que presente el coste más bajo.

V. CRITERIO “EL MÁXIMO DE LOS MÍNIMOS” (MAXIMÍN)


Enfoque pesimista o conservador.
Se comparan los peores resultados de c/alternativa y se elige el que ofrezca el mejor de los peores
resultados (máximos de los mínimos). Se toma pensando que el peor ocurrirá y pretende asegurar
una ganancia mínima con el menor perjuicio.
Si son utilidades, se escoge el valor mínimo para cada una y se selecciona el máximo. Si costes, se
selecciona el máximo valor y se selecciona el mínimo.

VI. CRITERIO DE HURWICZ


Como no todos somos optimistas ni pesimistas, Hurwicz describió el comportamiento intermedio
como la suma ponderada de los extremos: H = alfa (peor resultado) + 1 – alfa (mejor resultado).
Se estima la probabilidad subjetiva del peor resultado y la subjetiva del mejor. La elección de este
valor alfa estará entre 0 y 1 donde el grado máximo de pesimismo será 1 (maximín), y 0 sería el de
máximo optimista (maximax).
La P subjetiva estimada se multiplica por sus utilidades respectivas y su suma suaviza los extremos.

VII. CRITERIO DE LA PÉRDIDA DE OPORTUNIDAD DE SAVAGE (MINIMAX)

Apuntes de M. Goretti González completados y modificados por Marina Uned


33

Se conoce como el del arrepentimiento porque considera que las personas también lamentan no
haber escogido una alternativa. Se busca reducir el arrepentimiento al mínimo.
Se elige el mejor resultado de cada alternativa y se sustituye por cero (0). Éste representa que no hay
arrepentimiento.
Luego se encuentra la diferencia entre el resultado óptimo y los demás resultados. Esta diferencia
representa la pérdida de oportunidad o arrepentimiento por no haber escogido la alternativa que
diera el mejor resultado.
Cada alternativa tiene un resultado con un máximo arrepentimiento y un mínimo y se elige la que
presente el mínimo arrepentimiento.

VIII. CRITERIO DE SATISFACCIÓN CONJUNTIVA


Es semejante al general de satisfacción de Simon.
Se establece una línea de corte o umbral para c/u de los atributos y se elige la que alcance este nivel
de satisfacción en TODOS los atributos.
Se utiliza en el análisis preliminar de un conjunto amplio de alternativas con el fin de seleccionar el
subconjunto de las mejores o como criterio general para elegir la alternativa satisfactoria.

IX. CRITERIO DE SATISFACCIÓN DISYUNTIVA


Semejante al anterior pero se eligen las alternativas que alcancen el nivel de umbral de satisfacción en
CUALQUIERA de los atributos, no en todos (subconjunto de alternativas destacada en al menos un
atributo).

X. CRITERIO DE RECONOCIMIENTO
Existe tan poca información sobre las alternativas que eligen la que reconocen o que les resulta
familiar.
Forma parte de las estrategias heurísticas “rápidas y frugales” (requieren poco esfuerzo en recursos y
tiempo).

4.2.2 Criterios de elección entre atributos de las alternativas

Apuntes de M. Goretti González completados y modificados por Marina Uned


34

Criterios para la elección intraalternativas en los que se consideran los resultados o atributos de cada
alternativa antes de analizar la siguiente. Comparan el valor de cada una de las consecuencias o
atributos de todas las alternativas:

I. CRITERIO DE LA DIFERENCIA ADITIVA


Se ajusta al modelo normativo.
Va comparando cada uno de los atributos en un par de alternativas
Primero se asignan todos los valores a los atributos ponderados por su importancia y se compara un
par de alternativas, luego se suman las diferencias entre ellos y se elige la alternativa superior.
Posteriormente se compara ésta con otra y se vuelve a proceder hasta que solo quede una.
Toma toda la información disponible y es compensatorio.

II. CRITERIO LEXICOGRÁFICO


Se determina primero cuál es el atributo más importante y luego se elige la alternativa que presente
el valor más alto en dicho atributo.
Se denomina lexicográfico porque los atributos se ordenan en función de la importancia de forma
análoga a cómo están ordenadas alfabéticamente las palabras en un diccionario.
Es de los criterios más comunes y el orden en que se consideran los atributos ejerce un efecto
importante.

III. CRITERIO DE LA ELIMINACIÓN POR ASPECTOS


Similar al anterior, pero establece líneas de corte para el valor de cada atributo.
Se empieza por determinar el más importante y su nivel de satisfacción y se eliminan todas las
alternativas que no llegan a él. Se continúa con el siguiente sucesivamente.
Ejemplo: Elegir restaurante cerca de casa.
Podemos elegir como primer atributo que tenga cocina tradicional y como línea de
corte, que tenga buen pescado.
La línea de corte eliminará cualquier restaurante que no cocine pescado.
El segundo atributo puede ser el rango de los precios, eliminando los que tengan
precios más altos que los aceptables. Otro el tipo de local que nos guste y así hasta
que nos quede solo una opción...

IV. CRITERIO DE LA RAZÓN ÚNICA

Apuntes de M. Goretti González completados y modificados por Marina Uned


35

La decisión se toma basándose en un único atributo y forma parte de los heurísticos “rápidos y
frugales”.
Similar al lexicográfico, pero con dos heurísticos de búsqueda para la selección del primer atributo:
El heurístico “escoge el mejor” lo escoge por la validez que haya tenido en experiencias
anteriores para la discriminación entre buenas y malas y los ordena de mayor a menor
validez.
El heurístico “minimalista” realiza la comparación entre atributos de forma aleatoria
hasta encontrar la alternativa con el atributo de mayor validez.

Los criterios de decisión vistos también se clasifican como estrategias compensatorias, dado que una
puntuación alta en uno compensa la baja en otro, y estrategias no compensatorias porque no se
permiten intercambios entre las puntuaciones de atributos.
Las reglas lexicográficas, por ejemplo, no son compensatorias porque la fuerza de una
dimensión no puede compensar la debilidad de otras.
Las reglas compensatorias son más completas porque tienen en cuenta todos los
atributos y las posibles relaciones entre los mismos, como al adquirir una vivienda en
la que un precio alto puede compensarse por la cercanía al puesto de trabajo.
Sin embargo, estas compensatorias y coherentes con el modelo normativo son
costosas cognitivamente y poco viables para decisiones con muchas alternativas
multiatributo.

Apuntes de M. Goretti González completados y modificados por Marina Uned


36

Elegir una u otra estrategias dependerá de:


a. el análisis de la relación entre el coste de optimizar el proceso y el beneficio de
simplificarlo;
b. de factores contextuales y del entorno de la tarea;
c. de la representación del problema.
Algunas variables como la presión del tiempo, información distractora, dificultad de la tarea influyen
en el uso de la estrategia y por tanto en las distintas respuestas.
En diferentes investigaciones, se ha incrementado la dificultad de la tarea
aumentando el nº de alternativas o atributos, presentando información irrelevante o
atributos poco compatibles, o con presión temporal.
Se observa que, en general, las personas modifican la estrategia empleada cambiando
a más simples centradas en los datos negativos que permiten la eliminación de ciertas
alternativas.
Se observa con mayor frecuencia el proceso de cadenas de estrategias o reglas, de
forma que primero se usan las que permitan descartar y luego se evalúa más
detalladamente. Parecen útiles en diferentes contextos, pero no se puede olvidar que
el descarte inicial puede llevar a despreciar alternativas atractivas.

5. Algunos aspectos colaterales de la toma de decisiones

I. Justificación de la respuesta emitida


Uno de los aspectos que acompañan a la toma de decisiones es la necesidad de justificación de la
respuesta emitida.
Cuando se elige entre dos alternativas que ya se habían igualado anteriormente, se observó que
generalmente se elige sistemáticamente aquella que mostraba un valor mayor en el atributo más
importante. La explicación es que esta alternativa es más fácil de justificar, ya que es más deseable
decir “esta alternativa salva más vidas” que afirmar “me era indiferente y he elegido al azar”.

Apuntes de M. Goretti González completados y modificados por Marina Uned


37

Según Shafir, Simonson y Tversky el análisis de las razones por las cuales se toma una decisión permite
una mejor aproximación a los aspectos psicológicos de este proceso y puede arrojar luz a la
inconsistencia de los modelos normativos.

II. Reducir la disonancia cognitiva


Esta necesidad de justificar está relacionada con el fenómeno estudiado por Festinger 1964 sobre la
necesidad de reducir la disonancia cognitiva.
Las personas suelen estar satisfechas de sus decisiones, por un lado porque no conocen el resultado
obtenido en caso de haber elegido otras alternativas, y por otro, la tendencia a eliminar la
disonancia.
Desde una perspectiva teórica más comprensiva, Svenson 1996 considera que la toma de decisiones
es en gran medida el arte de resolver conflictos por medio de la reconciliación o negación entre metas
contradictorias, siendo esta resolución además dependiente del problema, el contexto y las
diferencias individuales.

III. Proceso dinámico


Se ha de tener en cuenta que la decisión no es un proceso estático, sino que debe reconsiderarse
repetidamente a medida que surgen otros elementos o varían las condiciones.
En realidad las decisiones de las personas no pueden ser invariantes, ya que nuestros valores o
utilidades son inestables, muchas veces por desconocimiento (situaciones nuevas y complejas).
También es necesario tener en cuenta el conocimiento de la persona experta frente a la ingenua.

IV. Roles vitales


Además cada uno lleva a cabo varios roles en la vida y cada uno de éstos determina una perspectiva
diferente que variará la utilidad para cada dimensión.

V. Estado anímico
El momento en que nos encontramos también determina la decisión. El estado anímico dará lugar a
juicios más positivos o negativos, modificando las decisiones. El positivo dará lugar a búsqueda de
alternativas variadas y a la sobrevaloración de la ocurrencia de estados favorables, y a la inversa.

Apuntes de M. Goretti González completados y modificados por Marina Uned


38

VI. Emociones
A veces las decisiones están “cargadas” emocionalmente.
Algunas personas no pueden considerar detalles monetarios a la posibilidad de salvar vidas o
salvaguardar el medio ambiente. Tetlock las considera como compensaciones tabú (resistencia en
enfrentar lo sagrado y lo profano).
Ante esta carga emocional pueden negarse a decidir, dejar que otros lo hagan por
ellos, optar por alternativa que mantenga el estatus quo o que puede justificar
fácilmente ante ellos y los demás.
En estos casos, las estrategias de elección no compensatorias podrían
utilizarse para evitar sacrificar un atributo importante.
También se podría intentar abordar el tema con esfuerzo de recursos y tiempo
ponderando aspectos emocionales como importantes.

Payne y Bettman, 2004, señalan que las ventajas y desventajas de las decisiones, se encuentran
directamente relacionadas con los objetivos: 1. maximizar la precisión de la decisión; 2. minimizar el
esfuerzo cognitivo; 3. minimizar el impacto de las emociones negativas durante el proceso y una vez
tomada, 4. maximizar la facilidad con la que se pueda justificar la decisión.

Apuntes de M. Goretti González completados y modificados por Marina Uned


1

Tema 8 Solución de problemas

1. Introducción
La solución de problemas hace referencia a una de las manifestaciones del pensamiento más
extendidas y con un rango muy amplio de aplicaciones. Impregna todo aquello que se encuentra
relacionado con nuestra actividad cotidiana. Esta capacidad nuestra forma parte de nuestro
repertorio de procesos cognitivos básicos en distintos dominios de conocimiento, estando implicados
procesos básicos como, percepción, memoria, categorización, razonamiento, lenguaje,
aprendizaje,... y como capacidad general de la naturaleza humana se encuentra asociada a la
inteligencia y la creatividad.

La solución de problemas comprende cualquier situación en la que se tiene una meta y se desconoce
cómo poder alcanzarla. Las personas intentaremos con mayor o menor éxito alcanzar el objetivo.
Para abordar el estudio de este proceso de solución hace falta partir del análisis de al
menos 4 componentes:
1) estado inicial de conocimientos,
2) estado meta que se quiere conseguir,
3) los procedimientos, acciones u operaciones que se pueden utilizar para ello, y
4) las limitaciones directas e indirectas impuestas por el contexto.

Cuando nos enfrentamos a un problema partimos de un estado inicial, tenemos un estado meta al
que queremos llegar y unas imposiciones que se deben respetar para alcanzar la meta.
Ejemplo: tenemos un problema si se presentan inesperadamente unos familiares, la
despensa está vacía y no tenemos presupuesto como para salir al restaurante. El
estado inicial será no tener cena, prepararla sería el estado meta y la imposición es
hacerlo con lo que encontremos en la despensa.
Por solución se entiende el procedimiento que se ha empleado para alcanzar la meta, aunque sería
más adecuado utilizar el término solución para denotar el producto final del proceso (estado meta) y
el término resolución para hacer referencia al procedimiento.

Apuntes de M. Goretti González completados y modificados por Marina Uned


2

2. El legado de la psicología de la Gestalt

I. Historia
Durante la primera mitad del siglo XX, la psicología de la Gestalt ofreció alternativa a la psicología
experimental iniciada por Wundt (1911) y al conductismo norteamericano de Watson. Este enfoque
era contrario al método analítico de Wundt ya que defendía que la totalidad no podía entenderse
como la mera suma de sus partes constituyentes, sino en términos de sus interrelaciones en dicha
totalidad de la que forman parte.
Wundt desautorizada la utilización del método introspectivo (procedimientos rigurosos
de esos años con los que contaba la psicología del momento). Su argumento se
basaba en las interferencias y sesgos potenciales producidos por el propio análisis
introspectivo del pensamiento.
La Gestalt se centra en el uso de protocolos verbales que pudieran exteriorizar el
pensamiento pero libres de interferencias y sesgos.

Frente al enfoque asociacionista (conductismo) que explicaba la solución de problemas como una
conducta observable basada en el número y fuerza de las conexiones estímulo-respuesta, la Gestalt
se interesó por la obtención de soluciones ante situaciones no conocidas.
Según el conductista, el sujeto intentaría resolver recurriendo a sus conocimientos o
experiencias previas en las que hubiera obtenidos buenos resultados. Contaría con un
conjunto de recursos (asociaciones estímulo-respuesta), para afrontar nuevas
situaciones y de no existir éstas, procedería por ensayo-error.
Al contrario, la Gestalt defendía que el aspecto esencial del proceso era la
transformación o reorganización súbita de los aspectos críticos del problema. Esta
reorganización daba lugar a una nueva concepción de la estructura del problema,
permitiendo encontrar su solución.

A continuación se van a exponer algunas concepciones del enfoque de la Gestalt importantes en las
actuales investigaciones en ciencia cognitiva.
II. Gestalt
“Gestalt” es término que se traduce como configuración, estructura, forma o patrón, pero ninguno
transmite el carácter dinámico del concepto alemán.
Significa totalidad integrada y articulada en la que la naturaleza, el lugar, el papel y la función de cada
una de sus partes son lo que son precisamente por la propia naturaleza de la totalidad (Wertheimer).

Apuntes de M. Goretti González completados y modificados por Marina Uned


3

El autor lo explicaba como la pompa de jabón: donde el grosor de la textura jabonosa


debía ser uniforme en toda la estructura, en interacción dinámica ellas entre y con la
propia totalidad, de tal forma que pinchada, se presentaba el cambio en la estructura
de la misma.
Esta determinación relacional permite que la misma parte o elemento pueda desempeñar funciones
diferentes en otras totalidades también distintas.

III. Concepto de organización y reorganización


Según el principio de pregnancia, en las totalidades, existe una organización inherente caracterizada
por ser la más simple y la mejor organización posible con coherencia y sentido.
Sin embargo, en el proceso de solución de problemas se parte de situación opaca, confusa y sin
sentido. Por medio de la reorganización se podrá alcanzar una mejor comprensión de la naturaleza
del problema, el reconocimiento de los aspectos centrales, la desatención de los irrelevantes y
encontrar una solución coherente.
Ejemplo: en el problema de los nueve puntos se aprecia tanto la organización y la
reorganización

En la formulación del problema de los nueve


puntos se pide conectar todos los puntos con
cuatro líneas o menos sin levantar el lápiz del
papel.
Resulta difícil por el principio de pregnancia,
que impone la organización de los nueve
puntos en un cuadrado como la forma más
coherente y sencilla.
Las personas asumimos que las líneas deben
dibujarse dentro de esos límites imaginarios
haciendo su resolución imposible.
Cuando se logra romper esta organización, se
puede reorganizar diferente.

Apuntes de M. Goretti González completados y modificados por Marina Uned


4

IV. Pensamiento productivo y reproductivo


En 1945, Wertheimer distingue entre pensamiento reproductivo y productivo.
El reproductivo es un proceso automático que aplica ciegamente los conocimientos y
procedimientos aprendidos.
El pensamiento reproductivo se aplica mecánicamente y puede llegar a ser
incluso obstáculo para el descubrimiento de una estrategia de solución mejor y
más simple del mismo problema.
El pensamiento productivo es un proceso dinámico que avanza constantemente hasta
conseguir aprehender la raíz de la situación planteada en el problema.
Por medio del productivo se reorganizan aspectos esenciales de la situación y
se puede diferenciar lo relevante de lo irrelevante.
Se identifica con la experiencia fenomenológica del “¡ah, ya lo tengo!”,
denominada Insight o comprensión súbita, que hace referencia al paso de ese
estado inicial confuso a otro en el que se obtiene una comprensión de la
naturaleza del problema y su posible solución.

V. Fijación funcional
Dunker 1945 discípulo del anterior, publicó uno de los estudios más completo sobre la solución de
problemas como proceso de reestructuración en tareas en las que los sujetos no tenían experiencia.
Durante la realización de la tarea se pedía a los sujetos que pensaran en voz alta
mientras resolvían el problema con el fin de analizar cómo los sujetos progresaban
hacia la solución.
El análisis de estos protocolos verbales mostró que las soluciones se desarrollaban por
medio de las inferencias establecidas entre una representación mental del problema y
la generación y evaluación de un conjunto de soluciones posibles.
Si no lograba alcanzar una solución novedosa por reestructuración, era porque se
había quedado estancado en asociaciones y experiencias pasadas.

El término fijación funcional fue utilizado para describir esta adherencia a procedimientos u
organizaciones anteriores que impiden o bloquean una nueva reorganización de la situación.
Es el contrario de insight.
Hace referencia al bloqueo mental que impide darle una nueva función a un objeto ya conocido. La
experiencia o el aprendizaje previo interfieren en la reorganización necesaria para resolver el
problema nuevo.

Apuntes de M. Goretti González completados y modificados por Marina Uned


5

Estudio: En el “problema de las cajas” de Dunker se presentaba una vela, una caja de
cerillas y chinchetas y se pedía a los sujetos que fijaran la vela encendida en un tablón.
Era un problema que no resultaba nada fácil resolver.
La solución surge cuando se cambia la función contenedora de la caja de cerillas por la
función de soporte que puede fijarse al tablón con las chinchetas.
El uso habitual de la cajita genera fijación funcional, bloqueando las posibles utilidades
distintas.

Luchins 1942 demostró cómo la aplicación repetitiva del mismo procedimiento para resolver un
problema puede bloquear la aplicación de otros procedimientos alternativos y más eficaces.
Estudio: Utilizó el problema de las jarras de agua y la tarea de los sujetos consistía en
obtener una cantidad determinada de agua utilizando para ello tres jarras con
diferentes medidas.
Si había que obtener 46 litros de agua, se presentaban 3 jarras con capacidades de 58,
6 y 100 litros: se llenaba el de 58 y se vaciaba dos veces en la de 6.
Se presentaron primero los problemas que se resolvían por la aplicación de: jarra B –
jarra A – 2 jarras C. Este conjunto de problemas recibió el nombre de einstellung
(actitud) para denotar esa disposición hacia la utilización de procederes conocidos.
Después de esta primera tarea, se presentaba otro grupo de problemas denominados
críticos porque podían ser resueltos por otro procedimiento más rápido.
En la condición de control, los sujetos sólo tenían que resolver los problemas críticos y
en la experimental einstellung y críticos.

Los grupos control obtenían porcentajes superiores de soluciones directa y rápidas para los
problemas críticos mientras que los experimentales de soluciones einstellung en todos los
problemas.
Conviene señalar que la aplicación mecanizada de aprendizajes anteriores no solo es útil y eficaz,
sino necesaria para resolver problemas similares. Desafortunadamente, también puede convertirse
en un obstáculo en la solución de problemas nuevos o en el descubrimiento de innovaciones en los
procedimientos de resolución aprendidos.

Apuntes de M. Goretti González completados y modificados por Marina Uned


6

VI. Problema de la radiación de Dunker


Los estudios sobre fijación funcional de Dunker fueron bien recibidos por la comunidad científica de
la época aunque su trabajo fuera más amplio a otros campos.
Estaba interesado en saber cómo se generaba una solución y cuál era la estructura y la dinámica del
propio proceso de solución de problemas. Para ello estudio el problema de la radiación:
Si una persona tiene un tumor de estómago inoperable y existen unos rayos de
alta intensidad que destruyen el tejido orgánico, ¿cuál sería el procedimiento
para eliminar el tumor con la aplicación de estos rayos, pero evitando al mismo
tiempo la destrucción del tejido sano que lo rodea?
Los sujetos que participaron en las sesiones debían resolver el problema pensando en voz alta todo
aquello que se les iba ocurriendo mientras intentaban llegar a una solución. El método de pensar en
alto es distinto al introspectivo porque en el primero el sujeto se encuentra centrado en el problema
y verbalizando su pensamiento, mientras que en otro el sujeto pensante se convierte en objeto de su
propia atención.
Dunker encontró que generalmente la solución no se alcanza en un solo paso sino en varios a partir de
la obtención de las propiedades esenciales o el principio general de la solución.
A este principio general lo denominó valor funcional de la solución y consistía en una reformulación
del problema original. La solución se alcanzaba a medida que este principio general se iba
concretando. Su interés se centraba en conocer cómo se desarrollaba y se integraba una solución
dentro del sistema de conocimiento del propio sujeto y no tanto en la viabilidad de las propuestas de
solución en sí mismas.
En la página 357 se muestra el diagrama de uno de los protocolos analizados por Duncker, con el fin
de ilustrar el desarrollo de este proceso de solución. Las propuestas de solución que van surgiendo se
agrupan en principios generales. A partir de éstos, se desarrollan otras fases mediadoras más
concretas encaminadas hacia la solución del problema. Las fases mediadores reformulaban el
problema inicial en otro más concreto.
En palabras de Duncker: la forma final de una solución se obtiene por medio de las
fases mediadores del proceso, cada una de las cuales posee en sentido retrospectivo el
carácter de una solución y en sentido prospectivo, el de un problema.
Lo habitual era encontrar que el sujeto iba tanteando de forma alternativa la viabilidad de los
principios generales y de las distintas fases mediadoras, no de forma tan clara y ordenada como la
expuesta en el diagrama.
Por ejemplo, un sujeto podía empezar desde arriba con el principio, para luego volver
a retomarlo en la fase en que lo dejó.
Podría empezar desde abajo porque conocía soluciones semejantes que podrían
aplicarse a la situación planteada por el problema, o incluso las restricciones de éste
podían sugerir una solución.

Apuntes de M. Goretti González completados y modificados por Marina Uned


7

VII. Conclusión
Las aportaciones de la psicología de la Gestalt contribuyeron a que la psicología cognitiva desarrollara
el estudio de la solución de problemas como búsqueda de las interrelaciones entre las partes del
problema que diera como resultado una comprensión estructural del mismo. Una vez se alcanza la
comprensión estructural, las partes se encontraran reorganizadas de modo que logren satisfacer los
requisitos impuestos por el problema planteado.

3. Proceso de solución de problemas


A partir de los 60 del S.XX el enfoque del PI sustentó el marco teórico y metodológico de la
investigación sobre la solución de problemas. Los modelos computacionales ofrecieron una
descripción y explicación dentro del marco formal y riguroso que necesitaba la psicología cognitiva.
Concretamente, el Solucionador General de Problemas de Newell y Simon, 1972 constituye el inicio y
marco de referencia como proceso de búsqueda heurística y estructuración y reestructuración de la
representación del problema planteado por la Gestalt.

I. Solucionador General de Problemas de Newell y Simon


Newell y Simon describen la solución de problemas como la interacción entre sistema de
procesamiento de la información, un solucionador y un ambiente de la tarea.
El sistema de procesamiento de la información (PI): es un sistema de cómputo con
almacenes de memoria, operadores, receptores sensoriales y efectores motores. Sus
recursos de procesamiento tienen limitaciones (por ejemplo las limitaciones
espaciales y temporales de MT y del procesamiento secuencial).
El ambiente de la tarea que comprende los factores externos relevantes para esa
determinada situación.
El solucionador, al enfrentarse al ambiente, representa esta situación como un espacio
del problema, y este espacio es la representación en particular que el sujeto hace del
ambiente de tarea configurado por las interacciones entre las limitaciones del PI y el
ambiente.
Este espacio viene definido por los estados, los operadores, las restricciones,
las funciones de evaluación y las estrategias de búsqueda.

Las investigaciones se han centrado fundamentalmente en dos aspectos: los procedimientos que
conducen a las soluciones y las representaciones internas de los problemas. Antes de abordarlos,
analizaremos distintos tipos de problemas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


8

3.1. Tipos de problemas


Hay al menos cuatro componentes básicos en el proceso de solución: el estado inicial, estado meta
al que se quiere llegar, una serie de pasos para conseguir la meta y unas restricciones impuestas.
I. Clasificación Reitman
Una de las primeras clasificaciones se basaba en el grado de definición de los estados iniciales y metas
de la situación. Para Reitman 1965 existían cuatro tipos:
1) donde tanto estados iniciales y meta están bien definidos,
2) problemas donde el estado inicial está bien definido y la meta no,
3) problemas donde la meta está bien definida pero no así el estado inicial, y el
4) tanto estados iniciales como meta están mal definidos.

II. Clasificación general


Sin embargo, la clasificación general más aceptada los agrupa en bien definidos o cerrados y mal
definidos o abiertos.
a. Problemas bien definidos
Los bien definidos (anagramas o ajedrez) son aquellos que contienen en sí toda la
información que permite resolverlos y cuya estructura impone unas limitaciones.
Se identifican con facilidad la meta, los requisitos y el punto de partida para resolver el
problema y los pasos u operadores necesarios para su solución.
Las personas generalmente no están familiarizadas con el dominio de conocimiento y
para resolverlo utilizan estrategias generales de solución (análisis medios-fin).
b. Problemas mal definidos
Los mal definidos requieren del sujeto que construya o genere la información
necesaria para alcanzar la solución. Son característicos de la vida diaria
Para resolverlos se recurre al conocimiento y experiencia (como por ejemplo en la
solución de problemas por analogía).
Según Simon, 1973 los procesos generales para resolver ambos tipos son los mismos y lo
característico del proceso de solución de los mal definidos es estructurar lo desestructurado, para
que terminen siendo cerrados o bien definidos.

Apuntes de M. Goretti González completados y modificados por Marina Uned


9

III. Clasificación de Greeno


Greeno 1978 propuso otra clasificación basada en los procesos empleados en la solución: 1)
problemas de inducción estructural, 2) problemas de transformación y 3) problemas de
reordenación.
Puede ser útil como primera aproximación, sin embargo, no todos los problemas pueden clasificarse
fácilmente bajo esta tipología, pues se dará frecuentemente por la combinación de categorías.

a. Problemas de inducción estructural


En los problemas de inducción estructural se identifica el patrón de relaciones que
existe entre elementos que lo conforman. Hay que descubrir las relaciones entre las
partes individuales para luego poder generar una representación integrada.
Ejemplo: Las analogías identifican aspectos estructurales compartidos entre dos
situaciones para extrapolar la solución ya conocida a la nueva situación. Un ejemplo
de analogía verbal como presentación de 4 términos: hombre es a mujer como
caballo es a yegua – A · B como C · D.
b. Problemas de transformación
Los problemas de transformación se resuelven por la aplicación de unos
procedimientos al estado inicial para alcanzar el estado meta gradualmente.
Ejemplo: La torre de Hanoi consiste en pasar los tres discos del primer pivote A al
tercero C para que queden en la misma disposición, sin mover más de uno a la vez y
sin colocar un disco mayor encima de uno menor,

Apuntes de M. Goretti González completados y modificados por Marina Uned


10

c. Problemas de reordenación
En los problemas de reordenación la solución se obtiene por nueva disposición de los elementos en
función de algún criterio.
Ejemplo: rompecabezas, anagramas o la criptoaritmética.
Ejemplo: Greeno propuso un ejemplo de criptoaritmética.
En el problema se presentaban 3 nombres y los números
comprendidos del 0 al 9. Consistía en sustituir las letras por
números de modo que el resultado de la suma fuera
correcto. Se suele indicar que la letra D corresponde al nº 5.

IV. Clasificación Greeno y Simon


Modificaron la tipología anterior en función de dos conceptos: acción cognitiva y representación
cognitiva. Tanto la acción como la representación cognitiva son necesarias y complementarias en
cualquier teoría del pensamiento humano.
La acción cognitiva comprende el conocer de las acciones básicas que se pueden
realizar y el conocimiento estratégico para establecer la meta y planificar sobre ello.
La representación cognitiva se refiere a la representación de los objetos comprendidos
en la situación, la meta del problema, operaciones y estrategias que se pueden utilizar
así como a las restricciones que existan.
Teniendo esto en cuenta, Greeno y Simon, 1988 analizaron los problemas en tres categorías:
a. Problemas bien especificados
Son aquellos en los que el procedimiento y metas están bien definidos.
Comprenden una situación inicial, un conjunto de operaciones para pasar de un
estado a otro, y un estado meta. La tarea es encontrar una secuencia de acciones con
la aplicación de las operaciones permitidas para alcanzar el estado meta.
Comprende los problemas de transformación de la tipología vista antes y añade unos
subtipos:
- Problemas nuevos dirigidos por metas de los que no se tiene conocimiento o
experiencia (Ejemplo: Torre de Hanoi)
- Problemas familiares con metas específicas y conocimientos específicos
(Ejemplo: problemas de mates)
- Problemas que especifican un procedimiento en lugar de una meta (Ejemplo:
ejercicios de mates en los que se pide encontrar el producto de dos
expresiones algebraicas)
- Problemas de representación en los que los sujetos tienen experiencia
(Ejemplo: interpretar uno de física).

Apuntes de M. Goretti González completados y modificados por Marina Uned


11

b. Problemas de diseño y reordenación


Las metas se especifican en función de criterios generales en lugar de estados o
procedimientos específicos.
La meta es conseguir una nueva disposición o reordenación de los objetos o
conocimientos en función de un criterio.
Comprende la categoría problemas de reordenación de la tipología anterior,
ampliando el conjunto con los problemas de diseño y los siguientes subtipos:
- Problemas de formación de disposiciones (Ejemplo: anagrama contiene letras
desordenadas y la meta es reordenar para que formen palabra)
- Problemas de modificación de disposiciones (Ejemplo: juegos de tablero como
el ajedrez)
- Problemas de construcción de nueva formulación o representación (Ejemplo:
problemas de insight como el problema de las cajas de Duncker).
- Problemas complejos de composición y diseño (Ejemplo: escribir ensayo,
composición musical,...)

c. Problemas de inducción
Tratan de encontrar un principio general coherente con los objetos o contenido del
problema.
Categoría que permanece igual que en la tipología anterior, aunque analizando mayor
número de problemas inductivos (inducción categórica, extrapolación de secuencias,
inducción de estructuras relacionales y el diagnóstico).

d. Distinción entre razonamiento y solución de problemas


En cuanto a la distinción entre razonamiento y solución de problemas, Greeno y Simon
sostienen que tanto el razonamiento deductivo como el inductivo son procesos de
solución de problemas.
Según estos, deductivo e inductivo hacen referencia a tipos de problemas y no a
procesos en sí.
Analizan silogismos categóricos como pertenecientes a la categoría de los problemas
bien especificados (tipología de nuevos con metas específicas que no requieren
conocimiento).
Los silogismos transitivos serían problemas de inducción, puesto que la representación
integrada de la información es por inducción de la estructura ordenada de relaciones
expresadas en las premisas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


12

V. Clasificación de Jonassen 2000


Es una propuesta más global que considera que el análisis de los problemas ha de tener en cuenta
las dimensiones: características de la naturaleza del problema, características del contexto en que se
presenta o representa y las diferencias individuales para resolverlo.
La propia naturaleza de los problemas interactúan con el formato de representación y el contexto en
que se tiene que resolver el problema y las DI deben contemplarse como factores mediadores del
proceso de solución.

NATURALEZA DEL PROBLEMA


Jonassen señala que la naturaleza de los problemas varía en función de su grado de estructuración,
complejidad y abstracción.
a. Estructuración
La mayoría de los problemas en el ámbito educativo son problemas bien
estructurados.
Presentan estado inicial bien definido que viene dado, un estado meta
conocido (en el que se encuentra definida la naturaleza de la solución) y un
conjunto de operadores que permiten resolver el problema.

Apuntes de M. Goretti González completados y modificados por Marina Uned


13

Pero los de la vida cotidiana y el ámbito profesional, suelen estar mal estructurados.
Puede haber elementos desconocidos, soluciones múltiples o ninguna, las
soluciones pueden ser evaluadas por criterios alternativos, de modo que no
hay certeza sobre cuáles son los procesos necesarios para la solución, lo que
requiere que los solucionadores emiten o expreses sus creencias u opiniones
particulares.

b. Complejidad
Se define por el número de elementos o variables que presenta el problema, su
interrelación, el tipo de relación funcional y la estabilidad entre las propiedades.
Los más complejos son aquellos dinámicos debido a la situación de tarea y sus VV
inestables.
Cuánto más complejo mayor será el nº de operaciones necesarias para
solucionarlo y mayor carga de procesamiento (memoria de trabajo).
La complejidad y la estructuración se solapan.
Los mal estructurados suelen ser los más complejos, aunque también pueden
ser sencillos (Ejemplo: no saber cómo vestirse para una cena).
Los bien estructurados son menos complejos puesto que comprenden VV con
comportamiento predecible.
Aumentan en complejidad a medida que aumentan de VV y operadores
(Ejemplo: cálculo para una gran infraestructura de carretera).

c. Abstracción
Los bien estructurados son más abstractos por no estar situados en un contexto
concreto de aplicación y por no tener contenidos específicos de dominio de
conocimiento.
Se resuelven con los procedimientos generales, los métodos débiles.
Los métodos fuertes son dependientes del contenido y contexto.
Los problemas suelen estar mal estructurados, situados en contexto concreto y
dependientes de contenido específico.
Los problemas bien estructurados también se pueden situar en contexto y se pueden
dotar con contenido. Ejemplo: al ser formulados como una historieta.
Los problemas mal estructurados pueden presentarse de forma más abstracta Ejemplo:
como dilemas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


14

Ejemplo: Lehman, Lempert y Nisbett 1988 encontraron que el tipo de formación


universitaria determinaba el rendimiento en diferentes tipos de problemas:
Los de psicología y medicina resolvían mejor los problemas metodológicos,
estadísticos y de razonamiento condicional que los de derecho y química.
Los resultados manifiestan que si la solución de problemas se encuentra en
contexto determinado y es dependiente del contenido, se desarrollarán
procedimientos también específicos y concretos.

PRESENTACIÓN
Con respecto a la representación de los problemas hay que destacar la importancia del contexto,
formato y modalidad.
a. Contexto
Los problemas cotidianos y profesionales se encuentran inmersos en contextos
propios y aquella información que puede ser relevante para un contexto puede no serlo
en otro.
Ejemplo: al diseñar un vídeo juego para salir al mercado de ventas con éxito, la
representación de éste en el ámbito profesional será distinta de la que se tenga en el
comercial.
b. Otras variables
Otras variables influyentes son las posibles presiones del tiempo impuesto para
resolver el problema, imposiciones reguladoras de contextos (sociales, religiosos,
políticos, culturales,...) y las distintas interacciones sociales que pudieran ser según el
grupo o ambiente (ambiente competitivo vs colaborativo).

DIFERENCIAS INDIVIDUALES
Por último, se señala el amplio abanico de DI que pueden mediar.
a. Dimensiones afectivas y conativas
Hay que destacar las dimensiones afectivas y conativas. Algunos estudios muestran
que las actitudes y las creencias que se tienen sobre el problema y su ámbito de
conocimiento, conjuntamente con el nivel de autoconfianza influyen
significativamente sobre el rendimiento y la perseverancia para encontrar la solución.

Apuntes de M. Goretti González completados y modificados por Marina Uned


15

3.2. Procedimientos de solución de problemas


Newell y Simon 1972 describieron la solución de problemas como la interacción entre un sistema de
PI, un solucionador y un ambiente de la tarea.
Propusieron una metáfora espacial que describe el proceso de solución como un
procedimiento de búsqueda a través de un espacio delimitado por unos estados y unas
secuencias de acciones que conforman los caminos o trayectos metafóricos hacia la
solución.
El espacio del problema es la representación que el solucionador hace del problema y
está constituida por 4 elementos: 1. descripción del estado inicial, 2. descripción del
estado meta, 3. conjunto de operadores o acciones que permiten pasar de un estado a
otro, 4. restricciones impuestas sobre los diferentes trayectos que conducen a la
meta.
El procedimiento comprende la secuencia de operadores que transformarán el estado
inicial en estado meta de acuerdo con las limitaciones impuestas por el trayecto. Se
entiende que el proceso de solución de problemas es la búsqueda del mejor trayecto
para llegar a meta.

Una representación exhaustiva del espacio del problema comprendería el conjunto de todos los
estados potencialmente alcanzables mediante la aplicación de los operadores disponibles. Las
personas tenemos una memoria de trabajo limitada que hace inviable un proceso de búsqueda
exhaustivo.
Ejemplo: una jugada de ajedrez puede comprender sesenta movimientos con media
de treinta alternativos legales en cada paso.
Esto se denomina implosión combinatoria, que pone de manifiesto que el tamaño del
espacio de búsqueda aumenta exponencialmente a medida que se profundiza en el
mismo proceso de búsqueda.
Esto hace que muchos problemas sean imposibles de resolver por medio de la
búsqueda exhaustiva en el que se consideran todos los trayectos.

Para resolverlos, las personas utilizan unos métodos de búsqueda heurística.


Permite reducir el conjunto total de alternativas a un número más manejable y que
además agrupe a las alternativas que se aproximen mejor a la solución.
Ejemplo: un jugador de ajedrez anticipa entre 3 y 4 jugadas, y uno experto lo hará con
las mismas pero de las mejores jugadas.
La formación de un experto se explica por la adquisición del conocimiento para lograr
la mejor limitación del espacio de búsqueda en la solución de problemas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


16

Sin embargo, el proceso de búsqueda heurística no garantiza que se llegue a la solución óptima.
En la búsqueda se apuesta por aquellos trayectos que mejor puedan conducir a una
solución, sin explorar los trayectos exhaustivamente. Por tanto, se alcanzan soluciones
satisfactorias aunque no necesariamente óptimas o la mejor.

Newell y Simon 1972 propusieron un nº reducido de métodos heurístico de carácter general


denominados métodos débiles por no usar información específica sobre el dominio del problema.

3.2.1. Heurístico “subir la cuesta” o “método de reducción de diferencias”


Es un procedimiento sencillo que reduce la diferencia entre el estado inicial y el estado meta.
Se trata de aplicar un operador que cambie el estado inicial a otro que se aproxime lo
máximo posible al estado meta.
El término “Subir la cuesta” recuerda el camino que se emprende hacia delante
cuando se quiere alcanzar la cima de una cuesta. Al avanzar se reduce, paso a paso, la
distancia que separa de la cima.
Este heurístico es similar al método de ensayo y error selectivo.
Las personas eligen en cada paso la ruta que parece llevarles directamente a meta. Es útil para
encontrar una solución mínimamente satisfactoria (máximo local), sin garantía de que sea la mejor
opción posible (máximo global) dentro del espacio del problema.
Es una estrategia sencilla y útil con ciertos inconvenientes.
La desventaja es que en el trayecto la dirección siempre es hacia meta, solamente se
puede ir un paso hacia delante.
No se pueden generar estados que momentáneamente se alejan de la meta,
siempre se trabaja hacia delante, no permitiendo dar un paso hacia atrás
porque esto supondría alejarse de la meta.
El solucionador puede quedarse atrapado en un punto máximo local con una solución
satisfactoria, pero distinta del estado de meta.
Ejemplo: Subiendo una cuesta, el caminante ubicado en el punto inicial A sigue
paso a paso en dirección a la meta para alcanzar la cima de otra cuesta
(máximo local). Si se hubiese partido de B, este heurístico hubiera permitido
alcanzar la meta por el camino más corto.

Apuntes de M. Goretti González completados y modificados por Marina Uned


17

Ejemplo: La Torre de Hanoi con el heurístico “subir la cuesta”


La Torre de Hanoi consiste
en pasar los tres discos
del primer pivote al
tercero para que queden
en la misma disposición,
sin mover más de un
disco a la vez y sin colocar
uno mayor encima de
menor.

La figura es una representación del espacio del problema completa con un total de 27 estados.
El 1 es el estado inicial, el 8 el estado meta y cada estado se encuentra vinculado con otro por el
movimiento de un disco. Existen varias formas de resolverlo, siendo la más rápida la que allí se
presenta por los siete movimientos consecutivos comprendidos entre los estados del 1 al 8.

Si el solucionador está utilizando el heurístico de “subir la cuesta” y ha ido avanzando del estado 1 al
5, la aplicación del heurístico le llevaría al estado 23 (el que más se aproxima a la meta). Sin
embargo, el estado 6 conduce más rápidamente a lograr la meta que el 23, aunque suponga ir un
paso hacia atrás con el aparente alejamiento momentáneo de la meta.
Kotovsky, Hayes y Simon (1985) encontraron que los sujetos utilizaban en primer lugar el método de
la reducción de diferencias (subir la cuesta) para resolver la Torre de Hanoi, y cuando fracasaban
entonces aplicaban el heurístico “análisis medios-fin”.

Apuntes de M. Goretti González completados y modificados por Marina Uned


18

3.2.2. Heurístico “análisis medios-fin”


Este heurístico también es un método para reducir la diferencia entre el estado inicial y el estado
meta.
La diferencia principal entre este y el de “subir la cuesta” consiste en descomponer el
estado meta en varios estados submetas.
La búsqueda hacia atrás parte del estado meta y mediante la identificación de los
operadores se pretende ir generando los diferentes estados que logran terminar el
estado inicial.
Es de los métodos más conocidos y es fruto de la combinación de la búsqueda hacia
delante y hacia atrás.
La reducción de diferencias entre el inicial y meta se logra con las submetas o estados intermedios
que cada vez se aproximan más al estado meta. Aplicando los operadores se reducen las diferencias
hasta que desaparezcan. Si no se logra reducir esta diferencia, se genera un nuevo estado submeta
para aplicar el operador y así poder ir reduciéndolas.
Ejemplo: nuestro estado inicial es que estamos en un fin de semana en casa aburridos
y con ganas de salir al campo (estado meta). Uno de los operadores que reducirá
diferencias sería “coger el coche para acercarnos al campo”. Si el coche está en el
taller, generaremos un nuevo estado submeta (amigo con coche) para aplicar el
operador. Si este operador falla (no está en casa o no quiere) buscaríamos otro (viajar
en tren).

Apuntes de M. Goretti González completados y modificados por Marina Uned


19

El heurístico análisis medios-fin reúne características importantes para el proceso de solución de


problemas:
1) La búsqueda se encuentra explícitamente guiada por el conocimiento de la meta.
2) El estado inicial puede conducir a otros estados submetas que descomponen el problema
en partes más pequeñas y más fáciles de alcanzar.
3) El método puede aplicarse recursivamente en el proceso de descomposición hasta
conseguir el estado meta.
El proceso de planificación es una parte importante de la solución de problemas al permitir anticipar
las consecuencias de las posibles acciones.
Con esta anticipación de las consecuencias se pueden identificar puntos
muertos en el trayecto y evitar errores irreversibles o reversibles, o bien
errores irrelevantes pero que supongan pérdida de tiempo.
También al descomponer el problema en subpartes, se mejora la búsqueda con la
anticipación de soluciones tentativas para los estados, permitiendo la corrección e
integración de las distintas partes.
Ejemplo: La Torre de Hanoi con el heurístico análisis medios-fin
La primera submeta es liberar el disco mayor del primer pivote. Para alcanzarla se traslada el disco
pequeño al tercer pivote. Luego se mueve el disco mediano al segundo pivote y se alcanza la primera
submeta. Liberado el disco grande debemos moverlo al tercer pivote. Podemos anticipar que liberar
el tercer pivote colocando el disco pequeño encima del disco grande sería un error. La anticipación
de las consecuencias negativas corrige el trayecto y permite colocar el disco pequeño encima del
mediado en segundo pivote. La tercera meta es mover el disco grande del 1er pivote al tercero.

Sistema de producción – Newel 1973


El análisis del espacio del problema visto hasta ahora es una descripción lo suficientemente abstracta
para que pueda ser representada e implementada en distintos modelos computacionales. Sin
embargo, se encuentra vinculada al modelo formal “Sistema de Producción” de Newell.
Un sistema de producción está constituido por reglas con condiciones y acciones (si cumple la
condición, se ejecuta la acción). Las reglas de condición-acción representan el conocimiento para la
aplicación de un operador.
Las condiciones especifican cuándo se puede aplicar el operador y las acciones describen las
consecuencias de su aplicación.
Durante el proceso de solución, las representaciones de los distintos estados del
problema se emparejan con aquellas reglas que satisfagan las condiciones
especificadas y entonces se dispara la acción correspondiente. En caso de existir
conflicto porque se emparejan varias reglas, se elige la más apropiada, por ejemplo,
aquella con más condiciones específicas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


20

Los sistemas de producción fueron diseñados para modelar el proceso de solución de problemas, pero
se han extendido a otros ámbitos de aplicación e incluso han sido propuestos como modelo de
funcionamiento cognitivo en general.
Los esquemas de razonamiento pragmático (tema de razonamiento condicional) se
encuentran representados como un sistema de producción.
Diversos modelos cognitivos alternativos basados en éstos, comparten un lenguaje
teórico común que fomenta la comunicación entre las diversas disciplinas.

Investigación con problemas bien definidos


Los problemas bien definidos o cerrados como la Torre de Hanoi, no son representativos de la
mayoría de los problemas. Sin embargo, facilitan la investigación sobre el proceso de solución porque:
El análisis de la tarea es riguroso porque tanto el conocimiento del sujeto como las reglas
y el procedimiento son dados por el enunciado.
Permite obtener un diagrama en el que se identifican todas las rutas posibles.
Se cuenta con una descripción formal que permite estudiar la generación de la
solución e identificar cómo se aproxima el sujeto a ese estado meta por los sucesivos
movimientos entre los diferentes estados del espacio del problema.
Se podría estudiar cómo mejora el rendimiento con el ejercicio y cómo se puede ser
“experto”.
Estos problemas no requieren conocimientos específicos y esto permite una mínima
intervención de los conocimientos previos del sujeto.
La estructura bien definida permite generar problemas semejantes para así poder estudiar
el proceso de transferencia del aprendizaje bajo distintas circunstancias.

3.3. Representación del espacio del problema

Apuntes de M. Goretti González completados y modificados por Marina Uned


21

Según la Teoría de Solución de Problemas de Newell y Simon 1972, las personas representan el
ambiente de la tarea como un espacio constituido por posibles estados en los que se realizará la
búsqueda de la solución.
El ambiente es una descripción externa del problema, y el espacio del problema es la representación
interna que hace el sujeto de dicho ambiente.
En la generación del espacio del problema se debe considerar la interacción entre las fuentes de
información externas e internas.
Las externas se encuentran definidas por el ambiente de la tarea y las internas por
conocimientos que tiene el sujeto sobre situaciones similares y sobre la propia
información que se va acumulando durante el propio proceso de solución.
A continuación se van a presentar resultados sobre el espacio del problema cuando se ha modificado
el ambiente de la tarea o la influencia información acumulada durante el proceso sobre la
reestructuración del espacio del problema. El papel que desempeña el conocimiento sobre dominio
concreto se trata en los apartados 4 y 5.

I. Problemas de los monstruos


En los estudios sobre las fuentes de información externa se han utilizado versiones isomórficas de los
problemas bajo el supuesto de que si la estructura del espacio para los procedimientos de búsqueda
heurística es idéntica, cualquier diferencia observada en el rendimiento se deberá a diferencias en la
representación de los enunciados.
Versiones isomórficas a la Torre de Hanoi son los problemas de los monstruos y se presentan en dos
versiones: una versión en la que los monstruos se pasan los globos y otra en la que los monstruos
cambian el tamaño de los globos que sostienen.
Ejemplo: Problema del monstruo: movimiento
Tres monstruos sostenían tres globos de cristal. Debido a las particularidades de su planeta, los
monstruos y los globos tiene tres tamaños: pequeño, mediano y grande. El monstruo pequeño
sostenía el globo grande, el mediano el globo pequeño y el monstruo grande, el globo mediano.
Puesto que era una situación contraria al sentido desarrollado de la simetría, procedieron a
intercambiárselos de modo que luego tenga cada monstruo uno proporcional al tamaño.
Se tenían que respetar las normas del planeta:
- Solamente se puede mover un globo cada vez.
- Si un monstruo tiene dos globos, sólo se puede mover el más grande de los dos.
- No se puede mover un globo a un monstruo que sostiene uno mayor.
¿Cuál es la secuencia que se seguirá para resolverlo?
Ejemplo: Problema del monstruo: cambio

Apuntes de M. Goretti González completados y modificados por Marina Uned


22

Tres monstruos extraterrestres sostenían tres globos de cristal. Debido a las particularidades de su
planeta, los monstruos y los globos son de diferentes tamaños: pequeño, grande y mediano. El
monstruo pequeño tenía un globo grande, el monstruo mediano un globo pequeño y el monstruo
grande un globo medio.
Puesto que la situación era contraria a su idea de la simetría procedieron a contraer y expandir los
globos de modo que cada monstruo sostuviera un globo proporcionado.
Las normas complicaban la solución:
- Solamente se puede cambiar un globo cada vez.
- Si dos globos tienen el mismo tamaño, solo se puede cambiar el globo que sostiene el
monstruo de mayor tamaño.
- Un globo no puede cambiar al mismo tamaño que un globo que sostiene un monstruo
de mayor tamaño.
¿Cuál es la secuencia de cambios para resolver este problema?

a. Comparativa entre problemas


En el problema isomórfico de movimiento, los globos pasan de un monstruo a otro
como los discos en los pivotes del problema de la Torre de Hanoi. Sin embargo, en el
problema isomórfico de cambio los globos permanecen con el monstruo, quien puede
cambiar el tamaño de los globos.
Se han cambiado los papeles que desempeñan los pivotes y los discos: el globo es
como el pivote y el monstruo como disco.
Tanto en la Torre de Hanoi como en el problema isomórfico de movimiento, las
imposiciones recaen sobre el tamaño de las unidades que pueden moverse (discos y
globos) ubicadas en un mismo sitio (pivotes y monstruos). En el de cambio, las
imposiciones sobre el cambio del tamaño del globo recaen sobre el tamaño de los
monstruos (discos) que sujetan globos (pivotes).

b. Resultados

Apuntes de M. Goretti González completados y modificados por Marina Uned


23

Los resultados pusieron de manifiesto que los problemas isomórficos presentaban


diferentes niveles de dificultad a pesar de compartir la misma estructura del espacio del
problema.
Estas dificultades se correspondían con las distintas imposiciones (movimiento
frente a cambio) y modalidades de presentación (visuales frente a escritas) de
la tarea.
Se encontró que el problema más difícil era la versión isomórfica de cambio
presentada por escrito y el problema más fácil había sido el clásico de la Torre.
La explicación se centra en los distintos niveles de carga de memoria de trabajo que
eran necesarios para la solución.

II. Tablero de damas mutilado


Kaplan y Simon 1990 estudiaron la influencia del ambiente en la tarea con el “tablero de damas
mutilado”. Está asociado al insight descrito por la Gestalt y plantea:
Tablero de damas de 64 cuadrados. Pueden cubrirse con 32 piezas de dominó
de forma que cada pieza cubra dos cuadrados. Si se eliminan dos cuadrados de
los extremos, ¿se podrían cubrir los 62 restantes con 31 piezas de dominó?
Cuando los sujetos se enfrentan al problema emplean mucho tiempo intentando encontrar un
patrón que permita colocar las 31 piezas sobre el tablero mutilado sin éxito. El espacio del problema
es grande y el enunciado no impone restricciones sobre el heurístico de búsqueda por lo que al final
terminan abandonando el problema. Es imposible cubrir el tablero de damas mutilado con 31 piezas.
Los cuadrados adyacentes son siempre de dos colores alternos (rojos y negros) y que al colocar una
pieza de dominó se cubrirá un cuadrado rojo y otro negro. Al eliminar dos cuadrados del mismo
color (negro) quedan 30 negros y 32 rojos.
Kaplan y Simon se plantearon estudiar la facilitación en la resolución de este problema por medio de
la presentación de distintos indicios del concepto de paridad que pudieran restringir la
representación del espacio del problema. Presentaron el tablero de damas:
- tablero don todos los cuadrados en blanco,
- tablero con cuadrados en dos colores,
- tablero en blanco con palabras de los colores escritas dentro de los cuadrados [negro]
[rojo]
- tablero en blanco con palabras escritas [pan] y [mantequilla].

a. Resultados

Apuntes de M. Goretti González completados y modificados por Marina Uned


24

Los resultados manifestaron que tardaban menos en decir que el problema era
irresoluble cuando el tablero presentaba las palabras “pan” y “mantequilla”. Estas
transmitían el concepto de paridad necesario para obtener la solución. Le seguía el
grupo con el tablero de las palabras escritas de los dos colores, el de dos colores y el
de los cuadros en blanco.
b. Explicación
La explicación de la dificultad del problema es que se parte de una representación
inapropiada y para resolverlo hay que reiniciar la búsqueda de otra representación del
espacio del problema con un número mayor de restricciones.
La representación inicial no incluye la paridad de los colores del tablero por no venir
enunciada en la formulación del problema. Cuando se variaron las formulaciones de
los problemas de modo que enfatizaran el concepto de paridad se encontró que los
sujetos lograban resolver el problema y que algunas formulaciones eran mejor que
otras.
Los autores comentan que la experiencia fenomenológica del insight de la Gestalt
puede explicarse cómo proceso de búsqueda semejante al utilizado con el resto de los
problemas, pero en este caso se busca una reestructuración del espacio del problema.
La dificultad de estos problemas se puede predecir por la disponibilidad de las fuentes
de información del ambiente de la tarea que permiten constreñir dicha búsqueda.

III. Teoría del Control Progresivo – Chronicle, MacGregor y Ormerod 2004 y 2001
La Teoría del Control Progresivo sostiene que los sujetos utilizan el heurístico de subir la cuesta para
resolver problemas asociados al insight, resolviéndose cuando se relajan las imposiciones sobre el
espacio del problema.
Explica cómo se alcanza un punto muerto en el proceso, cuáles son las condiciones necesarias para
que surja el insight y por qué éste es tan poco frecuente.

En estas investigaciones se utilizó el problema de los 9 puntos.


Según los autores, el estado meta no se encuentra bien definido en la mayoría de los
problemas asociados al insight y los sujetos seleccionan un criterio de progreso
satisfactorio hacia unas metas parciales que se infieren de la descripción del problema
o de algún estado interno que ha generado el proceso en sí.
La reestructuración del espacio del problema puede ocurrir, por la influencia de
fuentes externas como por la propia información generada internamente.

Los sujetos no logran resolverlo debido al gran nº de movimientos posibles que parecen ajustarse al
criterio cuando los 9 puntos se encuentran dentro de la delimitación imaginaria de un cuadrado.

Apuntes de M. Goretti González completados y modificados por Marina Uned


25

Se llega a un punto muerto cuando el heurístico de búsqueda ya no puede generar más estados que
cumplan el criterio de progreso satisfactorio. Este fracaso permite relajar las imposiciones del espacio
del problema para buscar otros estados o retomar los descartados. Por ejemplo, el sujeto puede
volver a una solución anterior tentativa en la que utilizó una línea para unir los puntos fuera de los
límites imaginarios del cuadrado.
El insight es poco frecuente pues se ha de ajustar al criterio de llegar a la cuarta línea.
Es necesario anticipar mentalmente el trazado para darse cuenta del fracaso del criterio satisfactorio y
reestructurar el problema sin los límites imaginarios del cuadrado.

IV. Teoría del cambio representacional


La teoría del cambio representacional se centra en la información interna como obstáculo para una
buena representación del espacio del problema.
La representación inicial puede ser inadecuada porque el conocimiento previo y las experiencias
anteriores activan la construcción de un espacio del problema infructuoso.
Para reestructurarlo nuevamente existen los mecanismos:
a. Relajación de las imposiciones
Decremento en la activación de algún elemento de conocimiento que restringe la
aplicación de los operadores comprendidos en el espacio del problema
Ejemplo: fijación funcional observada en el problema de las cajas de Duncker. Se
resuelve cuando la función contenedora de la cajita de cerillas opera como soporte de
la vela.
b. Disgregación de las agrupaciones con significado del problema
Implica ruptura de las conexiones establecidas por los componentes de una unidad con
significado.
Ejemplo: El efecto einstellung en el problema de las jarras de Luchins. La unidad que
hace falta disgregar son los procedimientos aprendidos que conducen a una
representación inapropiada. Ello permitirá bloquear la aplicación mecánica y
reestructurar el espacio del problema de modo que se puedan encontrar los
procedimientos que resuelven los problemas críticos.

4. El solucionador de problemas experto

Apuntes de M. Goretti González completados y modificados por Marina Uned


26

Las tareas experimentales comentadas minimizaban la intervención de la experiencia anterior para


resolver el problema. La información necesaria se encontraba disponible y limitada en el propio
enunciado del problema, reduciendo los efectos de la recuperación del conocimiento almacenado. El
diseño de estas tareas intenta analizar e identificar los aspectos generales y básicos de los procesos
implicados en la solución de problemas. Identificados éstos, se analizará el papel del conocimiento
en la representación del espacio del problema.

4.1. Características generales del solucionador experto.


El estudio de la naturaleza del “experto” se enfoca desde una perspectiva absoluta o relativista.
La perspectiva absoluta o excepcional del experto se centra en la identificación,
descripción y evaluación de la pericia. Es necesario contar con una definición
operativa de experto y con instrumentos de medida que puedan cuantificarlo.
La perspectiva relativista aborda el estudio del experto en comparación con el novato,
no siendo necesaria una definición tan precisa. La pericia se sitúa en un continuo con
distintos grados de conocimientos y años de experiencia en los que se pueden ubicar
los sujetos.
En general, los estudios del solucionador experto han adoptado la perspectiva relativista bajo el
supuesto de que las capacidades y procesos básicos de expertos y novatos son semejantes y que las
diferencias entre ambos se deben a los conocimientos adquiridos en el ejercicio de una actividad
determinada.
Aspectos principales en los que destacan los expertos frente a los novatos:
I. Los expertos generan lo mejor de forma más rápida
De Groot 1946 abordó el estudio de las diferencias en conocimiento y experiencia en el juego de
ajedrez.
Analizó protocolos verbales en amplia muestra con distintos niveles de maestría.
Ello permitió identificar las diferencias entre jugadores según iban tomando decisiones
sobre sus movimientos.
Los resultados mostraron que diferencia en el comportamiento de un jugador experto
era la rapidez con la que podía considerar las mejoras jugadas sin necesidad de
búsqueda exhaustiva. Captaban rápidamente la estructura de las posiciones de las
piezas, exploraban los posibles movimientos, evaluaban las consecuencias de estos
movimientos y elegían las mejores jugadas.

Chase y Simon 1973 también encontraron que el experto de ajedrez identificaba configuraciones del
tablero asociadas con los mejores patrones de jugadas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


27

Expertos y novatos recordaban aproximadamente el mismo nº de piezas y sus


posiciones en el tablero cuando estas piezas se situaban al azar.
Sin embargo, el rendimiento de los expertos era significativamente superior cuando
las piezas se encontraban en una configuración de posibles jugadas.
Estas diferencias no se debían a una capacidad mayor de la memoria o mayor
conocimiento, sino a la organización estructurada de los conocimientos relevantes de
los expertos en su ámbito de pericia. Esta organización se estructura en agrupaciones
(chunks) de unidades con significado que están conectadas entre sí y que en el ajedrez
son los patrones visuales de las jugadas.

II. Los expertos detectan y reconocen mejor


Detectan y reconocen aspectos de la información que pasan desapercibidos para los novatos
discriminando mejor entre lo relevante y lo que no.
Chi, Feltovich y Glaser 1981 realizaron un estudio donde se mostró que estudiantes de cursos
avanzados en física representaban un problema basándose en el principio abstracto subyacente y los
novatos representaban los elementos superficiales del enunciado. Esta representación más compleja
y abstracta sustenta mejor los procesos de razonamiento, planificación, supervisión y evaluación.
Ejemplo: los bomberos expertos representan el incendio de forma dinámica, considerando
condiciones antecedentes al fuego, al cómo será su evolución más probable,... mientras que los
novatos se percatan de características de la llama, color,...

III. Los expertos analizan durante más tiempo


Gestionan de diferente forma los recursos limitados del procesamiento. Los expertos dedican más
tiempo al análisis del problema.
Este tiempo revierte favorablemente en una mejor representación que, a su vez, permite resolver el
problema de forma más rápida y correcta.
Ejemplo: En radiología se encontró que los expertos empleaban más tiempo en una fase preliminar al
diagnóstico. La calidad de las jugadas de los expertos en ajedrez está determinada por la mayor
cantidad de análisis de planificación que muestran frente a los novatos.

IV. Los expertos seleccionan las mejores estrategias


Los procesos básicos son similares en ambos grupos pero los expertos eligen el mejor procedimiento.

Apuntes de M. Goretti González completados y modificados por Marina Uned


28

Ambos cuentan con los mismos procedimientos de búsqueda heurística, pero para los expertos esta
búsqueda está condicionada por un conocimiento estructurado y específico del dominio que permite
delimitar adecuadamente el espacio del problema.
Ejemplo: Los profesores de física resuelven problemas trabajando desde el estado inicial hacia la
meta, mientras que los estudiantes lo hacen hacia atrás, comenzando en el estado meta.
Ejemplo: También se ha encontrado que en el diagnóstico médico rutinario los profesionales se
basan en los datos y los novatos lo hacen desde la hipótesis.

V. Los expertos desarrollan sus actividades con menor esfuerzo


Con la práctica se produce automatización progresiva del rendimiento, reduciéndose la carga de
recursos de procesamiento. El procesamiento que inicialmente es lento, secuencial y que consume
muchos recursos atencionales, luego es rápido, paralelo y menos deliberado.
Ejemplo: Los jugadores expertos de ajedrez son capaces de jugar no solo una sino varias partidas a la
vez de forma mental. La automatización hace que se liberen recursos para otros procesos, como la
planificación y el auto-seguimiento.

VI. Los expertos tienen mejor autocontrol


Muestran mejor autocontrol del estado de comprensión y del proceso de solución.
Ejemplo: los expertos evaluaban mejor la dificultad de problemas de física y además estimaban
mejor el nº de piezas de ajedrez recordadas y el nº de veces que necesitan ver una posición en el
tablero para poder recordarla.

VII. Los expertos aprovechan mejor las oportunidades


Aprovechan mejor las oportunidades que tienen para incrementar sus fuentes de información y los
recursos disponibles.
Ejemplo: De Groot 1946 encontró que los jugadores expertos seguían aprendiendo al descubrir
jugadas nuevas evaluando consecuencias de los movimientos hipotéticos de una jugada.
La práctica deliberada permite corregir los puntos débiles e incrementar la pericia.

4.2. Desarrollo de una destreza

Apuntes de M. Goretti González completados y modificados por Marina Uned


29

Los enfoques más tradicionales sobre el rendimiento experto dicen que la adquisición de una
destreza depende de la formación y experiencia. Un principiante se forma y adquiere los
conocimientos necesarios para el ejercicio de su profesión o de una tarea y la experiencia permitirá
que alcance un máximo nivel de competencia, limitado por sus propias capacidades y habilidades
innatas.
Entienden que cualquier persona que se implique activamente en su profesión puede alcanzar el nivel
de experto cuando aumentan los años de experiencia, las diferencias entre los distintos niveles de
experto se explican por las limitaciones innatas de capacidades y habilidades.

El desarrollo de este rendimiento se describe como secuencia de retos con distintos niveles de
dificultad que el sujeto va dominando y superando a lo largo de los años. Estos niveles de maestría se
conciben como situaciones de solución de problemas diferentes que deben resolverse para conseguir
el siguiente nivel.
Inicialmente, los mejores resultados se darán en las tareas sencillas. Según aumente
su experiencia, progresa en el dominio de actividades. Se encuentra con distintos
tipos de problemas que se han de resolver para desarrollar el rendimiento o destreza
correspondiente con el nivel de maestría que pretende alcanzar. Aquellas tareas que
en un principio parecían imposibles se realizarán sin esfuerzo.

En el proceso de adquirir una destreza habitual de la vida cotidiana como conducir implica tres fases:
1) Fase cognitiva: se aprende estructura de la actividad (reglas y procedimientos)
recibiéndose retroalimentación bastante clara de los errores. Los novatos
gradualmente aprenderán a evitar errores y se aproximarán a sus expectativas de
rendimiento hasta alcanzar la siguiente fase.
2) Fase asociativa: se logra nivel funcional estable y satisfactorio. Con más
entrenamiento se alcanza la última.
3) Fase automática: rendimiento estable y óptimo con un mínimo esfuerzo.
El objetivo planteado en la adquisición de destrezas es alcanzar un nivel de rendimiento satisfactorio
que sea automático.
Los sujetos consiguen alcanzar este estado automático porque se implican en la
comprensión y representación de la estructura de la actividad a desarrollar para pasar
a continuación a las dos fases siguientes que persiguen la mejora y automatización.
Este tipo de actividades recreativas (juegos o deportes) presentan una estructura
sencilla que permite reconocer patrones y configuraciones fácilmente.

Bajo el supuesto de que la adquisición de una destreza depende de la instrucción y años de


experiencia, la perspectiva tradicional encuentra difícil explicar por qué existen diferencias tan

Apuntes de M. Goretti González completados y modificados por Marina Uned


30

marcadas entre las personas con capacidades semejantes y con una misma formación y antigüedad,
y por qué el nivel de excelencia tan sólo lo consiguen unos cuantos.
Para poder diferenciar ambos niveles de pericia, Hatano e Inagaki 1986 distinguen entre expertos
rutinarios y expertos adaptativos.
Experto rutinario: es eficaz destacado en rapidez, exactitud y automaticidad, falta de
flexibilidad y capacidad de adaptación ante situaciones nuevas.
Experto adaptativo: es capaz de utilizar el conocimiento flexible y creativamente, con
una comprensión más profunda de los principios y del marco conceptual de su
destreza. Muestran una predisposición a seguir aprendiendo a la vez que desarrollan
la destreza. Los nuevos problemas son desafíos y una oportunidad para superar.
El adaptativo aspira a alcanzar nivel de excelencia que supere la fase de
automatización, pretende desarrollar destrezas que le permitan apoyar un
aprendizaje continuado. Requiere experiencia y práctica deliberada para poder
contrarrestar la fase de automatización y así adquirir control y habilidad en la
monitorización del propio rendimiento.
Continuamente reestructuran, reorganizan y refinan su representación de
conocimientos y procedimientos. Los expertos no saben más que los novatos,
saben de forma diferente.

4.3. Inteligencia y creatividad


Un problema existe si tenemos una meta y no sabemos alcanzarla. El proceso de solución es proceso
de búsqueda a través del espacio del problema, constituido por el estado inicial, el estado meta y los
operadores que permiten avanzar entre los estados intermedios y una serie de limitaciones
impuestas sobre los posibles trayectos hacia la solución. La dificultad o facilidad para resolver el
problema depende de la representación que se haga del espacio del problema. La solución
inteligente de problemas sería el elegir el heurístico apropiado en un espacio del problema bien
estructurado.
Es común suponer que inteligencia y creatividad se encuentren relacionadas con la solución de
problemas. A continuación, desde un punto de vista cognitivo y no psicométrico, se introduce la
relación entre el proceso de solución de problemas de las DI en estos dos aspectos.
Desde el enfoque del PI, Wenke y Frensch 2003 entienden que la inteligencia es una habilidad
intelectual constituida por facultades y procesos cognitivos básicos que son comunes a todos, aunque
difieren en el grado en que se poseen. Son estables e influyen sobre el rendimiento en una amplia
variedad de tareas. Cualquier aspecto del PI puede considerarse como parte constituyente de una
habilidad intelectual, por lo que la inteligencia y creatividad se vinculan con los procesos y
representaciones en la solución de problemas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


31

Para explicar el funcionamiento inteligente Sternberg 1985 propone la Teoría Triárquica de la


Inteligencia constituida por las teorías componencial, contextual y de la experiencia. Una persona no
es inteligente por sobresalir en todos los aspectos.
La persona inteligente es la que conoce sus puntos fuertes y débiles para saber
capitalizar su fortaleza y compensar o corregir su debilidad.
La teoría componencial distingue:
1) los metacomponentes: procesos ejecutivos de orden superior utilizados en
planificación, control y evaluación de los procesos implicados,
2) los componentes de actuación y evaluación empleados en la ejecución, y
3) los componentes de adquisición, retención y transferencia para aprender nueva
información.
Los metacomponentes son los que mejor contribuyen en la explicación de las diferencias individuales
en inteligencia y creatividad. Sternberg identifica siete metacomponentes en el funcionamiento
inteligente (tabla).
Aquellos implicados en la identificación, definición y representación son especialmente críticos para
analizar las DI en inteligencia y creatividad en los problemas abiertos o mal definidos. El resultado de
una identificación apropiada del problema, de una definición precisa de las metas, de la evaluación
de la envergadura de dichas metas y de una adecuada representación de la información permitirá
establecer una solución viable y novedosa.
Los aspectos tradicionalmente asociados con el pensamiento divergente o creativo se podrían vincular
con estas primeras etapas del proceso de solución y los aspectos del pensamiento convergente o
analítico con las etapas posteriores.

El proceso creativo conduce a resultado divergente, novedoso y adaptativo. Comprende habilidades


intelectuales, conocimiento, estilos cognitivos, rasgos de personalidad y motivación. El pensamiento
divergente y flexible permite identificar y definir problemas de diferentes formas y desde perspectivas
alternativas no convencionales, además de reorganizar la información con el fin de obtener
representaciones novedosas. Las personas creativas filtran menos la información distractora, lo que
aumenta la probabilidad de encontrar patrones nuevos de información o detectar sutilezas o
anomalías ocultas en la información considerada por otros como irrelevantes.
Se han identificado otras variables que influyen en el proceso de una solución creativa: la tolerancia a
la ambigüedad, una disposición general hacia la identificación de problemas, actitud abierta hacia
nuevas experiencias, actitud crítica hacia normas establecidas, alto nivel de auto-confianza y alta
motivación intrínseca. Las DI en motivación influirán significativamente en la fase de identificación
del problema y en la generación de posibles soluciones. La motivación intrínseca caracteriza a las
personas creativas, quienes se encuentran dispuestas y abiertas a interactuar con su medio en la
búsqueda de nuevos problemas y de formas alternativas de organización e integrar nueva
información con el conocimiento almacenado, para poder alcanzar soluciones innovadoras ante los
retos que se plantean.

Apuntes de M. Goretti González completados y modificados por Marina Uned


32

Apuntes de M. Goretti González completados y modificados por Marina Uned


33

5. La solución de problemas por analogía

I. Razonamiento analítico como proceso para la solución de problemas


El razonamiento analógico como proceso para la solución de problemas se considera un
procedimiento cognitivo que se aplica a dominios de conocimientos desconocidos o poco familiares
basándose en situaciones previas conocidas.
Ejemplo: el modelo hidráulico del sistema circulación de la sangre, el modelo
planetario de la estructura atómica o teorías científicas basadas en analogías que
permiten mejor comprensión de un determinado fenómeno e incluso el avance de la
propia ciencia.
El concepto crítico en el proceso de solución de problemas por analogía es la transformación de
correspondencias de una estructura relacional entre un dominio familiar y uno nuevo. Estos dos
dominios deben compartir una estructura similar, aunque en otros aspectos sean diferentes.

II. Paradigma de investigación


El paradigma básico para la solución de problemas por analogía consiste en el diseño de dos sesiones
experimentales consecutivas con el fin de que se produzca la conexión entre el problema análogo
previo y el problema meta. En la primera sesión se presenta el problema análogo conjuntamente con
historietas irrelevantes, como tarea de comprensión lectora. Los sujetos leen la historieta en la que
está el problema y su solución, y luego contestan a una serie de preguntas.
A continuación se presenta el Problema de la Fortaleza.

Apuntes de M. Goretti González completados y modificados por Marina Uned


34

Transcurrido un tiempo (oscila entre varios minutos hasta una semana) se pasa la segunda sesión en
la que los sujetos deben resolver el problema de la Radiación de Duncker 1945 como problema meta
análogo al que habían leído. El grupo control sólo pasa por esta sesión.

Los resultados, coincidiendo con los de Duncker, mostraron que el problema de la radiación resultaba
difícil de resolver: 10% del grupo control encontraron solución. 30% del grupo experimental lo
lograron mostrando haber establecido la analogía. Sin embargo, este era un incremento muy
pequeño. Cuando a los que no lo habían resuelto se les daba pistas sobre la posible relación con la
historia leída, el 75% lo resolvían. La presentación de la pista forzó el proceso de solución.

III. Complejidad en el razonamiento analógico


A continuación se presentan algunas de las explicaciones propuestas sobre la complejidad del
razonamiento analógico y cómo la solución de problemas por analogía puede entenderse como un
procedimiento de búsqueda heurística, pero entre dos representaciones del espacio del problema.
Los procesos básicos del razonamiento analógico son:
1) Acceso y recuperación de la memoria a largo plazo de la representación del problema
análogo.
2) Extrapolación de las correspondencias entre el análogo y el problema meta.
3) Transferencia y aplicación de estas correspondencias para obtener la solución.
Pueden darse otros procesos: reestructuración de representaciones, generación de reglas
y la inducción de nuevos esquemas representacionales.

La Teoría de los Esquemas de Razonamiento Pragmático añade que el razonamiento analógico se


encuentra determinado por las metas del sujeto y que los dos dominios de conocimiento deben estar
representados en un nivel óptimo de abstracción.

Apuntes de M. Goretti González completados y modificados por Marina Uned


35

La representación de una analogía en este nivel buscará maximizar el grado de


correspondencias entre ambos dominios, y así se evita un nivel muy concreto y
detallado con relaciones irrelevantes y otro nivel abstracto con omisiones de
correspondencias importantes.
Este nivel de representación (organizado jerárquicamente) consta de: un estado inicial
con subcomponentes (meta, recursos, operadores, restricciones) y un plan de
solución y resultados.
A continuación se ilustra la teoría con la analogía entre los problemas descritos antes.
A pesar de pertenecer a dominios distintos (militar y médico) comparten una estructura y solución
semejantes. El esquema representacional (tabla 8,4) consta de relaciones verticales o cadenas
causales y de correspondencias horizontales. Los componentes del estado inicial se relacionan
causalmente con el plan de solución donde la meta se convierte en resultado, los recursos lo
posibilitan y las limitaciones impiden la aplicación de otros planes alternativos.

Apuntes de M. Goretti González completados y modificados por Marina Uned


36

a. Procesos de acceso y recuperación


La dificultad para resolver este problema podría estar en los procesos de acceso y
recuperación del problema análogo. El mayor obstáculo para establecer la analogía
puede ser a pertenencia a dominios distintos. Esta disparidad entre ambos (militar y
médico) explicaría que los sujetos no estuvieran predispuestos a buscar una solución
para un problema médico en aquello que conocen sobre estrategias militares.
Keane encontró que el 88% de sujetos recuperaban un problema análogo del mismo
dominio médico, mientras que sólo el 12% lograron recuperar el análogo del dominio
militar.
La complejidad y el desafío de la investigación es el explicar cómo se tiene acceso a ese
conocimiento almacenado tan distinto al problema a resolver.

b. Procesos de transferencia y aplicación


Los procesos de transferencia y aplicación también pueden encontrar dificultad en la
adaptación del conocimiento del problema anterior al problema nuevo.
En el proceso de transferencia primero se ponen en correspondencia ambos espacios
del problema dando lugar a distintas extrapolaciones.
Ejemplo: la extrapolación entre la fortaleza y el tumor podría ser fácil porque el
papel que desempeñan es semejante. Sin embargo, la extrapolación entre las
minas y el poder destructivo de un rayo de alta intensidad resulta menos
obvia.
En la adaptación pueden surgir problemas al intentar establecer un nivel óptimo de
abstracción que permita resolver el nuevo problema con ligeras modificaciones.
Ejemplo: en el problema de la radiación se tiene que inferir la reducción de la
intensidad del rayo por su correspondencia con la división de tropas.

La solución de problemas por analogía asume una representación almacenada del problema análogo
y que el principio estructural de esta representación se comprende lo suficiente como para que se
pueda transferir y adaptarse para resolver el problema meta.

Apuntes de M. Goretti González completados y modificados por Marina Uned


37

5.1.El proceso de Transferencia Analógica


La solución de problemas por analogía se centra en las correspondencias entre problemas, pudiendo
darse una transferencia positiva y negativa. Problemas similares aparentemente pueden resolverse
de formas diferentes y otros distintos de la misma forma. Para comprender las condiciones que
facilitan el proceso de transferencia es necesario comprender el modo en que la semejanza influye en
este proceso.
Una de las distinciones más aceptadas es la diferenciación entre semejanza superficial y estructural
propuesta por Gentner 1983.
La semejanza estructural hace referencia a aspectos comunes y relevantes para la
solución del problema análogo y el problema meta.
La semejanza superficial comprende los aspectos comunes e irrelevantes que se
encuentran en los argumentos, redacción, guion y contexto de los problemas.

Por transferencia positiva se entiende el acceso, la recuperación y extrapolación de correspondencias


basados en semejanza estructural. La transferencia negativa se entiende cuando se han recuperado y
extrapolado aspectos basados en la semejanza superficial irrelevantes para la solución del problema
meta.
No obstante, la semejanza superficial puede facilitar el acceso puede facilitar el acceso
y recuperación espontánea y contribuir a la transferencia a la positiva. Algunos
estudios indican que ambas semejanzas intervienen en la recuperación aunque es la
estructural la que determina el proceso de transferencia y la aplicación de las
relaciones análogas relevantes.

Otras investigaciones manifiestan interacción entre semejanza y experiencia de los sujetos.


Los expertos utilizan más y mejor las estructuras abstractas y pueden acceder con mayor frecuencia a
los análogos por medio de la semejanza estructural. No obstante, la superficial puede interferir en el
proceso de recuperación, produciendo transferencia negativa, tanto en expertos como en novatos.
Generalmente, parece que las personas nos apoyamos en la semejanza superficial prominente para
acceder y recuperar problemas previos y potencialmente análogos. Luego nos guiamos por
semejanzas estructurales para transferir y aplicar al problema meta.
Cuando más estructuradas y conectadas sean las representaciones mayor será la probabilidad de
establecer analogías entre distintos dominios de conocimiento. Estas analogías entre dominios de
conocimientos remotos o dispares sustentan la solución creativa de los problemas, ya que suponen la
ruptura con el contexto en aras del mejor aprovechamiento de los recursos y de la adquisición de
nuevos conocimientos mejor estructurados e interrelacionados.

Apuntes de M. Goretti González completados y modificados por Marina Uned


1

Tema 9 Pensamiento en contexto


Introducción
El pensamiento en contexto se presenta en dos líneas de trabajo: una que estudia el pensamiento
cotidiano, como razonamiento informal y como argumentación. Y otra que estudia el pensamiento
en la práctica, investiga procesos inferenciales, de cálculo y de resolución de problemas en entornos
cotidianos mediados por la cultura. Algunos autores consideraban que la psicología había des-
cuidado el estudio de este tipo de pensamiento.
Definir el pensamiento informal o cotidiano entraña mucha dificultad, así como saber qué se incluye
dentro de la categoría o su relación con el pensamiento formal. Limón 2005 explica que no existe
unidad conceptual y metodológica dentro de este campo de estudio, y sí una gran variedad de
enfoques, teorías y aproximaciones.
Muestra de ello es la cantidad de conceptos que se usan para aludir al pensamiento
informal (cotidiano, no formal o práctico) y los diferentes fenómenos que se incluyen
dentro de éstos: argumentación, solución de problemas poco estructurados o la toma
de decisiones en incertidumbre, entre otros. Respecto a la metodología se aprecia
gran amplitud de procedimientos fuera de la experimentación en laboratorio.

A diferencia de los tipos de razonamiento estudiados en capítulos anteriores, el pensamiento que se


desarrolla en situaciones cotidianas no suele tener una forma lógica (deductiva o inductiva) clara.
Normalmente, ponemos en primer plano los aspectos prácticos, retóricos, argumentativos e
informales y no tanto los lógico-formales.
Se han agrupado los trabajos en dos grandes líneas:
a. Centrados en aspectos informales, retóricos y argumentativos del pensamiento
Dentro del primer grupo de trabajos, tenemos el razonamiento informal: es el
cotidiano de la vida diaria que no sigue las formas estandarizadas de la lógica
deductiva.
El pensamiento cotidiano es la construcción de modelos situacionales que permiten
representar y comprender los problemas de la vida, donde se dan además sesgos y
argumentaciones.
La argumentación es la actividad cognitiva y discursiva que se realiza cuando se da un
diálogo entre dos o más personas dándose opiniones, se rebaten, ponderan, se
justifican, se piden pruebas, se las juzga a éstas,...
Ejemplos:
El razonamiento informal está presente en escenarios como los electorales: ¿qué programa político
me parece más convincente? Las propuestas de los candidatos ¿ofrecen razones y evidencias que las
sostengan? En otras situaciones son las que se dan en los juicios cuando los jurados tienen que
organizar y sopesar pruebas, testimonios,... y luego tomar una decisión.

Apuntes de M. Goretti González completados y modificados por Marina Uned


2

También se generan y evalúan argumentos: un político defiende su programa frente a otro, ¿es
capaz de generar aseveraciones claras? ¿Puede incorporar las críticas del adversario a sus propios
argumentos y así enriquecerlos?
En estos ejemplos el pensamiento supone contemplar las razones de otros, contraponer y clarificar el
propio punto de vista, sacar conclusiones y tomar decisiones.

b. Pensamiento en la práctica
El pensamiento en la práctica hace referencia a todos aquellos que se ponen en marcha en contextos
de práctica cotidiana como los laborales, de intercambio comercial,...
Son estudios realizados desde la perspectiva socio-histórico cultural que junto con la psicocognitiva
parecen los enfoques predominantes de la actualidad. La teoría socio-histórico cultural, inspirada en
Vygotsky entiende que el pensamiento es una actividad cognitiva realizada con y a través de las
herramientas culturales entre las cuales destacan el lenguaje, sistemas de reglas, la lógica, la
matemática,...
Ejemplos:
Hay otras situaciones cotidianas donde el pensar se realiza en los contextos en los que se ejecutan
tareas prácticas como calcular precios de venta, organizar mercancías para su venta,... en este caso
el pensamiento se fundamenta alrededor de herramientas culturales (sistemas de enumeración,
procedimientos para calcular,...)

Ambas líneas se han reunido en este texto por las razones siguientes:
I. Carácter no formal del pensamiento informal
Motivo que se vincula con el carácter no-formal del pensamiento informal y las consecuencias de este
carácter cuando se define la racionalidad humana y el valor de los modelos normativos como modos
de evaluación de esa racionalidad. Es un pensamiento que se desarrolla en situaciones abiertas poco
estructuradas que no se resuelven a través de formas deductivas del pensamiento. Se pone de
relieve los aspectos retóricos, argumentativos y prácticos del pensamiento y no tanto los lógico-
formales.
Esto nos lleva a la pregunta: ¿qué tipo de pensamiento es el informal? Si no se amolda a los cánones
de la lógica, entonces ¿se trata de un pensamiento irracional? Detrás de esto, subsiste la idea clásica
adoptada en la psicología del pensamiento tradicional por la cual se entiende a la lógica deductiva
como modelo ideal y normativo del pensamiento. Este enfoque ha buscado la correspondencia (o
falta de ella) entre los modos de pensamiento de las personas y el modelo lógico deductivo.
En cambio, los estudios sobre el pensamiento en contexto muestran una aproximación descriptiva en
su estudio pues se centran en investigar cómo las personas razonan, argumentan y resuelven
problemas en situaciones poco estructuradas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


3

Estas posiciones revivan la polémica sobre la racionalidad humana y el lugar de los modelos
normativos lógicos como modelo de racionalidad. No significa que los estudios en este pensamiento
no se inspiren en modelos ideales o no reflexionen sobre el papel de estos.

II. Relación con modelos normativos lógicos


En los estudios que asumen una perspectiva retórica, informal y argumentativa, el modelo ideal de
discusión racional lo constituye la imagen de la balanza (metáfora del filósofo Leibniz – s.XVII ) la cual
indica que una creencia racional es aquella que obtenemos sopesando las creencias en los “platillos
de la razón”, lo que se traduciría en dar razones a favor y en contra de las aseveraciones, evidencias,
justificaciones,... sin atender a factores extra-lógicos (preferencias, prejuicios, presiones del entorno)
Esta imagen ideal contrasta con los resultados encontrados por la investigación
psicológica. Este desajuste entre modelo ideal y los resultados no suelen interpretarse
como déficit en el desempeño de los sujetos pues el interés está puesto en describir
cómo pensamos.

En la tradición socio-cultural (pensamiento en la práctica) la reflexión sobre el papel de los modelos


normativos y la racionalidad se plantea de otro modo: se adopta una perspectiva temporal o histórica
(historiogenética) en el estudio de los procesos cognitivos. Postula que los procesos superiores como
el pensamiento, tienen un origen socio-cultural. Su estudio debe incluir el cómo se ha originado
dentro de un contexto socio-cultural específico, mediante qué prácticas y qué herramientas, cómo ha
ido evolucionando a lo largo de la historia,...
Este tipo de estudios ha sido desarrollado, en la deducción, por Netz 1999 el cual mostró que los
procedimientos deductivos surgieron en el siglo V a.C. como producto de las prácticas cognitivas y
simbólicas realizadas por los matemáticos griegos. Situar el origen social y cultural de la deducción
permite a los psicólogos socio-culturales (Gabucio, 2002) entenderla como un modo de pensamiento
específico, contextualizado histórica y situacionalmente. Lo que a la vez, llevaría a proponer que no
puede considerarse como un proceso natural, universal y a-histórico. Por tanto la deducción no
podría ser el modelo ideal sobre el cual contrastar todas las formas de razonamiento, sino más bien
es un modo específico y concreto de razonamiento que toma sentido en el contexto de ciertas
prácticas intelectuales.

III. Metodología
El tercer motivo es de índole metodológico. La investigación experimental realizada en el laboratorio
psicológico (tareas descontextualizadas y artificiales) no resulta suficiente para el estudio de este
campo. Se ha tenido que utilizar técnicas y metodologías capaces de estudiar situaciones que sean lo
más cercanas y parecidas a las que las personas realizan cotidianamente con estructuras, materiales,
instrucciones e interacciones similares (validez ecológica).

Apuntes de M. Goretti González completados y modificados por Marina Uned


4

1. Razonamiento informal, pensamiento cotidiano y argumentación


1.1. El razonamiento informal
El adjetivo informal llama la atención sobre los aspectos no formales que se presentan en el
razonamiento. Wason y Johnson-Laird habían descrito el efecto del contenido en tareas de
razonamiento condicional señalando los aspectos extra-lógicos y su influencia en el razonamiento.
Los estudios sobre este razonamiento sostienen que es limitado entender la racionalidad humana en
función de su mayor o menor adecuación a los modelos normativos, pues no considera la gran
diversidad del pensamiento humano. Este razonamiento informal intenta superar las limitaciones de
la lógica formal proponiendo estudio en situaciones donde la lógica formal no configura ni las
conclusiones ni los procedimientos y son los factores lingüísticos, contextuales, pragmáticos e incluso
epistémicos los que sirven para llegar a una inferencia, argumentación o toma de decisión. Así es por
lo que el pensamiento informal adopta formas retóricas especiales donde se justifican y exponen
razones a favor y/o en contra de alguna conclusión o se delibera sobre algún tema controvertido.

Voss, Perkins y Segal 1991 definen el pensamiento informal en función de los tipos de situación en
los que ocurre y según sus características.
Es aquel que ocurre en situaciones cotidianas, cuando se ha de elegir a quién votar,
cuando se sopesa dónde ir de vacaciones,... Está presente en el diagnóstico médico,
argumentos legales, relaciones internacionales.
En cuanto a las características, incluye procesos de justificación de creencias, de
explicación de observaciones y de deliberación, incorporando argumentos no definidos
según la lógica formal deductiva.

I. Diferenciación entre argumentos o razonamientos informales y deductivos

a. Raíces filosóficas
El razonamiento informal tiene su origen en la retórica de Aristóteles, en cambio el
formal de la lógica aristotélica (lógica deductiva).

b. Forma de razonamiento
Uno deductivo consta de dos premisas y una conclusión, definida su relación por reglas
formales que garantizan su validez. Pueden incluso tomar una forma simbólica, vacía
de contenido o información sobre el mundo.

Apuntes de M. Goretti González completados y modificados por Marina Uned


5

En los informales se agrega o quita premisas según el conocimiento del razonador,


con el cumplimiento de algunos requisitos de solidez y consistencia que den soporte y
coherencia a la conclusión obtenida. La solidez y consistencia se sigue de:
Evaluar si las razones son aceptables o verdaderas,
Evaluar en qué medida las razones apoyan a la conclusión,
Analizar en qué medida se han tenido en cuenta argumentos contrarios a la
conclusión.
Por tanto el contenido de este razonamiento es indisociable de la forma y del contexto
de intercambio, diálogo y/o discusión en que ocurre.

c. Puntos de vista sobre un asunto


En el informal se pueden tener varios puntos de vista siendo incluso entre ellos
incompatibles, pero todos plausibles según las evidencias y razones que lo apoyen. No
se encaran desde una perspectiva única asumida a priori. En vez de tratarse de
razonamiento lineal (de premisas a conclusión) es un esquema ramificado donde se
incorporan nuevos argumentos.
Contrasta con el razonamiento deductivo donde una sola perspectiva se presenta de
antemano en las premisas. Por eso se dan limitaciones en su forma lógica, lo que hace
que se resuelvan linealmente.

Apuntes de M. Goretti González completados y modificados por Marina Uned


6

II. Conclusión
En definitiva, como explican Voss, Perkins y Segal, el razonamiento informal consiste en un
razonamiento que se da en variadas formas, todas no deductivas y que ocurre durante el desarrollo
de tareas cotidianas.
Sigue habiendo mucha controversia e investigación sobre la posibilidad concreta de diferenciarlos
cuando alguien razona, por lo que hay autores que proponen estudiar la relación y la interacción
entre ambos tipos de razonamiento.

1.2. El pensamiento cotidiano como modelado de escenarios y argumentación


1.2.1. La construcción de modelos situacionales y la aparición de sesgos en el pensamiento
cotidiano
Perkins y col han estudiado cómo razonamos cotidianamente, qué sesgos aparecen al razonar, la
relación con la inteligencia general y los modos de mejorar los aspectos disposicionales y habilidades
de pensamiento cotidiano.
Para este autor, el pensamiento cotidiano elabora modelos de situación (modelos situacionales).
Estas situaciones representadas pueden ser reales o hipotéticas, pero casi siempre presentan un
carácter abierto, múltiple y dilemático.
Ejemplo: “Problema de Perkins”
Preguntaban si el aumento de presupuesto en la educación pública llevaría a una
mejora en el servicio. Frente a este asunto, las personas elaboraban modelos
situacionales imaginando uno o más escenarios empleando su conocimiento causal,
intencional y de sentido común. Las evaluaban y tomaban una o varias posiciones
frente a ella.
Los escenarios construidos aparecen vinculados a argumentos basados en razones y evidencias.
Pueden estar orientados a apoyar el modelo construido, favoreciendo el modelo del razonador, o
siendo contrarios a éstos, aportando puntos de vista diferentes. Los contra-argumentos pueden
provenir del interlocutor y del propio razonador (entra particularmente en un proceso de
deliberación o evaluación de argumentos contrapuestos).
Un buen razonador podría elaborar un mapa más o menos complejo sobre el asunto sopesando
razones a favor y en contra.
Ejemplo: Problema de Perkins”
Pueden darse razones que apoyan la idea de que más dinero ayuda a mejorar la
educación pública y razones que creen que ese efecto no se producirá o que la
educación se puede mejorar a través de otros programas. Es evidente que los
escenarios construidos podrían estar sesgados por el punto de vista del sujeto o
incompletos si el razonador carece de conocimientos sobre el asunto.

Apuntes de M. Goretti González completados y modificados por Marina Uned


7

I. Sesgos y errores: paradigma


Para comprender los errores y sesgos en el pensamiento cotidiano Perkins aplicó un procedimiento
en tres fases:
a. Fases
1) Se les pedía a los sujetos que dieran su opinión espontánea sobre un tema (Si
aumentar el presupuesto de la educación pública mejoraría su calidad). Debían
emitir el grado de confianza que tenían en su opinión y grado de interés en el
asunto.
2) Recogidas las opiniones, se les instruía a poder completarlas y escribirlas.
3) Los investigadores tenían el objetivo de apoyar explícitamente la producción de
argumentos. Daban orientaciones metacognitivas como señalar la necesidad
de completar opiniones parciales, dar razones a favor y en contra, y de hacer
una evaluación imparcial de argumentos propios y ajenos. Se completó con
pruebas de inteligencia verbal para ver si correlacionaban con el pensamiento
cotidiano.
b. Análisis de datos
Los datos se analizaron de diferentes formas:
– Contar los argumentos producidos a favor del escenario propio (de mi lado) y
argumentos del otro lado.
– Se evaluó la calidad de cada argumento en dos dimensiones:
- Justificación que se ofrecía para el argumento a favor.
- Forma en que se trataba el argumento en contra (escala de 0 pobre a 4
completo).
c. Resultados
Los resultados indicaron cómo se lleva a cabo el pensamiento cotidiano y los sesgos
que aparecen.
Razonando en la vida cotidiana, construimos casi siempre escenarios incompletos y
sesgados, caracterizados sobre todo por el sesgo del punto de vista propio,
constituyéndose más como la norma que como la excepción.
Se encontró además que los participantes tenían grandes dificultades para producir
argumentos complejos y equilibrados en contextos cotidianos.

Apuntes de M. Goretti González completados y modificados por Marina Uned


8

II. Sesgos: diferencia en el pensamiento formal


Estos sesgos pueden diferenciarse de los que ocurren en el pensamiento formal.
Un escenario construido desde un solo punto de vista estará sesgado siempre, ya que las perspectivas
diferentes resultan relevantes y necesarias para moldear adecuadamente la situación. En cambio es
irrelevante e innecesario en el razonamiento formal: las premisas contienen toda la información
necesaria para obtener la conclusión.
Un argumento bien construido lógicamente con un sólo punto de vista constituye una demostración
desde el punto de vista formal. Perkins asegura que los sesgos y la construcción de escenarios
incompletos o fragmentarios en los razonamientos cotidianos son debilidades (pero no debilidades
formales).

III. Tipos de debilidades y procesos relacionados


a. Hipótesis 1: motivación e interés Perkins y col
La dificultad para producir escenarios completos y argumentalmente equilibrados,
podría relacionarse con la motivación (escaso interés de alguno de los temas: índole
social, económico, político,...). Sin embargo, los participantes se habían considerado
medianamente interesados.
Cuando se analizó la relación entre interés y desempeño se observó que no existía
correlación significativa entre una y otra variable.
Otros resultados indican que si las personas muestran un interés previo al tema,
considerado este controvertido, desarrollan un modelo situacional más elaborado.
La influencia de la motivación sobre la calidad de los razonamientos cotidianos sigue
estando abierta a estudio y debate.

b. Hipótesis 2: relación entre inteligencia y razonamiento cotidiano Perkins


Perkins obtiene un resultado interesante por su potencial derivación a la educación,
clínica,...
Se muestra que aquellos sujetos que puntúan más alto en inteligencia producen más
cantidad de argumentos “de su lado” y más completos. Sin embargo no se obtienen
correlaciones entre inteligencia y producción de argumentos “del otro lado”.
Por tanto, esto evidencia que los recursos cognitivos los empleamos en buscar más
argumentos que apoyen nuestras ideas que el querer explorarlas profunda y
equitativamente.
Perkins y su equipo desarrolla una investigación vinculada a la enseñanza del pensamiento, en el
marco del Proyecto Zero de la Universidad de Harvard. Se profundiza sobre el pensamiento cotidiano
y se propone un marco teórico: el modelo triádico.

Apuntes de M. Goretti González completados y modificados por Marina Uned


9

1.2.2. La enseñanza del pensamiento: aspectos metacognitivos y disposicionales


En algunos de los trabajos de Perkins y col se propone reforzar las habilidades metacognitivas
(reflexión sobre el propio pensar que implica una perspectiva epistemológica particular) y los
aspectos disposicionales mas generales (hábitos de pensamiento y disposición del sujeto a deliberar y
reflexionar cuando cree que la situación lo estima).
Perkins 1991 desarrolló un estudio donde se daban indicaciones precisas a los participantes para que
generaran varias razones posibles y que atendieran a diversas perspectivas para fomentar las
habilidades de metacognición.
Resultados:
Los resultados indicaron un aumento de las razones “del otro lado” con un crecimiento
del 150%, por lo que se considera que si se reciben orientaciones adecuadas, se es
capaz de atender a los di- versos matices de los problemas y de modelar las
situaciones de un modo más completo.

En cambio, cuando se estudió comparativamente programas para la enseñanza del pensamiento los
resultados no fueron evidentes.
El autor seleccionó varias modalidades de enseñanza (debates en clases de instituto,
programa para desarrollar habilidades generales de pensamiento en clase de Arte,
curso en Escuela de Educación donde se daba razonamiento exploratorio y curso de
Escuela de Leyes). A todos se les orientaba para que atendieran a la multiplicidad de
perspectivas. Solo los dos primeros mostraron mejoras en el razonamiento cotidiano.

La clave para el éxito parece estar en que los programas promuevan habilidades metacognitivas
específicas para razonar.
Estudio 1:
Un estudio pedía a los participantes que dieran todas las razones que se les ocurriera a
favor y/o en contra de un determinado problema, luego añadían que tenían que
pensar razones para sostener la conclusión contraria aún sin estar de acuerdo.
Como respuesta a este andamiaje metacognitivo, aumentó en un 700% los
argumentos “del otro lado” y un 109% los de “mi lado”, inhibiendo la aparición de
sesgos y de argumentos incompletos.
Estudio 2:
En otro estudio se comprobó que estas habilidades podían incorporarse de modo
efectivo en las estrategias estables de los sujetos a través de un programa de formación
específico. Una vez pasado por esa experiencia formativa podían recurrir a estrategias
metacognitivas sin la guía externa del experto.

Apuntes de M. Goretti González completados y modificados por Marina Uned


10

La mejora de las estrategias metacognitivas ayuda a lograr un cambio de perspectiva centrado en


cómo elaborar modelos adecuados y completos. Esto modifica la propia manera de pensar,
abandonando la idea del “tiene sentido para mí” pasando a sostener una epistemología crítica.
La epistemología del “tiene sentido para mí” es una idea ingenua, entendida unilateralmente, simple
y conforme con las propias creencias. Los problemas se abordan desde una visión simplista y pobre
y admiten una solución basada en R únicas o a lo sumo contrapuestas, pero no ambas.
Este individuo abunda en razones que refuerzan sus ideas previas y construye un
modelo con el cual sintoniza. No hay un esfuerzo espontaneo por buscar argumentos
del otro lado que desestabilicen las propias creencias.
Los problemas pensados desde una epistemología crítica se entienden como dilemáticos (múltiples
perspectivas relativas, provisionales y no absolutas).
Se pone en evidencia cuando el razonador contrasta su conocimiento recurriendo a
diversas fuentes y experiencias y cuando busca activamente las inconsistencias de su
punto de vista. Sabe cómo pensar más razones e imaginar contraargumentos, a la vez
que su desempeño se acompaña de afectos positivos hacia la objetividad y el “libre
juego” de razones.

En trabajos más recientes, Perkins, ha relacionado el “pensar bien” con los aspectos disposicionales
del pensamiento. Propone un enfoque triádico del pensamiento formado por una capacidad general
y dos disposiciones:
Capacidad general de desarrollar pensamiento: facultad (no disposición) para
pensar eficazmente sobre un tema de forma sostenida dando explicaciones
alternativas a explicaciones causales propuestas
Agudeza intelectual: (disposición) correcta percepción de las ocasiones que
requieren pensamiento y no ignorarlas.
Inclinación: disposición que muestra una persona a invertir esfuerzos en meditar
diferentes temas, lo que se relaciona con la curiosidad, importancia del tema,
hábitos, perseverancia,...
Estos dos aspectos disposicionales explican esto las diferencias individuales en
solución de problemas y toma de decisiones.
Los tres elementos de la tríada se articulan en el proceso de pensamiento pero pueden ser
distinguidos analítica y empíricamente para comprender mejor el proceso de pensamiento. La
distinción entre agudeza intelectual e inclinación permite comprender situaciones en las que un
pensador percibe que una situación requiere pensamiento creativo y sin embargo, renuncia a
hacerlo.

Apuntes de M. Goretti González completados y modificados por Marina Uned


11

¿Cuáles serían las estrategias educativas para desarrollar los aspectos disposicionales?
Según Ritchhart 2002, los maestros que crean disposiciones en sus estudiantes son aquellos que
utilizan la cultura de la clase para favorecer el pensamiento. El pensamiento no es un contenido a
enseñar sino un hábito que se pone en práctica en múltiples ocasiones. Identificó algunos elementos
de estas prácticas educativas:
Agudeza visual:
Oportunidades que daban a los estudiantes para elegir y autoevaluar su pensamiento,
Aliento a la autonomía,
Independencia intelectual y tiempo para pensar.
El cultivo de la inclinación al pensamiento se hacía de varias formas: explícitas (dando importancia a
la curiosidad, la indagación y el jugar con las ideas) e implícitas (modelado del profesor al mostrarse
él mismo entusiasmado con alguna reflexión, fundamental en el desarrollo de la inclinación).
Los docentes también atendían al desarrollo de la capacidad de pensar, instaurando rutinas de
pensamiento:
Tormentas de ideas – a nivel grupal o individual- que favorece apertura y flexibilidad
mental.
Pregunta habitual acerca de “¿por qué?” para promover la explicación del propio
pensamiento.
Adoptar una posición para que asumieran regularmente diferentes posiciones.

La participación en ambientes que incentivan la curiosidad, dar razones, buscar evidencias para
apoyar sus creencias y el disfrute de la propia actividad cognitiva, engendran un proceso de
orientación e interiorización que aumenta las capacidades y disposiciones para el pensamiento.

1.3. Los procesos de la argumentación.


Kuhn critica a la psicología del pensamiento clásica que estudia los aspectos lógicos del razona-
miento descuidando componentes retóricos y argumentativos. Señala que muchas investigaciones
se centran en conocer qué piensan los sujetos sobre problemas sociales o económicos (v.g. Paro)
descuidando el cómo se desarrolla esa actividad de pensamiento.
La autora investiga cómo realizamos el proceso de argumentación, cómo se contempla el punto de
vista propio y ajeno,... cómo se desarrollan las habilidades de argumentación y cómo estas
habilidades se relacionan con la metacognición y creencias epistemológicas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


12

La autora afirma que la argumentación forma parte de un proceso discursivo basado en el diálogo.
Persigue dos objetivos:
- detectar los argumentos dados por un oponente y usarlos a favor de la propia
argumentación, y
- determinar la posición del oponente para descubrir vacíos o errores que
puedan ser aprovechados para contra-argumentar.
Como Perkins 2001, considera que a los razonadores, sobre todo jóvenes, les resulta muy difícil
prestar atención a los argumentos opuestos. Se centran en los que refuerzan y apoyan la propia
posición, por tanto, los argumentadores noveles descuidan el otro aspecto de la argumentación:
prestar atención a las razones del oponente y utilizar estrategias para influir en ellas.
Por ello Kuhn y col han tratado de identificar las habilidades para conseguir una buena
argumentación y cumplir los objetos mencionados, han descrito el proceso y las claves para mejorar
las habilidades de pensamiento argumentativo.

1.3.1. Habilidades de argumentación


I. Estudio de Khun y col
Kuhn y col indagan en uno de sus estudios en los argumentos espontáneos que dan adolescentes y
adultos sobre la pena de muerte y los cambios que se registran en el grupo, posteriormente a la
condición experimental.
a. Muestra y participantes
Se formaron 2 grupos experimentales (adolescentes y adultos) y dos de control.
Dentro de cada uno se trabajaba en parejas.
b. Procedimiento
Participaron en una serie de 5 discusiones semanales en las que debían compartir y
debatir sus argumentos a favor y en contra de la pena de muerte. Se cambiaban las
parejas para promover el intercambio de argumentos. El objetivo era llegar a
consenso.
El grupo control no participaba en esas discusiones semanales.
c. Medidas
Se realizó pre-test en los que completaban una escala de 13 ítems valorando
diferentes opiniones sobre el tema. El punto medio indicaba equilibrio entre ambas
posiciones extremas. Una vez valorados los ítems, los sujetos argumentaban por
escrito su elección.
En el post-test, 6 semanas después, los grupos completaron la misma tarea y valoraron
si el participar en el estudio había favorecido un cambio de perspectiva.

Apuntes de M. Goretti González completados y modificados por Marina Uned


13

Los argumentos del pre- test se clasificaban según razones funcionales (las que aludían
a utilidad o conveniencia de pena de muerte – complejas) o no funcionales (otros
aspectos aludidos). Otro grupo era el que mencionaba a emociones (afirmaciones sin
justificar que aludían a aspectos morales).
Otra dimensión era la estructuración de los argumentos (listas o estructura integrada)
y, otros en donde se acompañaban los argumentos de datos o evidencias.
Luego se analizaron aspectos metacognitivos referidos a la propia argumentación o
referidos a otras personas (yo conozco a otras personas que darían otra opinión, pero
ésta es la mía).
d. Resultados

Cambios cualitativos observados en los argumentos del pre – test y del post – test

- de opinión formada a no formada.


- de no argumentar a hacerlo.
- de argumentos no funcionales y no justificados a argumentos funcionales.
- de los de “un solo lado” a de “ambos”.
- presentación de evidencias, y
- la introducción de aspectos metacognitivos.
No todos los argumentos tenían los mismos tipos de cambios, por lo que se crearon 4 categorías:
1) Todos los cambios en una dirección progresiva (funcionales, justificaciones, razones y/o
aspectos metacognitivos)
2) Todos los cambios regresivos (no se introdujeron mejoras)
3) Cambios tanto progresivos como regresivos
4) No hubo cambios.
Las parejas del grupo experimental mostraron un patrón de cambios progresivos mientras que el
grupo control los otros tres tipos de cambios. Estas proporciones se dieron en el grupo de adultos y
de jóvenes.

Cambios cuantitativos entre el pre- test y el post-test

Incremento o disminución de la cantidad de argumentos dados en el pretest y el post- test.


Los grupos experimentales mostraron más cantidad de cambios. Los producidos eran de varios tipos:
de neutrales a moderados y de polarizados a moderados.
En general, los sujetos creían haber cambiado mucho más de lo que realmente lo habían hecho
(cambio reportado mayor que el realizado).

Apuntes de M. Goretti González completados y modificados por Marina Uned


14

Cambios en las habilidades de argumentación

En el grupo experimental se evidenciaban cambios en las habilidades de argumentación mientras que


en el grupo de control no se observaron y, por el contrario, empeoraron algunos aspectos de la
argumentación que mejoraron en el experimental.
La mejora no se dio por igual, aunque sin patrón claro de mejor argumentación:
Los adolescentes pasaron de considerar argumentos de “un lado” a tener de “ambos”,
incorporaron incluso nuevos que les permitieron cambiar sus opiniones y mostraron
tener habilidades metacognitivas.
Los adultos registraron cambios limitados: de argumentos de “un lado” a de “ambos” y
la construcción de funcionales justificados.

La edad y la madurez cognitiva parecen influir en los cambios registrados.

Los adultos se muestran menos dispuestos a cambiar y los adolescentes cambian con
más frecuencia. Aunque debe matizarse esto pues los adolescentes del grupo control
fueron menos permeables a los cambios.
Otra diferencia de la V edad es que los adultos además se mostraron más hábiles en el manejo
simultáneo de múltiples alternativas a favor y en contra; y los adolescentes muestran poca eficacia en
ello y no progresan igual que los adultos con la intervención experimental. Diferencia basada en la
demanda cognitiva que implica pensar a la vez en diferentes opciones. Ambos grupos, sin embargo,
igualan los resultados cuando la forma es simple y solo se dan dos razones.

Aparición de nuevos argumentos.

Argumentos no mencionados en el pre-test que aparecían en el post-test. Una de las hipótesis es que
el proceso de confrontación y de diálogo era el medio que permitía la elaboración de nuevos
argumentos.
Se indagó:
- Si los nuevos argumentos aparecen en parejas que están de acuerdo o en desacuerdo en
los argumentos a favor o en contra de la condena de muerte  sí, los nuevos argumentos
surgen de los diálogos entre los participantes.
- ¿Quién introducía los nuevos argumentos? El que los menciona en el post-test o su
compañero  introducidos por los participantes que luego los mencionan en el post-test.
Kuhn y col 1997 encuentran que las habilidades de argumentación mejoran por el intercambio activo
y prolongado entre varios. Los cambios muestran no ser acusados revelando gran estabilidad de las
opiniones entre el pre-test y el post-test. Muchos no cambian de idea y si lo hacen, es porque
suavizan sus posiciones extremas a moderadas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


15

¿Qué otras habilidades se han desarrollado en el contexto del diálogo promovido por esta
investigación?
Este intercambio no sólo aporta nuevos argumentos sino que obliga a los participantes a esforzarse
por articular mejor sus argumentos.
Ejemplo: Alicia “justificaba” la pena de muerte (acto punitivo por crimen cometido). Le
preguntan los otros por esa justificación como concepto, y entonces comienza a
definir criterios ante su respuesta, mencionándolos como nuevos elementos que
amplían su respuesta del post-test.
También se investigó la evolución gradual de un argumento de simple a complejo dentro del diálogo.
Ejemplo: María -”Si nosotros tuviéramos que apretar la palanca de la silla eléctrica,
nos lo pensaríamos dos veces”. No es un argumento en sí, pero revela la opinión de
María. En el post – test se reafirma: “Con la pena se comete el mismo crimen que se
está castigando”. El enriquecimiento del argumento se da por el intercambio con el
interlocutor que le sugiere que apelar a los sentimientos no es argumentar bien.
Entre los adolescentes además parecían tomar conciencia metacognitiva durante los intercambios:
Ejemplo: Teresa: -”Estoy pensando esto, pero al mismo tiempo dudo porque hay
varias razones por las cuales también estoy en contra”. Para llegar a esta
argumentación, se han sopesado varias razones y abundantes referencias a la actitud
metacognitiva.

1.3.2. Argumentación, metacognición y creencias epistemológicas


La metacognición juega un papel importante en la argumentación compleja y en el reconocimiento
de considerar otros puntos de vista. Esto es así porque implica una reflexión acerca de la propia
actividad de pensar y de conocer. Son reflexiones que ocurren, por ejemplo, cuando se justifican los
cambios de perspectiva o deliberaciones sobre algún aspecto.
Se relaciona así con las creencias epistemológicas. Estas creencias se refieren a las que sostienen
sobre qué es el conocimiento y cómo se construye.
Si una persona cree que el conocimiento es absoluto, el juego argumental y el
pensamiento crítico es innecesario. En cambio, si se cree que la realidad no es
directamente cognoscible, sino a través de los juicios y conceptos que desarrollamos
para hacerla comprensible, se tendrá una concepción evaluativa del conocimiento. Se
entenderá que hay distintos puntos de vista, que pueden evaluarse en función de los
argumentos que se elaboren, el marco conceptual y las pruebas empíricas.
Las creencias epistemológicas están sometidas a un proceso de desarrollo de más simple (absolutista)
a más complejo (evaluativo). Proceso este que se relaciona con el desarrollo cognitivo y con el área
de conocimiento sobre el que se reflexiona. (Parece más sencillo llegar a creencias evaluativas sobre
el conocimiento del mundo social que del mundo físico)

Apuntes de M. Goretti González completados y modificados por Marina Uned


16

Kuhn entiende que el “pensar” se desarrolla en contextos retóricos y argumentativos que exigen la
consideración conjunta de varios puntos de vista, propios y del otro. Expone que lo que diferencia a
los buenos pensadores de los no tan buenos, es la habilidad para percibir la importancia de
considerar el punto de vista del oponente.

Resumen del apartado 1 página 421.

2. Pensamiento en la práctica
Esta perspectiva se inspira en la psicología socio-histórico cultural de corte vigotskiano.
I. Contexto
Según Sylvia Scribner 2002 el pensamiento se desarrolla siempre en un contexto, ya sea en un
laboratorio o en una situación cotidiana donde se toma decisión o se realiza tarea laboral. No es un
proceso interno únicamente, sino que se produce cuando se hacen cosas con un motivo u objetivo.
Desde la perspectiva cultural y socio-histórica de inspiración vygotskiana, el pensamiento se
encuentra situado en contextos de práctica (escuela, trabajo, vida cotidiana,...y laboratorio de
psicología).
II. Herramientas culturales
La psicología cultural entiende también que el pensamiento se apoya en y es producto del uso que las
personas hacen de las herramientas culturales materiales y simbólicas (lápices, ordenadores, lenguaje,
símbolos...) presentes en los contextos de práctica e interacción.
El pensamiento como proceso cognitivo no podría realizarse sin la mediación de las
herramientas culturales.
La relación entre los procesos cognitivos y las herramientas culturales tiene una dimensión histórica
o temporal. A lo largo de la historia han surgido diferentes herramientas simbólicas que permitieron
la explicitación y los diferentes modos de pensar.
Ejemplo: según Gabucio (2008) el origen de la deducción.
Fueron los matemáticos griegos quienes desarrollaron en el siglo V a.C un tipo de
notación (diagramas) y de lenguajes matemáticos, al tiempo que realizaban prácticas
muy específicas, como el pensamiento en voz alta. Esta combinación de recursos
simbólicos con procedimientos especializados en una comunidad concreta dio lugar a
la aparición de prácticas cognitivas singulares.
El pensamiento deductivo es el producto de prácticas sociales y culturales y la cuna
donde se originaron formas de pensamiento abstracto y descontextualizado. Hoy nos
apoyamos en esquemas silogísticos para obtener una conclusión por el hecho de que
estos esquemas surgieron previamente en el seno de prácticas sociales y culturales
donde tenían sentido.

Apuntes de M. Goretti González completados y modificados por Marina Uned


17

Ello modifica el modo en que se entiende la relación entre lógica y psicología, ya que el interés está
puesto en investigar cómo se piensa y no en la adecuación de las formas psicológicas de
pensamiento a la lógica. Es por lo que los modelos deductivos u otros sistematizados por la lógica o la
matemática no podían oficiar de modelos normativos “externos” al propio pensamiento ya que la
deducción es una forma específica de organización de la capacidad inferencial mediada por
herramientas culturales y cognitivas que regulan de un modo específico el pensamiento.
Gabucio 2008 apuntaba que los seres humanos hemos aprendido a deducir gracias a los modelos
normativos, siendo éstos herramientas culturales que participan en la regulación del pensamiento,
pero sin representar un ideal adecuado para todas las situaciones y contextos.

2.1. El pensamiento desde la perspectiva vigostkiana. Los estudios pioneros.


Lev Vygostki y Alexander Luria inauguraron una novedosa forma de entender y estudiar la actividad
psicológica. Inspirados en la filosofía materialista marxista entendieron que toda actividad psicológica
se realiza con la mediación de los productos de la cultura: lenguaje, escritura, sistemas notacionales.
Propusieron el estudio de los diversos planos de la génesis de la actividad psicológica: filogénesis,
historiogénesis, ontogénesis y microgénesis.

El lenguaje es fundamental en la formación de la conciencia y sus procesos, entre ellos el


pensamiento. Para poder comprender el papel mediador de éste Vygostky recurrió a la explicación
ontogenética. Se pretende entender con esta explicación la relación entre mediación semiótica,
conciencia y pensamiento.
Esta relación se genera por la mediación que introduce el lenguaje, como sistema
semiótico, en la relación intersubjetiva del bebe con el adulto cuidador. Es un
instrumento de comunicación y de creación de conciencia.
Proceso que se produce según lo llamado por el autor: ley de doble formación.
Primero es instrumento de comunicación intersubjetiva (el cuidador habla al bebé)
para luego ser herramienta de comunicación intrasubjetiva [el niño se apropia de los
usos y estructura del lenguaje y lo dirige hacia otros (instrumento de comunicación) y
hacia sí mismo (forma de conciencia)].
Así luego, el lenguaje cuya función primordial era la comunicación interpersonal se
convierte en instrumento de comunicación interna como pensamiento que regula la
conducta propia.
Vygostki y Luria, en un trabajo clásico, estudian el valor que los contextos de interacción, la práctica
social compartida y las herramientas culturales toman en la estructuración del pensamiento: cómo
cambia cuando se modifican los elementos contextuales (cultura analfabeta y cultura letrada,
nuevas formas económicas de producción y modos de vida) y elementos culturales (instrucción
escolar, escritura, cálculo,...).

Apuntes de M. Goretti González completados y modificados por Marina Uned


18

Interesados por estudiarlo realizaron en Uzbekistán, que se había convertido en un “laboratorio


natural” para comprobar las hipótesis socio-culturales. Se trataba de comunidades rurales con
economía de subsistencia, generalmente analfabetas y con formas de organización social
prácticamente feudales que habían sido incluidas en programas de formación, alfabetización y de
colectivización de la tierra y de los modos de producción de la revolución soviética. Así, se incluían
grupos con formas tradicionales de producción y otros grupos incorporados a las nuevas formas.
El estudio fue muy amplio pues incluyó los procesos de percepción, abstracción y generalización,
deducción y conclusión, razonamiento y resolución de problemas, imaginación y finalmente,
autoanálisis y autoconciencia.
Vamos a exponer los estudios de abstracción y generalización.
I. Abstracción y generalización
Pusieron a prueba una serie de hipótesis: entre ellas una por la cual vinculaban las variaciones entre
los grupos mencionadas con formas diferenciales de generalización y abstracción, base para los
procesos de formación de conceptos.
a. Muestra: tres grupos
Sujetos analfabetos que conservaban sus modos tradicionales de organización económica y
social,
Sujetos con escaso nivel de instrucción y que comenzaban a participar en experiencias de
colectivización económica, y
Sujetos con una mayor escolarización y alfabetización que participaban en experiencias
económicas colectivas.
b. Procedimiento
Se ofrecía a los participantes una representación de cuatro objetos: 3 de la misma
categoría.
Tenían que decir qué objetos eran “parecidos”; “se pueden juntar en grupo”;
“nombrar con una palabra en común” y cuál “no sirve”; “no puede ser nombrado con
palabra igual a los otros”.
Los objetos escogidos se clasificaban según dos principios: podían formar parte de
una categoría lógica o formar parte de una situación práctica.
Ejemplo: en martillo, sierra, leño, hacha habría dos posibilidades de
clasificación (herramientas, o bien por la asimilación a una situación práctica
de “cosas para cortar y serrar la leña”).
Se buscaba encontrar los modos en que los sujetos organizaban la información
categorial.

Apuntes de M. Goretti González completados y modificados por Marina Uned


19

c. Resultados
El primer resultado que observaron es que en muchas ocasiones las instrucciones que
daban a reunir los objetos análogos eran entendidas y usadas por los sujetos como
reunir los objetos adecuados para una finalidad concreta. Cambiaron la tarea teórica
por práctica.
La tarea de agrupar objetos según un mismo indicio era realizada muy
frecuentemente como una operación de asociación de los objetos partiendo de
su introducción en una determinada situación práctica. El martillo no era
portadora de características abstractas que pudieran servir de base para la
agrupación. Cuando esto se contraargumentaba e indicaba que el” leño” debía
ir aparte porque no estaba hecho del mismo material que el martillo, sierra o
hacha, o que éstas eran herramientas y leño no, los sujetos contestaban que
ésos no eran aspectos esenciales y que quien lo pensara no comprendía nada.
Los investigadores encontraron que los analfabetos operaban reproduciendo la
situación práctica. Los sujetos que tenían poca escolaridad realizaban la tarea
utilizando ambas tendencias de generalización: práctica y teórica, predominando la
primera. Y finalmente, para los que habían terminado algún curso escolar, la
clasificación según una categoría teórica fue accesible y predominante.
Entonces, los resultados evidencian que en el primer grupo, el principio
práctico predomina de forma absoluta entre los sujetos que viven en zonas
alejadas de los centros urbanos, son analfabetos y conservan formas feudales
de organización social y económica.
En el segundo grupo, (algún curso de escolarización y participaban en trabajo
social en economías colectivas) se daba un cierto escalón de transición, donde
actúa el principio de clasificación categorial junto con el situacional.
En el tercer grupo, los sujetos identifican el criterio que les permite organizar
los conceptos de la serie bajo etiqueta más general. Esos criterios pueden ser
funcionales o cualquier otro que indique semejanza, y se derivan de las
exigencias de organización de la alfabetización y las formas colectivas del
trabajo.
d. Explicación
La explicación de los autores es que el pensamiento no ha cambiado desde dentro sino
que se transforma en la medida en que cambian también las formas de producción
que imponen nuevas formas de organización social.
Las organizaciones taxonómicas son relevantes en el contexto escolar, donde prima el
saber abstracto y descontextualizado, pero no en un medio práctico.
El pensamiento va cambiando junto con y en relación mutua con el contexto, con los
motivos para la acción que las personas encuentran en esos contextos y las
herramientas culturales de que disponen.

Apuntes de M. Goretti González completados y modificados por Marina Uned


20

2.2. El estudio del pensamiento en la práctica desde la psicología cultural.


Algunas precisiones metodológicas.
A partir de los estudios anteriores se abrió campo de estudio del pensamiento en tareas cotidianas
con gran interés por caracterizar y describir los contextos en los que estas actividades se desarrollan
y los procesos psicológicos intervinientes.
La mayoría de estas investigaciones han recurrido a métodos como la observación sistemática de
situaciones cotidianas, la observación participante, la recogida de datos a través de entrevistas en
profundidad, caracterización de entornos de actividad,... con el fin de investigar de forma
ecológicamente válida.
I. Validez ecológica
El concepto de validez ecológica tiene una gran tradición en psicología y fue Bronfenbrener quien lo
puso en un primer plano. Para este autor, las investigaciones psicológicas ecológicamente válidas
deben atender al menos a tres aspectos:
Mantener la integridad de las situaciones reales a investigar.
Deben ser fieles a los contextos culturales y sociales más amplios de los que provienen
los sujetos.
Deben mantener cierta consistencia entre la definición de la situación hecha por los
participantes y la realizada por los investigadores, así como con los resultados y las
manipulaciones experimentales: correspondencia entre el punto de vista de los sujetos
y las definiciones conceptuales implícitas y explícitas de los investigadores.
Se refiere al modo de diseñar la investigación, de seleccionar los participantes, las situaciones de
recogida de datos y al modo de analizar los datos. Desde la psicología cultural una investigación
psicológica no puede hacer inferencias sobre actividades cognitivas cotidianas basándose en la
utilización de situaciones experimentales escasamente significativas para las personas y poco
vinculadas con los contextos.
Muchas de las investigaciones siguientes responden a esta metodología que incluye estudios de
campo, experimentales y cuasi-experimentales y estudios experimentales con tareas cognitivas
estándares.

Apuntes de M. Goretti González completados y modificados por Marina Uned


21

2.3. El pensamiento en la práctica laboral. Un estudio en la fábrica de lácteos.


Sylvia Scribner destaca que el marco de práctica de la cognición más relevante en la vida adulta es el
trabajo (niños-escolar). Por ello ha elegido los ambientes laborales para estudiar el pensamiento y la
memoria en prácticas rutinarias.
Su enfoque busca “descubrir las propiedades funcionales del pensamiento en acción observando los
fenómenos reales en condiciones naturales. Observar las prácticas de la cognición que se llevan a
cabo en el trabajo, es entender que cada puesto representa una práctica y que las tareas específicas
son acciones orientadas a objetivos, y todo ello enmarcado en un sistema de producción que le da
formas y límites específicos”.

Scribner y col realizaron un estudio en planta de lácteos. Durante 6 meses observaron a diferentes
trabajadores en sus tareas.
Estudiaron dos grupos diferentes:
El grupo de pre-cargadores (preparaban pedidos para ser distribuidos) que realizaban
una tarea exigente consistente en mover grandes pesos y preparar los pedidos en
breve tiempo.
El grupo de los conductores transportaban la carga a los supermercados y cobraban la
mercancía.
El procedimiento en ambos casos incluyó primera fase de observación de tareas y una segunda de
sesiones experimentales. Objetivo era precisar el papel de la experiencia laboral en las habilidades
de memoria y pensamiento. Se trabajó con expertos en sus tareas y con novatos trabajadores de la
planta, y novatos ajenos (oficinistas y estudiantes).
I. Pre-cargadores
a. Tareas desempeñadas en el puesto de trabajo
Preparaban las órdenes de productos vendidos a supermercados y tiendas. Recibían pedidos en
impresos u órdenes de salida donde constaban las cantidades de cada producto. Esta tarea era
sencilla pero debía realizarse con prisa y precisión.
Requería una manipulación de información simbólica por la discrepancia existente entre las unidades
de medida en que se expresaban los pedidos (cuarto litro, medio litro, litro,...) y las unidades
manejadas dentro de la fábrica: 4 litros, 8 medios o 16 cuartos de litro.
Había que convertir las unidades del pedido en cantidades de cajas a preparar. La conversión se hacía
automáticamente pero como resultado de ella el precargador recibía órdenes en las que debía
preparar una caja más tantas unidades o bien una caja menos algunas. Por ejemplo: una caja + 6
unidades (1 +6) o dos cajas menos 7 unidades (2 -7).

Apuntes de M. Goretti González completados y modificados por Marina Uned


22

b. Observación de los investigadores


Parecía interesante estudiar las estrategias que aplicaban frente a estas órdenes mixtas.
Los investigadores observaron atentamente el proceso de preparación de pedidos: las órdenes, la
disposición de la mercancía cuando iniciaba el trabajo, la organización de las cajas durante la
preparación y por último, los pedidos ya preparados.
Los trabajadores mostraban variedad de estrategias para el mismo pedido: soluciones literales o bien,
interpretaban la orden según la disponibilidad de la mercancía (claves contextuales dadas por la
presencia de cajas medio llenas o vaciar). Estas estrategias que implicaban transformaciones sobre la
información contenida en la orden se denominaban estrategias no literales.
Los investigadores postularon que la transformación de los datos del pedido con cierto esfuerzo
mental se relacionaba con el ahorro de esfuerzo físico, medido por las unidades de producto que
debían trasladar. Estrategias óptimas eran las que suponían una transformación de los datos para
menor esfuerzo físico.
Los precargadores utilizaron 30 veces estrategias literales, de las cuales 25 eran estrategias óptimas y
utilizaron 23 veces no literales, todas estas óptimas.

c. Fase experimental
Luego se pasó a la fase experimental, donde se compararon las estrategias aplicadas a cien
problemas que simulaban a los de la fábrica, por parte de los precargadores expertos y los grupos
novatos. Se recreó el ambiente material y se incluyeron las órdenes de pedido, cajas llenas, vacías y
parciales.

d. Resultados
Los precargadores eligieron estrategias no literales óptimas el 70% de las veces.
El factor experiencia en el trabajo de la fábrica distinguió desempeño de los trabajadores de la planta
frente a los novatos. Los conductores y otros de la planta no quedaron muy atrás de los
precargadores. Los oficinistas ajenos a la fábrica usaron estrategias no literales óptimas sólo en la
mitad de los problemas. Los estudiantes aplicaron soluciones literales, lo que les llevó a hacer un gran
esfuerzo físico, y en estos dos últimos grupos se empleó más técnicas de conteo.
Los precargadores apenas contaban y aplicaban en su conjunto estrategias más holísticas con un gran
peso de la configuración perceptiva.
Esa facilitación de la preparación se observaba en la fase de pre-movimiento, cuando tenían que
decidir cómo hacer el pedido basándose en las cajas que tenían y con ello, qué estrategia iban a usar.
El tiempo invertido en tomar decisiones fue menor entre los precargadores que entre los novatos,
pues los primeros se apoyaban en la información perceptiva y los segundos contaban y usaban
técnicas enumerativas más lentas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


23

c. Conclusiones
Para los autores el pensamiento es un proceso funcional que se lleva a cabo en forma conjunta con
otros procesos como percepción y memoria. La interacción se manifiesta en distintas tareas
(transformar operaciones, cálculos, inventar procedimientos) y se implanta en escenarios concretos,
repletos de soportes materiales y simbólicos (listas de pedidos, transformaciones de las unidades y
las pautas organizadoras). Todo ello forma parte de los marcos de práctica de la cognición.

II. Conductores
a. Tareas desempeñadas en el puesto de trabajo
Scribner y col estudiaron a los conductores que transportaban y ponían el precio a los pedidos que
servían. Debían cumplir con su trabajo en jornadas que comenzaban temprano y hacerlo con cierta
eficacia para no dejar ningún pedido sin entregar. Además eran responsables de cobrar la mercancía.
Poner los precios a los recibos de entrega era un trabajo simbólico y abstracto. Calculaban precio por
la cantidad de cada producto a entregar y del total de la entrega. La planta les daba una lista de
precios expresada en unidades por lo que el cálculo resultaba directo y sencillo: multiplicar cada
precio unitario por unidades transportadas para hallar el precio total.

b. Observación de los investigadores


Los conductores habían inventado algunas formas más sencillas para realizar las cuentas basándose en
la caja como unidad. 4L = 8 ½ L = 16 ¼ L La caja de leche se convertía en medidor simbólico, y se
usaba a modo similar a como lo hacían los precargadores.
Estos usaban las cajas como un mediador perceptivo que facilitaba las sumas y las restas en la
preparación de los pedidos y los conductores como mediador simbólico.
Ejemplo: el señor B había entregado 32 cuartos de leche con chocolate y en vez de
multiplicar el precio por cantidad, usaba la “chuleta” donde tenía precio de caja. Cada
caja contenía 16 cuartos, así sólo tenía que sumar el precio de dos cajas.
Scribner 2002 comentaba sobre un veterano que usaba hasta 25 estrategias de cálculo diferentes
por cajas y unidades para resolver los problemas de cálculo.
La importancia de ello es la comprobación de que la estrategia de la caja se usaba siempre y cuando
facilitara el cálculo e implicara menos esfuerzo mental y esto sucedía cuando los conductores
tenían los precios por caja. Cuando se llevó a cabo la tarea en laboratorio se observó que los
conductores usaban tanto la estrategia del precio de caja como la del precio unitario.
Los estudiantes se aferraban a la estrategia del precio literal por unidad y cuando adoptaban la
estrategia por caja la usaban en todos los casos suponiendo un gran esfuerzo de cálculo.

Apuntes de M. Goretti González completados y modificados por Marina Uned


24

III. Conclusiones
a. Plano metodológico
En el plano metodológico la observación no está reñida con la experimentación, sino que puede
precederla. Las observaciones de tareas permite describirlas mejor en términos materiales,
organizacionales y cognitivos, para luego replicarlas en laboratorio y profundizar en su estudio.
b. Pensamiento en acción o práctico
En cuanto al pensamiento en acción o práctico entienden que las estrategias de solución dependen
del conocimiento que se despliega en el lugar de trabajo. Las habilidades de pensamiento no están
libres de contenido, sino que se forman y dependen de las condiciones físicas, simbólicas y
organizacionales en las que se desarrollan.
c. Pensamiento experto
El pensamiento experto se vincula con la experiencia en el trabajo. Una de las características de los
expertos fue la variabilidad demostrada en las estrategias de resolución de problemas, que a primera
vista parecían muy estereotipados. Encontraban la operación adecuada “a la ocasión”.
Afirmaban que “el pensamiento práctico experto en el trabajo está orientado a objetivos y varía de
manera adaptativa con las propiedades cambiantes de los problemas y las condiciones cambiantes
en el ambiente de la tarea”.

Los estudios cognitivos del trabajo comienzan a perfilarse y sus conclusiones son parciales. Aun así es
importante estudiarlos en estos contextos, pues contribuyen a la configuración de formas de
pensamiento flexibles y creativas.

2.4. Pensamiento matemático y cultura.


2.4.1. “En la vida diez, en la escuela cero”. Pensamiento matemático en contexto.
Carraher, Carraher y Schliemann 1991 estudiaron cómo los niños brasileños que vendían cocos, y
otras frutas de forma ambulante, utilizaban las matemáticas en la calle y en la escuela.
I. Muestra
Entrevistaron y observaron a niños de entre 9 y 15 años que asistían irregularmente a la escuela,
mientras vendían mercancías.

II. Procedimiento
Dividieron el estudio en 2 etapas con el fin de estudiar el uso diferencial del razonamiento
matemático en el contexto cotidiano y en el escolar. Se respondieron 63 preguntas de matemáticas
en examen informal y 99 en el formal.

Apuntes de M. Goretti González completados y modificados por Marina Uned


25

a. Primera etapa: examen informal


Se dirigían a los niños mientras vendían y actuaban, haciéndoles preguntas sobre las
transacciones comerciales mientras estas ocurrían real o simuladas. Iban preguntando
sobre los cálculos que los niños iban haciendo.
Recuerda al método al clínico-crítico piagetiano en el cual el examinador plantea una
situación, explora las respuestas infantiles espontáneas, pide justificación de las
mismas y ocasionalmente cotraargumenta.
Los intercambios fueron grabados y se tomaron notas de las R infantiles.
Ejemplo: El cliente entrevistador pidió 10 cocos y la cuenta. El niño lo calculó como
“Tres son 105, más tres son 210 (pausa) faltan cuatro. Es... (pausa) 315... parece que
es 350”. Este cálculo puede representarse de varias maneras, donde 35 x 10 es el más
habitual desde el punto de vista escolar.
Se había resuelto mediante subproblemas, demostrando así su competencia para
utilizar otro proceder diferente al escolar.
b. Segunda etapa: examen formal
En examen formal se ofrecieron problemas en forma de operaciones aritméticas y se
presentaron problemas de tipo escolar:
Ejemplo: María compró x plátanos, cada plátano costaba tantos cruzeiros ¿cuánto
dinero gastó?

III. Resultados
Los resultados indicaron una influencia decisiva del contexto en la solución de problemas
matemáticos.
Los niños y adolescentes respondieron correctamente al 98,2% de los cálculos y problemas
informales, mientras que sólo lo hicieron el 36,8% de los cálculos y el 73,7% de los problemas
formales. El desempeño en problemas escolares fue también alto.
A los niños vendedores les resultaba más fácil resolver problemas escolares que incluyeran un
escenario, que cálculos aislados formados por una secuencia de pasos arbitrarios de contenido
simbólico.
Muchos de los algoritmos que se enseñaban en la escuela podían presentar obstáculos en el
razonamiento y no parecían tener mucho sentido para los vendedores.
IV. Conclusiones
a. Múltiples procedimientos para resolver correctamente los problemas
Existen múltiples procedimientos para resolver correctamente los problemas
planteados, aunque éstos no coincidan con los enseñados en la escuela.

Apuntes de M. Goretti González completados y modificados por Marina Uned


26

Se destacó la descomposición del problema, por la cual el sujeto juntaba las


respuestas de subproblemas más sencillos y componiendo la solución. Lo interesante
es que esos chunking de resultados se basaban en formas culturales previamente
establecidas como podía ser el vender tres cocos a un precio determinado.

b. Los usos de las matemáticas en la calle y en la escuela no eran los mismos


Los autores concluyeron que los usos de las matemáticas en la calle y en la escuela no
eran los mismos. Las diferencias se notaban (1) en los objetivos de las tareas, (2) en
las herramientas utilizadas y (3) en las restricciones mostradas.
(1) En la calle los objetivos eran hacer cálculo correcto para no perder dinero. En la
escuela se les pedía que utilizaran símbolos y procedimientos que debían aplicarse
a problemas escolares carentes de significado vital.
(2) En cuanto a las herramientas culturales y cognitivas, en la venta callejera se
utilizaba la oralidad y cálculos mentales en lugar de escritura de representación
matemática (ambientes formales).
(3) Las restricciones de la venta callejera estaban presentes en el uso del dinero real,
en el cuidado de la tarea y velocidad, en la invención y el uso de procedimientos;
en la escuela restringidas por el uso de símbolos, cumplimiento de procedimientos
estandarizados, cultura escolar,...

c. Distintas fuentes de experiencia


También se concluyó que las diferencias se daban por las distintas fuentes de experiencia, específicas
en cada caso, de los contextos formales e informales. Se extienden a los modos en que se sanciona y
evalúa el conocimiento en diferentes entornos organizacionales donde se desarrolla el pensamiento
matemático.

Se muestra enorme interrelación que existe entre la cognición, texto social, cultural, económico,...
Los autores ponen de manifiesto la funcionalidad que adoptan estos procesos diferencialmente
implantados en contextos formales o informales.

2.4.2. Resolución de problemas y matemáticas cotidianas.


Saxe se interesó por el estudio del pensamiento matemático en contexto.
Él asume que los cambios cognitivos (individuales y en el uso de diferentes herramientas culturales)
se producen en el interjuego de la actividad individual y colectiva.

Apuntes de M. Goretti González completados y modificados por Marina Uned


27

Los cambios cognitivos se dan en las actuaciones concretas de un individuo, quien


utiliza unas herramientas culturales que están presentes históricamente en su cultura
y medio material.
Estas herramientas forman parte de actividades regladas por la actuación del grupo
(uso del dinero) lo que supone un marco que las restringe pero que puede ser
rebasado en la actuación concreta de un sujeto y/o grupo cultural, por medio de la
innovación y cambio de los usos canónicos.

Saxe estudia la génesis y los procesos de cambio que se dan en prácticas matemáticas entendidas, al
mismo tiempo, como individuales y sociales.

I. Estudio de Saxe 2002, 2004


El autor estudió la actividad realizada por los niños y adolescentes de entre 10 y 12 años que vendían
dulces en las calles. Analiza la comprensión matemática surgida a lo largo de todo el circuito de
compra-venta de dulces.
El supuesto teórico que anima este estudio es la interacción entre las formas de comprensión
matemáticas y las prácticas económicas en las que participan.
Buscaba (a) caracterizar las prácticas de ventas y las operaciones requeridas para ello, (b) descubrir
las características de las matemáticas utilizadas por los niños y (b) comparar las matemáticas
utilizadas por los no vendedores urbanos y rurales.

a. Práctica económica de los niños vendedores


El análisis etnográfico de los niños vendedores reveló un ciclo de cuatro fases:
Fase de compra: el niño adquiría los dulces al por mayor en cajas de 30 a 100
unidades.

Apuntes de M. Goretti González completados y modificados por Marina Uned


28

Fase de preparación para vender: el vendedor modificaba el precio pagado al mayor y


transformaba en precio de las piezas en venta.
Fase de venta: el vendedor vendía sus bienes a los consumidores.
Fase de preparación para la compra: volver a proveerse de mercancías eligiendo la
tienda al mayor que ofreciera mejor precio.
Según el autor, este ciclo muestra diferentes objetivos matemáticos que se inscriben en una variedad
de procesos macrosociales (manejo de la inflación) y microsociales (asignación de precios al menudeo
e interacciones sociales).
Macrosociales
Inflación: cuando se realizó el estudio la inflación en Brasil era del 25% y los
vendedores no tenían estabilidad en el precio de compra al mayor, por tanto estaban
obligados a manejar valores numéricos inflados, de muchas cifras y con billetes que
continuamente perdían valor y cambiaban de denominación.
Microsociales
Se referían a los modos en que los vendedores desarrollaban convenciones que
facilitaban su tarea (ofrecer cierta cantidad de unidades a un precio establecido). Esto
reducía la complejidad de la venta pero obligaba a comparar proporciones en dulces y
ganancias. Los de más edad ofrecían sus dulces en más de una proporción: 2
chocolates por 500 y 5 por 1000.
Las estrategias sociales mediaban en el establecimiento y desarrollo de los objetivos
matemáticos:
(1) Minimizar la competencia: en la fase de preparación para la venta, tras algunas
negociaciones acordaban los precios de venta para minimizar la competencia
entre ellos.
(2) Preparación de paquetes: Preparaban paquetes de una cierta cantidad de
unidades para la venta por un precio determinado. Lo más habitual eran 3
unidades x 1000. Estos niños, la mayoría analfabetos, vaciaban la caja de dulces y
volvían a rellenarla con los agrupamientos de 3.
(3) Contar la ganancia final: Los niños con más experiencia también hacían “vaciar
para volver a llenar” como modo de contar la ganancia final. Al meter 3 x 1 dentro,
contaban “uno”, “dos”,... según los grupos preparados, tanto ganaban. Contaba el
valor de lo que iba a ganar usando el numeral como índice del precio.
(4) Concluir la fase de preparación: La regla cultural que usaban para dar por
concluida esta fase de preparación para la venta era que con la venta debían
obtener el doble del precio de compra de la caja. Si la proporción, que provenía de
una convención usada en los medios rurales para calcular los precios de venta, se
cumplía, salían a la calle a hacer su trabajo. Si no se cumplía recalculaban. Los que
tenían más experiencia lo hacían con la proporción unidad-precio, bajando o

Apuntes de M. Goretti González completados y modificados por Marina Uned


29

subiendo la cantidad de 3 por 1000. En la fase de venta, podía surgir el regateo y


entonces los vendedores debían recalcular las proporciones de los precios.
(5) Ayuda de los mayoristas: pedían a los empleados de las tiendas mayoristas quienes
leían los precios de las cajas de dulces que incluían varios ceros por la inflación.
Les ayudaban a calcular el precio de venta minorista.
Conclusiones
La primera conclusión a la que llega Saxe 2002 es que las operaciones matemáticas
requeridas en la venta callejera de dulces son la representación de valores numéricos
grandes, el cálculo aritmético con esos valores y la comparación de proporciones.

b. Características de la matemática e influencia de la actividad de venta en el carácter de las


comprensiones matemáticas
Saxe entrevistó a niños que apenas tenían instrucción escolar y que formaban tres grupos:
vendedores de 10 a 12 años, niños no vendedores con la misma edad y comunidad, y niños no
vendedores de comunidad rural.
Se les presentó problemas de (1) representación de números, (2) aritméticos y (3) de comparación de
proporciones.
Todos manejaban el dinero. Sin embargo, sólo los vendedores se topaban a diario con billetes de
varios valores y con problemas de proporciones, por lo que se esperaba encontrar diferencias entre
estos grupos en la matemática que manejaban.
Resultados
(1) Todos los niños entrevistados mostraron un conocimiento numérico correcto siempre y
cuando pudieran apoyarse en aspectos figurativos y numéricos de los billetes, pero no leyeron
correctamente las cifras cuando se presentaban simplemente escritas.
Sí fueron capaces de reconocer monedas y billetes de menor y mayor valor estableciendo
relaciones ordinales y cardinales entre ellos.
(2) Los niños vendedores realizaron mejor tareas aritméticas sencillas como sumar un fajo de 12
billetes a 8600 cruzeiros o restar una cantidad menor a otra mayor. La estrategia utilizada era
reorganizar los billetes para formar montones y luego hacer la suma o resta total.

(3) Los problemas de proporciones eran poco habituales en la matemática cotidiana de los niños
rurales, bastante habitual en los urbanos no vendedores y muy habituales en los niños
vendedores. Tenían que determinar en cuál de dos proporciones obtendrían más ganancias y
debían justificar sus respuestas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


30

Los vendedores calcularon y justificaron mejor, típicamente calculaban un término común que
les permitía establecer una comparación y así calcular correctamente la proporción y la
ganancia.

Conclusiones
La comprensión matemática de estos niños se iba generando a medida que
participaban en prácticas culturales como la venta de dulces. A la vez, esta práctica se
inscribía y se entrelazaba con un marco-cultural y económico más general y con otros
más locales como los provistos por la interacción social, la convención de las compras
y ventas, el cálculo de precios,...
La actividad cognitiva de resolver problemas está guiada por unos objetivos concretos,
vinculados a cada una de las fases de compra-venta. Esa actividad aparece dentro de
una práctica social concreta como es la venta callejera, reglada previamente por la
vida social, la cultura, la economía,...

II. Estudio Saxe comunidad de Oksapmin


Saxe realizó estudio en la comunidad de Oksapmin investigando los usos de sistemas notacionales
matemáticos y el cálculo en dos períodos, uno de ellos comprendido entre 1978-80 y el otro en 2001.
Resultaron de esto una serie de estudios que muestran el interjuego entre los cambios históricos en
las prácticas de intercambio económico, escolarización y las consiguientes transformaciones en las
prácticas matemáticas individuales.

La comunidad de Oksapmin había


vivido hasta los años 1940 en relativo
aislamiento y su economía consistía en
el cultivo de alimentos, crianza y caza
de animales pequeños.
Utilizaban exclusivamente un sistema
para contar basado en 27 partes del
cuerpo cada una con una diferente
denominación y gestos para referirse a
ella.

Una de las dificultades es que la parte corporal que representa al 21 recibe el mismo nombre que la
29, lo cual el contexto de uso y gesto que se utilice son fundamentales para comprenderlo.
Este sistema se conservó sin cambios hasta mediados de los 60 cuando las comunidades comenzaron
a tener más intercambios económicos con otras comunidades.

Apuntes de M. Goretti González completados y modificados por Marina Uned


31

Otro elemento fue la creciente escolarización. En el 2001 los niños y jóvenes estaban casi todos
escolarizados mientras que los adultos habían recibido unos pocos cursos.
En la década de los 60 se introducía el dinero en las comunidades repercutiendo en la forma en que
los Oksapmin cuentan y usan actualmente el dinero. (Usan números Pidgin).
En los 80, Saxe documentó cómo el sistema de conteo Oksapmin, basado en el cuerpo, era utilizado
en transacciones comerciales en las primeras tiendas abiertas en la comunidad y en la resolución de
problemas matemáticos. Era usos novedosos aplicados a problemas aritméticos nuevos y complejos.
Eran complejas relaciones entre los sistemas de conteo tradicionales y la relación con la libra y la Kina.
Aquellos que necesitaban utilizar dinero relacionaban la equivalencia entre 20 chelines – 1libra con
el sistema tradicional. También relacionaron el nuevo sistema decimal de los Kina con los chelines y
las libras.
En definitiva, los cambios con los que debían lidiar los Oksapmin eran:
Paso del uso de una numeración tradicional del cuerpo a la numeración Pidgin, similar
a la del inglés (uno, dos, tres,...)
Uso de la moneda kina, que relacionaban con la antigua libra y los chelines.

En ese escenario de diferentes instrumentos culturales y de formas de práctica provocadas por los
cambios económicos y culturales, Saxe y Esmonde 2004 realizaron dos estudios encaminados a
caracterizar el uso de sistemas de conteo y del dinero, que hacían un grupo de personas Oksapmin
de diferentes edades y niveles de escolarización cuando realizaban compras pequeñas.

Apuntes de M. Goretti González completados y modificados por Marina Uned


32

a. Primer estudio
En siete tiendas de la comunidad con nueve empleados registraron una serie de detalles de la
compra y fueron analizados en función de datos demográficos y escolares. Se trabajó con 4 grupos
de edad y 3 grupos de escolarización.
Los resultados obtenidos en el primer estudio fueron un uso exclusivo del sistema tradicional en los
ancianos y un uso variado de sistemas de conteo en los otros grupos (oksapmin, pidgin y mixto).
b. Segundo estudio
El segundo estudio buscaba indagar aún más en algunos aspectos de las transacciones comerciales
para ver su práctica diferencial por parte de los diferentes grupos estudiados.
Seleccionados algunos casos de venta en cada una de las tiendas, se entrevistó en profundidad al
vendedor pocas horas después de haber realizado la transacción. Se hablaba de 4 situaciones que
variaban en dos condiciones: compradores ancianos o adultos mayores y si tenían o no el cambio
exacto para pagar 2x2. En ambas condiciones el comprador contaba con 5 kinas o bien en billetes y
monedas (cambio exacto) o un solo billete de 5 kina (cambio no exacto).
Resultados
Los vendedores decían que los ancianos solían comprar producto a producto mientras que los adultos
mayores compraban los dos o más que necesitaban de una sola vez. Tanto si tenían el cambio justo
como si tenían que recibir cambio.
En cuanto a la transacción, los vendedores calculaban el precio y el cambio de forma conjunta con los
adultos. Al recibir el cambio lo solían contar y antes de comprar establecían lo que iban a pagar por
su compra. En los ancianos compraban de forma secuencial. Cuando no tenían el dinero exacto y
necesitaban dos cosas aplicaban dos estrategias: compraban uno, pagaban y con el cambio
compraban el otro; o preguntaban cuánto recibirían por el cambio en la compra del primer producto
y entonces sabían si podían comprar más o no.

En ambos estudios los vendedores tenían gran flexibilidad para manejarse con diferentes
numeraciones y prácticas de compra-venta. Por eso Saxe y Esmonde 2004 afirman que los
vendedores se han convertido en verdaderos administradores o agentes que facilitan y median en las
prácticas de compra. Anticipan y simplifican las compras sobre todo de las de los ancianos.
En los intercambios en las tiendas, ambos, empleados vendedores y compradores, hacen uso de
diferentes sistemas notacionales de artefactos físicos y diferentes lenguajes de representación como
recursos para llevar adelante las transacciones (se da laboratorio natural). Estos estudios muestran
que el pensamiento en la práctica está situado en un escenario cultural y social, lleno de
restricciones y de posibilidades. La actividad concreta de pensar se realiza junto con otros y está
profundamente interrelacionada con las herramientas culturales, prácticas sociales, reglas, sistemas
notacionales,...
Resumen apartado página 447.

Apuntes de M. Goretti González completados y modificados por Marina Uned

También podría gustarte