Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Psico Pensamiento
Psico Pensamiento
1. INTRODUCCIÓN
El razonamiento es uno de los procesos cognitivos básicos por medio del cual utilizamos y
aplicamos el conocimiento. Si no hiciéramos inferencias tendríamos que depender de un
conocimiento específico y puntual para cada una de las situaciones a las que hiciéramos frente.
Por ejemplo: un compañero nos dice que su hijo de 8 años es más alto que su sobrino de nueve,
pero más bajo que su hija de siete. De ello podemos inferir:
– su hijo e hija son más altos que su sobrino,
– su hija de 7 años es la más alta de los tres, (inferencia deductiva) Puede ser válido o no.
– su sobrino de nueve años es el más bajo de los tres,
– su sobrino es el mayor en edad,
– sus hijos y su sobrino son primos,
– su sobrino es muy bajito, (ejemplo de inferencia inductiva) Es probable o no.
– sus hijos son muy altos.
Podemos decir que el razonamiento permite “pasar de una información a otra”, dado que a partir
del conocimiento de uno o más resultados que se encuentren relacionados podemos derivar o
alcanzar una conclusión. Siguiendo con el ejemplo podemos ver cómo de unos enunciados se
deriva a la conclusión y como en otros casos se ha ido más allá de lo expresado en los enunciados.
Las investigaciones psicológicas sobre el proceso de razonamiento han diseñado sus tareas
experimentales de acuerdo con la formalización y el concepto de validez del análisis lógico. Los
enunciados a partir de los cuales razonamos son las premisas y el enunciado que se deriva de los
otros se denomina conclusión, formando el conjunto de éstos lo que denominamos argumentos.
Tenemos que tener claro que las conclusiones se siguen necesariamente de las premisas mientras
que en uno inductivo las premisas sugieren o apoyan la conclusión.
2. LÓGICA Y RAZONAMIENTO.
Skyrms 1986, indica que uno de los erroes más extendidos es la diferenciación entre deducción e
inducción como aquellos argumentos que proceden de lo general a lo específico para el caso de la
deducción y de lo específico a lo general para el caso de la inducción. La diferencia no se determina
por la generalidad o particularidad de sus premisas y conclusiones sino por las definiciones de
validez deductiva y de fuerza inductiva. Un argumento es válido sólo sii es imposible que su
conclusión sea falsa mientras que sus premisas son verdaderas y que un argumento inductivo es
fuerte sólo si es improbable que su conclusión sea falsa cuando sus premisas son verdaderas. En el
M.Goretti González 1
razonamiento deductivo la verdad de las premisas garantiza la verdad de las conclusiones,
mientras que en el razonamiento inductivo las conclusiones son más o menos problables
dependiendo del grado en que se encuentren apoyadas por las premisas.
El estudio de la deducción se centra en el análisis de los principios del razonamiento que son inde-
pendientes del contenido sobre el que se razona y que permiten alcanzar un razonamiento
formalmente válido. Desde sus inicios en la filosofía griega, la lógica perseguía la identificación de
unas leyes de razonamiento que fueran universales y por ello se centro en el análisis de la forma y
la estructura de los argumentos. Desde Aristóteles, la deducción era el estudio de las conexiones
entre proposiciones. Las proposiciones son enunciados en los que se afirma o niega algo y en los
que se establece una relación entre sujeto y predicado. El análisis de la deducción se centraba en
el establecimiento de conexiones encadenadas de un silogismo o grupo de silogismos por medio
de la copola “es” El argumento establece una nueva conexión entre las proposiciones a través de
un término medio que las relaciona:“Todos los A son B, Todos los B son C, luego Todos los A son C”
B es el término medio que ha permitido la conexión.
Frege a finales de siglo diecinueve, considera que las proposiciones pueden tratarse como
funciones matemáticas, desarrollando un marco de análisis más potente y flexible que la silogística
aristotélica. Es a principios del siglo veinte, cuando Whitehead y Russell , desarrollan el cálculo de
predicados y amplían el análisis de las proposiciones a otras formas relacionales que no eran la
copola “es”. Esta lógica matemática emplea símbolos por analogía con las matemáticas, logrando
así el cálculo con notación simbólica y posibilitando la operación sin la contaminación de los conte-
nidos. La deducción se entiende como el proceso mediante el cual unos enunciados se derivan de
otros de un modo puramente formal y esta derivación se realiza por la aplicación de las reglas de
deducción.
Las proposiciones se representan por letras (p,q,r,s) y los operadores (enlace) por unos simbolos
que determinan la forma de una proposición lógica. La representación simbólica de las proposicio-
nes son variables y la representación de los operadores son constantes y se corresponden con los
términos “y”, “o”, “no”, “sí,... entonces” y “si... y solo si”.
Tabla 2.1. Los términos de enlace u operadores conectan entre
Notación simbólica del cálculo proposicional dos proposiciones excepto en el témino “no” que
Tipo de Proposiciones Operador lógico actúaa sobre una. Si se han de utilizar más de un ope-
- Conjunción (y) Λ rador lógico se utilizan paréntesis para indicar el ope-
rador que domina.
- Disyunción (o) v
Algunos ejemplos:
- Negación (no) ¬ 1) “Si estoy enferma entonces estoy en la cama y veo
- Condicional (si... entonces) → la televisión”. P → (q Λ r)
2) “Si estoy enferma entonces estoy en la cama y a la
- Bi condicional (si y solo si) ↔
vez veo la televisión”. ( P →q ) Λ r
De no haber paréntesis, el operador menos fuerte es la negación, seguido de disyunción y
conjunción con la misma potencia, y por último el condicional que es el más fuerte.
M.Goretti González 2
Tabla 2.2. Reglas de Inferencia (Suppes y Hill, 1968)
1. Regla de SIMPLIFICACIÓN (S) pΛq pΛq Si las premisas son ciertas, entonces se
puede concluir “p” y se puede concluir “q”
p q
2. Regla de ADJUNCIÓN (A) p p Si ambas premisas son ciertas se pueden
q q juntar en la conclusión y el orden es
pΛq qΛp indiferente.
3. DOBLE NEGACIÓN (DN) P ¬¬ p (no no p) Doble negación:
Manuel sabe esquiar permite pasar de una premisa única a la
luego, no ocurre que Manuel no sabe esquiar ¬¬p p conclusión con la doble negación.
4. LEY DE LA ADICIÓN (LA) Aclarar que el significado de la disyunción
P q en lógica es incluyente en el sentido de que
por lo menos un miembro de la disyunción
pvq p v q es cierto y pueden serlo ambos.
Si una premisa es cierta, entonces la
disyunción de esta y otra cualquiera
también lo es.
5. LEYES CONMUTATIVAS pΛq p v q El orden de las premisas en una conjunción
y en una disyunción no altera su signifi-
qΛp q v p cado.
6. MODUS PONENDO PONENS (PP)
p→q En el condicional la proposición (p) se denomina antecedente y la (q)
p consecuente. Si hay dos premisas unidas por el condicional y se
q verifica el antecedente, entonces se puede concluir el consecuente.
7. MODUS TOLLENDO TOLLENS (TT) p→q Si hay dos premisas unidas por el
¬q condicional y se niega el consecuente,
entonces se puede concluir con la negación
¬p del antecedente.
8. MODUS TOLLENDO PONENS (TP) pvq pvq Si hay dos premisas unidas por la
¬q ¬p disyunción y se niega una de ellas,
p q entonces se puede concluir la otra premisa
9. LEY DEL SILOGISMO HIPOTÉTICO (SH) Si hay dos premisas condicionales y el antecedente de la segunda
p→q coincide con el consecuente de la primera, entonces se puede concluir
q→r con otra proposición condicional cuyo antecedente coincide con el de
p→r la primera y el consecuente con el consecuente de la segunda.
10. LEY DEL SILOGISMO DISYUNTIVO Si hay una premisa disyuntiva y 2 premisas condicionales cuyos
(SD) p vq pv q antecedentes coincidan con los miembros de la disyunción, entonces
p→r p→s se puede concluir con una disyunción cuyos miembros son los dos
q→s q→r consecuentes de las premisas condicionales.
r v s s v r
11. LEY DE LAS PROPOSICIONES Ley que ilustra como se pueden deducir dos proposiciones
BICONDICIONALES (LB) condicionales de una proposición bicondicional. Si hay una premisa
bicondicional, entonces se puede concluir que el antecedente implica
p↔q p↔q p→q el consecuente y que el consecuente implica el antecedente o la
q→p p↔q conjunción de ambos condicionales. Concluir bicondicional a partir de
p → q q → p p ↔q (p → q) Λ(q →p) una premisa en la que el antecedente implica el consecuente y otra
premisa en la que el consecuente implica al antecedente.
12. Regla de PREMISAS Una premisa se puede introducir en cualquier punto de la deducción
M.Goretti González 3
A continuación, dos ejemplos sencillos en el procedimiento de una deducción formal:
“Si sales a jugar, te pones las zapatillas de deporte. Si llevas las zapatillas de deporte, te pones el
chandal. Luego, si sales a jugar te pones el chándal”.
– La premisa primera “Si sales a jugar, entonces te pones las zapatillas de deporte” se simboliza
como A →B
– La segunda premisa “Si llevas las zapatillas de deporte, entonces te pones el chándal” se
simboliza como B→C
– La conclusión “Si sales a jugar te pones el chandal” se simboliza como A → C
– La deducción sería la siguiente:
(1) A →B P (1er paso Premisa)
(2) B→ C P (2º paso Premisa)
(3) A→ C SH 1,2 (3er paso silogismo hipotético) p → q
q→r
p →r
Segundo ejemplo:
“Si eres socio de un club de fútbol, no tienes que comprar las entradas para los partidos.
W → ¬O
Manuel va al partido del domingo y es socio del club de fútbol.
G Λ W
En consecuencia, no tiene que comprar la entrada”
¬O
– La primera premisa “Si eres socio de un club de fútbol, entonces no tienes que comprar las entradas
para los partidos” se simboliza como W → ¬O
– La segunda premisa “Manuel va al partido del domingo y es socio del club de fútbol” se simboliza como
G Λ W
– La conclusión “no tiene que comprar la entrada” se simboliza como ¬ O
– La deducción sería:
(1) W → ¬O P Los dos primeros pasos son las premisas y en el tercero se deduce W por
(2) G Λ W P la regla de simplificación en el paso 2.
(3) W S 2 (simplificación)
(4) ¬ O PP 1,3 El 4º paso, la conclusión, se deducee aplicando el modus
ponens a los pasos 1 y 3.
Se puede saber si un razonamiento deductivo es válido cuando a partir de premisas que son verdaderas se
sigue una conclusión verdadera por la aplicación de las reglas de inferencia anteriormente indicadas, pero
este conjunto de reglas no agota el nº de inferencias válidas. Para tratar cada caso de inferencia proposicio-
nal existe un método general (Tablas de verdad, Método semántico o de Teorías de modelos)
M.Goretti González 4
Se establecen todas las combinaciones posibles de los valores de verdad de las proposiciones, tanto
premisas como conclusiones y se busca alguna combinación en la que las premisas sean verdaderas y la
conclusión falsa. Si no la hay, el razonamiento válido se encontraría en la línea en la que las premisas y la
conclusión sean todas verdaderas. Ejemplo de inferencia válida de modus tollendo tollens:
p→q Las proposiciones son (p) y (q), las premisas (p → q) , y la (¬ q) y la conclusión (¬p)
¬q Se construye la tabla de verdad comenzando por asignar los valores a las proposiciones: p y q
siempre con dos valores de verdad ( V o F) La tabla es 2 x 2, y se corresponde con el nº de
¬p combinaciones posibles de los valores de verdad. El nº de posibles combinaciones de los valo-
res de verdad dependerá del nº de proposiciones (n) siendo la regla 2n
Hay que buscar la línea donde dos premisas son verdaderas y la conclusión da “falsa” para comprobar si el
argumento no es válido. De no ser así, como en nuestro ejemplo, será VÁLIDO.
Este argumento no es válido y es un error bastante frecuente del razonamiento humano. (ojo*)
Para examinar la forma lógica de la propia proposición, se utiliza el cálculo de predicados donde se
analiza la estructura interna descomponiendo una proposión en términos (se nombra un único
objeto) y predicados (aquello que se dice de los términos). Se suelen utilizar las letras F,G, H,...
(predicados) y letras x,y,z para los términos, colocándose el predicado delante del término que va
entre paréntesis. “Jaime es un estudiante” Jaime es el término (x) y “es un estudiante” es el
predicado, simbolizandose como “F(x)”.
M.Goretti González 5
proposiciones y volver a introducir los cuantificadores cuando sean necesarios. La regla de
especificación universal permite sustituir el cuantificador por cualquier término, dado que ssi la
proposición es cierta para todo, lo es para cualquier término específico.
Todos los médicos son hombres prudentes
Luis es médico
Por tanto, Luis es un hombre prudente.
La deducción:
(1) ( V x) [F(x) → G(x)] P
(2) F(/) P
(3) F(/) → G(/) especificar / para x
(4) G (/) PP 2,3 Modus ponendo ponens
En la inducción hablamos de fuerza del argumento y esto no es una cuestión de grado. Este aspec-
to se enmarca en el concepto de probabilidad que depende del apoyo empírico que aportan las
premisas para alcanzar la conclusión. Esto se ha planteado, desde su formulación, como “el
problema de la inducción” por David Hume, 1740. El problema de la inducción es que asume la
regularidad de los fenómenos observados con el fin de poder explicar hechos ya conocidos o
intentar predecir hechos aún por conocer. No llega a verificarse porque no existe garantía de que
después de un nº x de observaciones la conclusión sea más precisa, puesto que se desconoce el
tamaño del universo de acontecimientos a observación.
Un argumento inductivo es fuerte: improbable que su conclusión sea falsa si sus premisas son
verdaderas. La fuerza va a depender del grado de improbabilidad. Y este grado de fuerza inductiva
está determinado por la relación de apoyo que se estables entre premisas y conclusiones. La pro-
babilidad de las premisas y conclusiones se conoce como probabilidad epistémica porque depen-
de de nuestro conocimiento y puede variar de una persona a otra y a lo largo del tiempo en la
misma persona. Existe el riesgo de alcanzar una conclusión falsa, pero ofrecen la enorme ventaja
de permitir descubrir y predecir nueva información en función de la información conocida.
La lógica inductiva estudia las pruebas para medir la probabilidad inductiva de los argumentos y
estudia las reglas para construir argumentos inductivos fuertes. Sin embargo, no existe acuerdo
sobre la forma de medir la fuerza inductiva de un argumento, ni aceptación consensuada de las re-
glas y ni siquiera una definición precisa sobre la probabilidad inductiva.
Otra cuestión es la justificación de la inducción. Este problema se centra en determinar por qué se
consideran válidos los juicios sobre casos futuros o desconocidos. Una solución es mostrar que la
validez del razonamiento inductivo se basa en la ley de uniformidad de la naturaleza por la que se
puede suponer que el futuro será semejante al pasado, pero esto no es cierto. Francis Bacon 1620,
rechazó la aplicación de un principio general y propuso unas tablas de investigación en las que la
inducción procedía por exclusión y desestimación. Por tanto, podemos comprobar que la
inducción es una tarea mucho mas compleja que la deducción. Si se asume que la naturaleza es
uniforme, entonces el problema está en determinar cuáles son las regularidades que se pueden
proyectar a situaciones futuras. Para poder identificar las regularidades que son proyectables hace
falta determinar cuáles son los aspectos de la naturaleza que se suponen son uniformes. Esta
M.Goretti González 6
encrucijada se conoce como “el nuevo acertijo de la inducción” y el problema de la construcción
de una lógica inductiva todavía no está resuelto.
El análisis de las causas y de los efectos es un aspecto importante tanto del razonamiento
científico como del cotidiano. Si se conocen las causas se tiene control sobre los efectos, de forma
que se puede producir la causa para obtener el efecto deseado o se elimina la causa para prevenir
el efecto no deseado. David Hume propuso un conjunto de reglas para determinar la relación cau-
sal y estas nociones fueron desarrolladas por John Stuart MILL (1843) Son procedimientos para de-
terminar si una causa es suficiente o es necesaria para producir un determinado efecto, siempre
que se tenga información sobre la presencia o la ausencia de otras causas y sobre la presencia o
ausencia del efecto en estas situaciones.
Las causas son las condiciones que producen un efecto y que pueden ser suficientes, necesarias o
suficientes y necesarias. Por ejemplo:
La presencia de oxígeno es una condición necesaria para la combustión, pero no es
suficiente.
Si se quiere producir un efecto, hay que buscar las condiciones que son suficientes (el oxígeno no
serviría para producir el efecto de combustión)
Cuando se busca prevenir el efecto, entonces basta con identificar las condiciones necesarias. (Si
se quiere prevenir la combustión, se puede eliminar el oxígeno).
6 principios por los que se rigen las condiciones necesarias y suficientes (Skyrms, 1986):
– 1. Si A es una condición suficiente para B, entonces B es una condición necesaria para A.
Si una buena nota es condición suficiente para el aprendizaje, entonces el aprendizaje es
condición necesario para una buena nota. (Bueno, mejor me callo. No me enfades, no me enfades,... que lo
hecho por la optativa de 4º me tiene mosca)
– 2. Si C es una condición necesaria para D, entonces D es una condición suficiente para C.
Si el oxígeno es condición necesaria para la combustión, entonces la combustión es condición
suficiente para el oxígeno.
– 3. Si A es una condición suficiente para B, entonces la ausencia de B es suficiente para la
ausencia de A.
Si una buena nota es suficiente para el aprendizaje, entonces la ausencia de aprendizaje es
condición suficiente para la ausencia de una buena nota. (¡aceptable!)
– 4. Si C es una condición necesaria para D, entonces la ausencia de D es condición necesaria
para la ausencia de C.
Si el oxígeno es condición necesaria para la combustión, entonces la ausencia de combustión
es una condición necesaria para la ausencia de oxígeno.
– 5. Si A es una condición suficiente para B, entonces la ausencia de A es una condición
necesaria para la ausencia de B.
Si una buena nota es condición suficiente para el aprendizaje, entonces la ausencia de una
buena nota es condición necesaria para la ausencia de aprendizaje. Pues como que no...
– 6. Si C es una condición necesaria para D, entonces la ausencia de C es una condición
suficiente para la ausencia de D.
Si el oxígeno es condición necesaria para la combustión, entonces la ausencia de oxígeno es
condición suficiente para la ausencia de combustión.
M.Goretti González 7
Si A es sufi para B, entonces B es necesaria para A Estas 2 van a la inversa.
Si C es necesaria para D, entonces D es sufi para C “” “”
Si A es sufi para B, entonces ausente B es sufi para ausente A Entran las ausencias en juego
Si C es necesaria para D, entonces ausente D es necesaria para C “” “” “”
Los métodos de Mill son unos procedimientos para descubrir y comprobar las condiciones que son
suficientes y/o necesarias para la ocurrencia de un efecto. John Stuart Mill, propone cinco métodos
para guiar la búsqueda científica de las regularidades: consiste en clasificar en unas tablas las ob-
servaciones sobre la presencia y ausencia de las supuestas condiciones para la ocurrencia de un
fenómeno con el fin de eliminar aquellas circunstancias que no varían regularmente con el fenó-
meno observado.
La propiedad o efecto que se analiza se llama propiedad condicionada (E) y las propiedades que
son condiciones necesarias o suficientes de una propiedad condicionada son propiedades
condicionantes.
Ocurrencia 1 P P P A P
Ocurrencia 2 P A P P P
Ocurrencia 3 A P P A P
M.Goretti González 8
– El método Inverso de concordancia se utiliza para identificar las condiciones SUFICIENTES. Se
busca en número determinado de ocurrencias las propiedades condicionantes que se
encuentran AUSENTES cuando la propiedad condicionada también lo está, y se trata de ir eli-
minando aquellas propiedades condicionantes que se encuentren presentes cuando el
fenómeno está ausente.
El principio de eliminación es: “una propiedad que se encuentre presente cuando el efecto
está ausente no puede ser una condición suficiente”. Seguidamente vemos que la propiedad D
es la condición SUFICIENTE, puesto que la A se ha eliminado en primera ocurrencia, B en la 2ª y
C en la tercera.
Ocurrencia 1 P A A A A
Ocurrencia 2 A P A A A
Ocurrencia 3 P A P A A
– El método de Diferencia se utiliza para identificar las condiciones SUFICIENTES pero cuando
las propiedades condicionantes se encuentren PRESENTES en una ocurrencias determinada
(señalada por *) . En el ejemplo 1 la propiedad condicionante D es la condición suficiente. Pero
en el ejemplo 2, en la ocurrencia determinada * no se puede identificar una única condición
suficiente (en A,C y D son 3 P) y por tanto se procede a la observación de más ocurrencias de
acuerdo con el principio de eliminación del método inverso de concordancia. Requiere la ob-
servación de dos ocurrencias mínimo: una en la que el fenómeno investigado esté presente y
otra en la que falte. La propiedad B sólo se elimina en ocurrencia particular *, y en la 1 y según
método inverso de concordancia sse elimina la propiedad A y en la ocurrencia 2 la prop. D
De esta forma, la C se identifica como condición suficiente.
Ocurrencia * A A A P P
Ejemplo 2 -----
A B C D E
Ocurrencia * P A P P P
Ocurrencia 1 P A A A Por método A
Ocurrencia 2 A A A P INVERSO A
M.Goretti González 9
DOBLE MÉTODO DE CONCORDANCIA (Concordancia DIRECTA e INVERSA) DE MILL (SKYRMS, 1986)
POSIBLES PROPIEDADES CONDICIONANTES PROPIEDAD CONDICIONADA
A B C D E
Ocurrencia 1 P A P A Di recto P
Ocurrencia 2 A P P P Di recto P
Ocurrencia 3 A P A P Invers o A
Invers o
Ocurrencia 4 P A A A A
Ocurrencia * P A P A P
Ocurrencia 1 P A A A A
Ocurrencia 2 A P P P P
Ejemplo práctico: supongamos que en el hotel hay un huésped con intoxicación y queremos averi-
guar cuál ha sido el alimento que pudo ocasionar dicha intoxicación. Se utilizará el método
INVERSO de Concordancia y reducir así la búsqueda a dos platos a dos platos principales y a dos
postres (éste identifica la condicioón suficiente -causa- mediante la búsqueda en diferentes casos
de la ausencia tanto de las propiedades condicionantes -posibles causas- como de la propiedad
condicionada – efecto) El principio de eliminación que subyace en este método es: una propiedad
que se encuentre presente cuando el fenómeno está ausente no puede ser una condición
suficiente del fenómeno.
Método INVERSO de la Concordancia Se selecionan al azar los huéspedes
con los alimentos que se sirvieron en el hotel que comieron en el hotel y que no
Pcondte Pcondte Pcondte Pcondte Propiedad presenten síntomas. Se diseña una
condicionada tabla y se les pregunta lo que han co-
pescado carne natillas flan intoxicación mido, podemos ir eliminando las co-
Huesped 1 no si no si no midas que no son condición suficiente
Huesped 2 no si si si no para la intoxicación.
El huesped 1 nos informa de que po-
Huesped 3 no si si no no
demos eliminar la carne y flan pues
Huesped 4 no no no si no fue lo que comió. El huesped 2 nos da
el dato de que se puede eliminar las natillas pues las probó pero no está intoxicado, y los huéspe-
des 3 y 4 no nos dan más información que la que sabemos ya. Lo que encontramos es que todos
no comieron pescado y es el único alimento seleccionado al azar que éstos no han comido. Pode-
mos identificar al pescado como condición SUFICIENTE de la intoxicación. En caso de no encontrar
M.Goretti González 10
la condición suficiente, entonces tendríamos que ampliar la lista de alimentos y seguir de detecti-
ves.
Las investigaciones psicológicas se han interesado en describir y explicar estos procesos inferencia-
les basándose en la lógica. Sin embargo, los resultados experimentales obtenidos en las distintas
tareas de razonamiento deductivo e inductivo han puesto de manifiesto que existen unos sesgos o
errores sistemáticos.
Los sesgos o falacias de razonamiento se refieren a unas tendencias que son sistemáticas en el
proceso de razonamiento. Estos hacen que los sujetos comentan errores al considerar factores que
son irrelevantes para inferir. Según Evans 1989, los sesgos de razonamiento se pueden clasificar
en:
1. sesgo en la selección de la información,
2. sesgo de confirmación y
3. sesgos de contenido y contexto.
M.Goretti González 11
Por factores externos entendemos aquellos aspectos de la información que son irrelevantes para
el razonamiento y que se encuentran vinculados con el impacto que ejerce la propia presentación
de esta información.
Por factores internos se refiere a las propias restricciones o limitaciones estructurales del sistema,
a la tendencia que muestra el sistema a tener en cuenta su conocimiento particular o su sistema
de creencias en gral, y a la tendencia hacia la confirmación, interactuando con el propio conoci-
miento y el sistema de creencias.
Cuando se dice que una información es saliente se está haciendo referencia a determiandos
aspectos que sobresalen sobre los demás creando impacto sobre el sujeto (aunque no sean impor-
tantes). Por ejemplo, los anuncios publicitarios captan la atención de los consumidores haciendo
uso de lo prominente de la información cuando se presentan por medio de un modelo publicitario
o autoridad reconocida, pero que nada tiene que ver con las características del producto.
También es habitual recurrir a los números o a la tradición para presentar el producto o una pos-
tura. El mero hecho de que la mayoría consuma o asuma una postura, porque tradicionalmente se
ha consumido, influye sobre los sujetos, sin que éstos consideren la validez o fuerza de los argu-
mentos. Este impacto ejercido por la información irrelevante para el proceso de razonamiento
puede estar determinado por el interés emocional que tiene, por la concreción de los datos, por el
carácter vívido de la información, por la proximidad temporal y espacial entre los aspectos
irrelevantes de la información y el argumento o por su familiaridad.
También nos encontramos influidos por la fuente de la que provenga la información. El error de
razonamiento conocido como “argumentum ad hominem” (argumentación contra el hombre) pone
de manifiesto la importancia que se concede a la fuente de información independientemente de lo
que sostenga. Se acepta o rechaza determinada información en función de los méritos que
otorgamos a la fuente (Líderes carismáticos que ejercen influencia haciendo adeptos) Se simpatiza
con la persona o institución que la sostiene.
Es frecuente recurrir a una autoridad en la materia para defender una postura sin más evidencia
que la persona en cuestión o acreditar o desacreditar la información de una fuente por la simple
asociación con otra – en algunas ocasiones sin evidencia objetiva suficiente puede ser apropiado
confiar en esa fuente -. Sin embargo un argumento defendido por una fuente de información con
una credibilidad baja no hace que el argumento sea inválido y tampoco a la inversa.
Existen errores sistemáticos debido a la propia estructura sintáctica del problema. Por ejemplo, en
M.Goretti González 12
los problemas de silogismos categóricos se ha encontrado el efecto atmósfera y el sesgo de la
figura del silogismo. El efecto atmósfera manifiesta que la cantidad – universal o particular - o la
polaridad – afirmativa o negativa- de las premisas influyen sobre las condiciones que dan los suje-
tos. En relación con el efecto de la figura se ha encontrado que el grado de dificultad y el tipo de
conclusión dependen de la posición del término medio en cada una de las premisas.
En el sesgo de emparejamiento se observa que las respuestas de los sujetos coinciden con los
enunciados del problema de la tarea de selección de Wason (¡mi queridísimo Wason!). Se presentan 4
tarjetas que contienen el antecedente del condicional por una cara y el consecuente por la otra. La
presentación de la tarea va acompañada de un enunciado condicional en forma de regla y se pi-de
a los sujetos que giren la tarjeta o tarjetas necesarias para confirmar o falsar esa regla. Por
ejemplo, “si hay un cuadrado azul a la izquierda, entonces hay un círculo rojo a la derecha” y se pi-
de a los sujetos que comprueben si el condicional es verdadero o falso. La mayoría eligen las tarje-
tas que exhiben los dos términos del enunciado: cuadrado azul y círculo rojo.
Wason interpretó estos resultados como un sesgo hacia la confirmación de aquello que venía ex-
presado por la regla. Evans y Lynch – 1973, sostienen que este sesgo está basado en el
emparejamiento y cuestionan que ésta sea una tendencia hacia la confirmación basándose en sus
resultados con la negación de los términos. El mismo problema con términos negativos sería “Si
hay un cuadrado azul a la izquierda, entonces no hay un círculo rojo a la derecha” - negación del
consecuente – o “Si no hay un cuadrado azul a la izquierda, entonces hay un círculo rojo a la
derecha” - negación del antecedente. En este caso se observa que los sujetos eligen los términos
mencionados en la regla y no persiguen la confirmación de la misma. En el caso de la negación del
consecuente, la elección de los sujetos coincide con la falsación, y en el caso de la negación del
antecedente siguen eligiendo los mismo términos mencionados pero su elección no coincide con
las reglas de la lógica. Este sesgo de emparejamiento pone de manifiesto la relevancia que adquie-
ren los términos expresados en el condicional y las dificultades que tienen los sujetos con la nega-
ción lógica y lingüística, mostrando preferencia hacia el procesamiento de información positiva.
Tenemos que considerar primeramente la restricción estructural del propio sistema de procesa-
miento de la información. Existe la limitación asociada con la cantidad de información con la que
puede trabajar el sistema. Cuando esta información es abundante, el sistema se sobrecarga y la po-
sibilidad de error es mayor.
Tversky y Kahneman 1982, expusieron diferentes experimentos. En uno se pedía a los sujetos que
emitieran juicio sobre la frecuencia de las palabras en inglés que empezaban por “k” y las palabras
M.Goretti González 13
que tenían esta letra en tercera posición. Los sujetos valoraban como más frecuentes las palabras
que empezaban con ella que las otras, aunque en realidad en inglés son más frecuentes las que la
llevan dentro. Este resultado se debe a que nos es más fácil recuperar palabras por su letra inicial
que por las letras en otras posiciones.
En otro experimento, presentaron dos listas con la misma cantidad de nombres de personas
famosas y anónimas. Cuando se preguntaba sobre la frecuencia de los nombres, se encontró que
juzgaban como más frecuentes la de los nombres de los famosos. Estos nombres eran más fáciles
de recordar y al poder recuperar mayor número, consideraban que eran los más frecuentes.
También se ha encontrado que cuando se presenta una hipótesis irrelevante se induce a su
consideración. Por ejemplo, se describe un patrón de síntomas asociados al diagnóstico y a
continuación se presenta un caso en el que este patrón es irrelevante, los sujetos se dejarán influir
por las expectativas que ha generado la información presentada previamente (Chapman y
Chapman, 1967)
Hay casos en dnde la información relevante no se puede recuperar fácilmente y por ello se comen-
ten errores. Pero si se dispone de ella, tampoco es garantía que se seleccione. El problema clásico
de Kahneman y Tversky, 1972, sobre “el problema de los taxis” evidencia lo dicho. Se pide a los su-
jetos cuál de las dos compañías de taxis pudo haber estad involucrada en un accidente antes la
situación:
En una gran ciudad hay dos compañías de taxis con distintos colores: taxis azules y taxis verdes. Un 85% son
taxis azules y un 15% son taxix verdes. Hubo un accidente y el taxi se dio a la fuga. Un testigo asegura que el
coche era un taxi verde. En una prueba de memoria se encuentra que el testigo puede recordar
correctamente el color de los coches en un 80% de los casos y que se equivoca en el 20%
La mayoría de los sujetos consideraban que el responsable del accidente había sido un taxi verde.
Sin embargo con los datos presentados la probabilidad es mayor para el taxi azul:
0,85 x 0,20 = 0,17 azul. Existe un 85% de estos, por el 20% que pudiera ser si se ha equivocado el
amigo, nos daría 17%
0,80 x 0,15 = 0,12 verde. En este caso el 80% de las veces no se equivoca pero solo hay un 15% de
taxis verdes, y así sería probable que el 12% de posibilidades fuera el taxi verde.
A pesar de haber presentado la información relevante, los sujetos se fían más del testigo que de
los datos.
Se topa también con la relevancia. No solo debe estar disponible la información sino ser relevante
para la situación. El rendimiento mejora en las tareas cuando establecen relaciones causales. Por
ejemplo, si se dijera que el número de taxis es igual y que el 85% de los taxis que tienen accidentes
son azules, entonces los sujetos se fijan en las probabilidades a priori a la hora de dar sus respues-
tas.
Los errores de razonamiento también pueden deberse por el conocimiento propio o de sus creen-
cias, haciendo que se razone a favor de ellas. Se le da más importancia a la evidencia que vaya en
consonancia con nuestras creencias y se suele ignorar o minimizar aquello que las contradice. Exis-
te la tendencia también a buscar explicaciones y aceptarlas muy fácilmente cuando éstas están en
consonancia con nuestras creencias, sin la consideración objetiva de los datos que las apoyan (con-
clusiones precipitadas) ¡pero mira cómo somos...!
M.Goretti González 14
que sea consistente con nuestro sistema de creencias, expectativas o hipótesis y a descartar
aquella información que pueda falsarlas. En el razonamiento probabilístico se encuentra cuando
los sujetos tienen que evaluar el diagnóstico de una enfermedad en función de los resultados
positivos de una prueba. Los sujetos se basan en la diagnosticidad de la prueba para la primera
enfermedad hipotética, sin considerar cuál es la probabilidad de que los resultados también sean
positivos para el diagnóstico de otras enfermedades alternativas.
También está este sesgo en tareas de inducción en las que el sujeto tiene que descubrir una regla.
Por ejemplo en la de “Tarea 2 4 6” donde se pide que descubra cuál es la regla de la serie. El
experimentador tiene en mente una regla general como “cualquier serie de nºs ascendentes” . Es
habitual observar que los sujetos se empeñan en ir comprobando reglas, como los múltiplos de 2.
Y ante las respuestas de los sujetos el experimentador dirá siempre “SÍ” puesto que cumplen la
regla general, peor la del sujeto no es la del experimentador. Los sujetos solo generan reglas con
series positivas de acuerdo con la regla y no generan alguna que pueda falsar sus hipótesis.
Cuando se presentan reglas de contenido, los sujetos intentan verificar las hipótesis si se encuen-
tran en consonancia con su sistema de creencias y tienden a desconfirmarlas cuando piensan que
pueden no cumplirse en todos los casos. El contenido y el contexto de los problemas influyen
igualmente:
1. Contenido abstracto. En condicional sería “Si p, entonces q” = >> “Si A, entonces 7”
2. Contenido conocido, pero arbitrario: “Si es un artista, entonces pertenece a la sociedad de
amantes del cine” (Lleva términos de uso cotidiano, pero que no tienen relación directa con
los conocimientos o sistemas de creencias de los sujetos)
3. Contenido familiar: “Si eres psicólogo cognitivo, entonces conoces los principios de
razonamiento humano”. (Este sí mantiene una relación directa con la experiencia del
sujeto... ¡bueno, sí, algo me suena, je,je,je!)
El contenido familiar puede en casos facilitar el rendimiento y en otros sesgar sus respuestas. En
las tareas de silogismos categóricos es habitual presentar un argumento deductivo y pedir a los su-
jetos que juzguen su validez (viene determinada la validez por la estructura sintáctica no por con-
tenido) La verdad de la conclusión se juzga en función de la verdad supuesta de las premisas. Sin
embargo, cuando las conclusioens entran en conflicto con las creencias, se aceptan como válidos
M.Goretti González 15
argumentos que no lo son, pero cuyas conclusiones están en consonancia con el sistema de creen-
cias y se rechazan otros que siendo válidos muestran una conclusión discordante. Pongamos un
ejemplo, que solo detallo mínimamente pues se verá posteriormente:
Todos los A son B
Todos los C son B
luego, todos los C son A
Los sujetos aceptamos esto por la “Atmósfera universal” de las premisas. Significa que si alguna de
las premisas contienen al menos una premisa particular , la conclusión es también particular. (No
es este el caso) En el ejemplo, es el caso de UNIVERSAL donde si una de ellas contiene al menos
una premisa universal (Todos...) la conclusión que demos será probablemente universal
igualmente. Si una es negativa, la conclusión será negativa y a la inversa si es afirmativa: Todos los
A no son B; Todos los C son B; luego Todos los C no son A. (¿Y a quién se le ocurrió esto de llamarlo
atmósfera...?)
Claramente vemos, como el contenido ha facilitado el rendimiento de los sujetos y decimos que
esta conclusión no es válida, eliminando así el sesgo que produce la propia estructura formal del
argumento. Cuando la conclusión del argumento se encuentra a favor o en contra del sistema de
creencias de los sujetos, éstos lo consideran válido o no, respectivamente. Entre el sesgo de
confirmación y el de creencias previas existe una estrecha relación, aunque es una dirección distin-
ta. El de confirmación pone de manifiesto la búsqueda de evidencia para confirmar hipótesis, el de
creencias previas, evalúa la evidencia sesgándola hacia la conclusión que sea congruente con estas
creencias.
Según el modelo del escrutinio selectivo los sujetos parecen examinar la conclusión y si ésta es
plausible, entonces tienden a aceptarla sin analizar la validez del argumento:
Todos los animales son seres vivos
Todos los perros son seres vivos
Todos los perros son animales
En este caso la conclusión es plausible y parece que entonces no nos molestamos en comprobar si
sigue de las premisas o no, aceptándola sin más.
No obstante el mero hecho de razonar sobre contenidos conocidos no produce en todos los casos
los efectos de facilitación esperados. Esto ha provocado el que los factores de contenido se asocien
al contexto, entendiéndose éste vinculado con los aspectos pragmáticos del razonamiento. Los
efectos de facilitación vendrían explicados por la vinculación que los sujetos hacen entre el proble-
ma y los objetivos o metas hacia las que encaminan el razonamiento. Por ejemplo, en el
condicional se proponen unos esquemas de razonamiento para situaciones de regulación, tales
como permisos (Cheng y Holyoak,1985)como “Si limpias tu habitación, entonces irás al cine”, el
sujeto entenderá el contexto y lo vinculará con metas u objetivos anteriores que pondrán en
marcha un conjunto de inferencias correctas.
M.Goretti González 16
La probabilidad epistémica dependerá del conocimiento sobre la naturaleza de los objetos sobre
los que se razona. Por ejemplo, se hacen generalizaciones a partir de pequeñas muestras de casos
si conocen o creen conocer la variabilidad de la muestra. Se acepta generalizar cuando dicha mues-
tra es pequeña si los objetos presentan variabilidad baja y no están dispuestos a aceptar una
basada en pocas observaciones en un dominio de mucha variabilidad. Supone que según el mayor
conocimiento se irán evitando generalizaciones falaces o falsas.
También se ha encontrado que el contenido puede inducir a sesgos cuando es representativo del
dominio, pero irrelevante estadísticamente. Los juicios por representatividad pueden inducir a ses-
gos al basarse en la similitud entre conocimiento del sujeto y aquello sobre lo que está razonando.
Es el conocido “problema de los dos hospitales” de Kahneman y Tversky, 1972 Lo expondrán en su
capítulo, pero adelanto que este ejemplo pone de manifiesto que cuanto mayor sea el número de
observaciones más probable es que el resultado se aproxime al resultado real y cuanto menor sea
es más probable obtener resultados extremos.
Para resumir, hay que indicar que los sesgos son una consecuencia directa de las restricciones o li-
mitaciones propias del sistema que, por otra parte, es un sistema eficaz y adaptado al medio en el
que se encuentra inmerso. Simon, 1989 nos indica que en pocas ocasiones el sistema de
procesamiento cuenta con la estrategia exacta para resolver el problema que tiene delante y debe
aproximarse a la solución por medio del “principio de la racionalidad restringida”. Todo ello hace
que el marco teórico del razonamiento humano, siga debatiendo sobre racionalidad o irracionali-
dad del pensamiento.
4. EL CONCEPTO DE RACIONALIDAD
La actuación lingüística explica que el sujeto tenga la facultad para el lenguaje que se actualizará
en algo concreto como el español, inglés, alemán,... o que algunas veces se equivoque en sus lo-
cuciones sin que ello obligue a cuestionar su competencia lingüística. Así algunos defienden que
existe una competencia o capacidad racional que puede sufrir distorsiones cuando esta capacidad
se traducía a una actuación concreta.
M.Goretti González 17
Desde la perspectiva de los modelos computacionales, la psicología del pensamiento se entendería
como el estudio de las estructuras simbólicas (susceptibles éstas de interpretación en función de
conceptos de uso común) y de los procedimientos para su manipulación sirviendo la lógica como
modelo normativo.
El error estaría en la comprensión de las premisas y las respuestas sesgadas pueden explicarse en
función de dicha interpretación, o bien omitiendo o añadiendo premisas al argumento. Puede ser
en la interpretación de los cuantificadores de un silogismo categórico: por ejemplo, interpretar
“algunos X son Y” como “algunos X no son Y” o a la inversa. Se sugiere igualmente que algunos su-
jetos pueden hacer conversiones de las premisas, como convertir “algunos X no son Y” en “algunos
Y no son X”; o “Todos los Y son X” en “Todos los X son Y”.
Algunos autores indican que el razona- miento depende de la comprensión de las premisas y el uso
de material familiar explicaría los efectos de facilitación observados en la actuación de los sujetos.
Revlin y Leirer 1978, basándose en el modelo de conversión, sostiene que el contenido familiar
bloquea la conversión ilícita en la codificación de las premisas.
El sesgo de creencias los explican considerando que las premisas de los argumentos válidos son
más susceptibles para la conversión que las premisas de argumentos inválidos. No obstante este
sesgo fue explicado por Henle como fracaso en la aceptación de la tarea lógica, donde los sujetos
no entienden las instrucciones o no saben lo que tienen que hacer y, por ello, hacen algo distinto
de lo pretendido a analizar.
En líneas generales, la perspectiva sintáctica asume que existen dos componentes fundamentales
en el razonamiento:
1) Un componente deductivo que comprende reglas sintácticas libres de contenido.
2) Un componente de interpretación que establece la correspondencia entre los enunciados
del lenguaje y el conjunto de reglas sintácticas.
Este conjunto de reglas sintácticas no tienen que ser equivalentes a las reglas lógicas, sino que
comprendería el repertorio de reglas de inferencia que utilicen los sujetos de forma natural. Así si
el contenido y contexto influyen al interpretar, la actuación de los sujetos se explicaría por su
adherencia a las reglas sintácticas aplicadas a dicha interpretación. El contenido determinaría la
interpretación y el control del conocimiento que ha de recuperarse de la MLP, sin que ello implique
la alteración del conjunto de reglas sintácticas del sistema. Si el tipo de contenido cambia las
respuestas, es debido a la utilización de un conjunto distinto de proposiciones, no de reglas.
La tarea de Wason ha sido base de numerosos trabajos. Solo pocos fueron capaces de responder
correctamente a la tarea, inicialmente 4%, y luego de entre 6-33%. El contenido del material pre-
sentado incide sobre el rendimiento, facilitándolo cuando es contenido concreto. No obstante, no
todos los contenidos concretos producen facilitación y algunos autores indican que si existe expe-
riencia previa se da mayormente esta facilitación.
M.Goretti González 18
Otra perspectiva alternativa enfatiza el papel de la experiencia y el contexto lingüístico en la
determinación del rendimiento y cuestiona a los marcos teóricos de las reglas desvinculadas del
contenido. Se cree por tanto que los contenidos abstractos serían los adecuados para estudiar el
sistema deductivo, pero la alta tasa de errores encontrada oscurece la viabilidad de una competen-
cia lógica.
La teoría de los esquemas de razonamiento pragmático propone que los suejtos cuentan con re-
glas de razonamiento que son específicas del dominio. Estos tienen un nivel medio de abstracción
de forma que los esquemas se aplicarían a un conjunto de acontecimientos, tales como las situa-
ciones de regulación (permiso, contratos sociales, advertencias,...) En el caso que se comentó
anteriormete de “Si limpias tu habitación, entonces irás al cine” el esquema relaciona estrecha-
mente el contenido y el contexto y se vincula con las inferencias de la lógica. Esta perspectiva
explica la racionalidad por una reglas de razonamiento apropiadas para alcanzar los objetivos que
se propone el sujeto. Sin embargo no es una teoría que pueda generalizar el razonamiento más
que a unas pocas situaciones concretas. Se requieren más estudios.
Se evidencia polémica en esto, pues supone que hay que distinguir entre estructura lógica y
contenido (no lógico) y entre comprensión y reglas sintácticas. Smedslund, 1970, 1990, nos indica
que las explicaciones del modelo son circulares pues sólo se puede deducir la naturaleza de la in-
terpretación de una regla si se asume que se razona de forma lógica y sólo se puede descubrir que
se razona lógicamente si sabemos que ha interpretado la premisa.
La teoría de la competencia lógica supone un sistema lógico hipotético, pero al igual que en las
teorías de la competencia lingüística, el modelo de competencia no constituye el que sea una
teoría que pueda verificarse de forma empírica. La tarea experimental no garantiza que los sujetos
comprendan los requisitos dela validez deductiva, ni que la comprensión de las premisas enuncia-
das coincida con la del experimentador.
La teoría más actual al respecto es la de los Modelos Mentales de Johnson-Laird. Esta se enmarca
dentro del enfoque que explica el razonamiento por el conocimiento tácito que tienen los sujetos
sobre los principios semánticos fundamentales que subyacen en los procesos de inferencia. La
validez se entiende como posibles interpretaciones del argumento. Los sujetos construyen
modelos mentales que constituyen la representación de las situaciones descritas por las premisas
generado combinaciones de éstas en búsqueda de contraejemplos para las posibles conclusiones.
El procedimiento básico viene explicado por esta búsqueda de contraejemplos alternativos que
puedan falsar el modelo mental en cuestión. Si estos no se encuentran entonces es válido. La
dificultad de los problemas se explica en función de la cantidad de procesamiento y los errores se
explican por las limitaciones de la memoria de trabajo al no poder considerar todas las
combinaciones posibles de las representaciones relevantes. Parece entonces que se razona por un
procedimiento semántico adecuado, pero limitado por la capacidad de la memoria de trabajo.
M.Goretti González 19
Según estos autores, la racionalidad viene reflejada en el metaprincipio semántico de validez:
“Una inferencia es válida sólo si su conclusión no puede ser falsada por un modelo de las
premisas”
Se ha considerado este enfoque semántico tan formal como el sintáctico y que la teoría de los
modelos mentales se puede entender como un modelo mental lógico en el que se describe el pro-
cedimiento formal para la búsqueda semátnica e contraejemplos.
Los modelos conexionistas ofrecen perspectiva alternativa, donde la representación del conoci-
miento se encuentra distribuida y ponderada diferencialmente en patrones de activación que
forman parte del sistema dinámico con procesamiento en paralelo. Sigue la idea del cómputo
mental inherente a los modelos computacionales, pero sin apelar a la hipótesis de que el sistema
sea un manipulador de símbolos. Según éstos, el sistema está compuesto por redes de activación,
cada una de las cuales comprende un conjunto amplio de unidades de procesamiento, similares a
las neuronas, unidas a su vez por conexiones con pesos diferenciados. Este enfoque propone
axiomatizar el sistema físico, para luego investigar analíticamente su comportamiento en
contraposición a la axiomatización del comportamiento para luego diseñar un sistema físico por las
técnicas de la síntesis lógica. El pensamiento se concibe como comportamiento que emerge del
patrón de regularidades observadas de nuestra experiencia. El sistema en sí mismo no tiene reglas
que dirijan el funcionamiento, pero el enfoque simbólico asume que los estados mentales sí se
forman por representaciones y reglas, a lo que esta perspectiva conexionista responde con la
explicación de que solo hay activación y fuerza de conexión para explicar el comportamiento.
Bajo este enfoque se diluye la diferenciación entre contenido y reglas. En el modelo conexionista
el conocimiento del sujeto viene representado por los patrones de activación en los que el
conocimiento está distribuido y ponderado con pesos diferentes y al razonar el sistema busca el
emparejamiento que viole el menos número de restricciones o limitaciones. Al entrar información,
se activará el conocimiento relevante para la red y se generará la mejor interpretación posible que
alcance el sistema. Se busca el ajuste óptimo entre ambos patrones, y las restricciones cognitivas
se determinarán por la base de conocimientos que se encuentre representada y activada.
M.Goretti González 20
Sloman propone razonamiento reflectante cuyo cómputo refleja estructuras de semejanza y
relaciones de contigüidad y un razonamiento deliberad (sistema de repres.simbólica basado en re-
glas) La desventaja es que depende de la experiencia anterior y del contexto. El sistema basado en
reglas requiere procesos más lentos y costosos, aunque su aplicación es más gral y no depende del
contexto. El sistema conexionista aprovecha los recursos de procesamiento al obtener sus
inferencias el conocimiento representado y que puede generalizarse a otros semejantes. El de
reglas utilizará sus recursos de procesamiento para las situaciones concretas novedosas y en las
que sea necesaria la precisión de las inferencias.
Evans y Over, proponen distinguir entre dos nociones de racionalidad. La racionalidad1 o personal
(comportamiento eficaz y fiable para la obtención de metas) y la racionalidad2 o impersonal
(comportamiento basado en una razón que se encuentra fundamentada en teoría normativa) Es
una propuesta descriptiva de razonamiento pero no una propuesta psicológica. La distinción
psicológica la hacen entre el tipo de procesamiento: implícito (conexionista en el que se
representa el conocimiento tácito dependiente de la experiencia) y explícito (limitado por la
capacidad de memoria de trabajo, por un proc.secuencial y costoso y por depender tb del sistema
implícito).
Evans también señala la distinción entre procesos heurísticos (aquellos que seleccionan lo
relevante - implícito) y analíticos (operan sobre la información seleccionada – explícito). Evans se
inclina por la Tª de los Modelos Mentales y sostiene que esta teoría puede constituir una teoría del
razonamiento en gral, tanto deductivo como inductivo, y que el metaprincipio semántico de
validez tiene mayor realidad psicológica.
Críticas al respecto:
– Se sostiene que la Tª de los Modelos Mentales no está exenta de problemas pero tanto esta
como la de la basada en reglas podrían ser valiosas para explicar el razonamiento de distintos
suejtos o del mismo en distintas situaciones.
– Se critica la distinción entre los dos tipos de Racionalidades considerando que la racionalidad2
no aporta, ni ha aportado buenos modelos de racionamiento.
– Se defiende que no hay dos tipos de racionalidad, sino un solo sistema que puede ajustarse al
modelo normativo si las circunstancias pragmáticas son adecuadas.
– Problema general es la falta de especificación de ambos sistemas:
> Sigue existiendo polémica con respecto al modelo normativo del sistema explícito (R2)
> No hay especificación del procesamiento implícito, ni criterio para establecer el grado
de eficacia que se espera ddel sistema implícito (R1)
> La limitación entre ambos sistemas es difusa: puede haber metas que el sistema
explícito se proponga alcanzar y puede haber inferencias conforme a un modelo
normativo que sean implícitas.
> No se concreta la interacción entre ambos sistemas, ni se determinan las
circunstancias que ponen a uno frente a otro.
> Seguimos con una idea CIRCULAR DE RAZONAMIENTO:
Si se considera que el sujeto resuelve correctamente la tarea de acuerdo a modelo
normativo, el razonamiento es explícito.
Será implícito si el sujeto tiene experiencia con el problema como para que se haya
automatizado lo que fue en su día explícito. --- Fin --- (Ni me lo creo....)
M.Goretti González 21
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013
1. INTRODUCCIÓN
La “inducción categórica” constituye uno de los procesos básicos del funcionamiento cognitivo por
medio del cual las personas reconocen y clasifican su entorno de clases. Estas categorías se consi-
deran los cimientos o estructuras a partir de las cuales vamos a poder seguir clasificando,
interpretando, generando inferencias y comunicándonos con todos aquellos que compartan una
estructuración categórica en común.
Entre las varias funciones de la inducción categórica son fundamentales para las diferentes
perspectivas teóricas que existen sobre el tema: el ahorro cognitivo que supone la agrupación de
las experiencias particulares en clases, y la posibilidad que ofrece la pertenencia categórica de
inferir más información que la que haya sido presentadda en una situación determinada. Los
sujetos extraen aquello que puede ser común a un conjunto de objetos o situaciones. Por ejemplo,
todas nuestras experiencias con los tipos de manzana (reineta, golden, macintosh,...) agrupando
las experiencias bajo la categoría de “manzana”. La categorización dentro del paradigma de la infe-
rencia inductiva es lo que permite agrupar las experiencias particulares en una clase general.
Además permite aplicar a un nuevo ejemplar de la categoría, información conocida sobre lo que
previamente ya ha sido agrupado. Encontrándonos con un nuevo ejemplar categorizado como
manzana, podemos generarle unas expectativas sobre este objeto, sin necesidad de comprobarlo,
como por ejemplo que sea comestible y crezca en un árbol.
2. LA ESTRUCTURACIÓN CONCEPTUAL
En la inducción categórica se resalta el papel que desempeña el conocimiento que se tiene sobre
las propiedades de los ejemplares, de modo que la descripción de estas propiedades permite
averiguar cómo los ejemplares se agrupan en clases. De esta forma encontramos que las
categorías se han definido por sus propiedades y sus reglas de formación se refieren a las
relaciones que se establecen entre estas propiedades.
El enfoque tradicional en el estudio de la organización categórica considera que ésta se define por
un conjunto de propiedades que son individualmente necesarias y en su conjunto suficientes. Una
propiedad es necesaria si está presente en cada uno de los ejemplares (tener alas si es un ave), y
un conjunto de propiedades es suficiente si cada ejemplar que presente dicho conjunto pertenece
al concepto o categoría en cuestión. Un ejemplar pertenece a una categoría si presenta este con-
junto de propiedades y su pertenencia será de todo o nada.
Un ejemplo clásico es el concepto de soltero. Está formado por tres propiedades: ser varón, adulto
y no estar casado (cuando se habla de una propiedad estamos haciendo referencia a un predicado,
“ser varón”; al hablar de atributo nos referimos al término genérico de esa propiedad, “sexo” y al
hablar del valor hacemos referencia a la especificación de ese atributo, en este caso “varón”).
M.Goretti González 1
Desde este enfoque se entiende que cada una de estas propiedades es por sí sola necesaria,
aunque no suficiente Un niño no es un soltero, aunque sea varón y no esté casado. Ahora bien,
conjuntamente estas tres porpiedades indicadas , sí son suficientes par ser soltero. Estas
propiedades se llaman definitorias porque contituyen colectivamente una definición del concep-
to.
Las principales Tªs psicológicas hasta principios de los 70 compartían los supuestos del enfoque
clá-sico, pero pronto los resultados experimentales subrayaban la falta de especificación de las
propiedades definitorias de algunos conceptos. No había una definición consensuada que
agrupara al conjunto de propiedades individualmente necesarias y conjuntamente suficientes para
los conceptos “naturales”, además muchas veces no podían establecer los límites entre un concep-
to y otro tan claramente como cabría esperar; los conceptos no se ajustaban fácilmente a una
representación por definiciones. Es un enfoque demasiado restrictivo que no incluye excepciones
ni a los ejemplares con limites imprecisos.
El uso que hacían los sujetos de los conceptos también erra contrario a los principios defendidos
por el enfoque clásico. En investigaciones de Rosch- 1975, 1978, se encuentra que algunos
ejemplares e consideraban más típicos o más representativos del concepto que otros: “Petirrojo”,
era miembro más típico de categoría “ave” ,que una “Gallina”, poniendo de manifiesto que no to-
dos los ejemplares de una categoría eran iguales, aunque la igualdad era lo esperado de acuerdo
con las propiedades definitorias.
Estas deficiencias del enfoque clásico (definitorias) dan lugar a nueva perspectiva sobre la reestruc-
turación conceptual “enfoque probabilístico” y asume que los conceptos no están constituidos por
propiedades definitorias, sino que las propiedades más comunes o típicas de un concepto ocurren
sólo en determinados ejemplares. El conjunto de estas propiedades se dicen PROTOTIPO y descri-
be sólo a los mejores ejemplares del concepto (petirrojo de “ave”). (¿quién lo diría?... si me hubieran
preguntado a mí, hubiese dicho “canario” de pájaro, !claro!) El prototipo es la tendencia central de las
propiedades de sus ejemplares, reflejando la estructura redundante de la categoría como un todo.
Otros enfoques probabilísticos también incluyen la varianza entre estas propiedades, o consideran
que se representan las frecuencias de estas propiedades o una combinación de las mismas.
Malt y Smith presentan los resultados de puntuaciones de tipicidad que se obtuvo cuando los su-
jetos evaluaban en una escala de 1 a 7 varios ejemplares de los conceptos fruta y ave, donde
manzana sería el más típico, seguido de melocotón, pera, uva, fresa,.... y el menos calabaza, dentro
de las frutas (...yo hubiera dicho “kiwi” , je,je,je y no aparece) y dentro de aves: petirrojo, pájaro azul,
gaviota,... el meno pingüino. ¿Y dónde pondríamos a los “ornitorrincos”? Los resultados de este estudio cues-
tionan la adecuación del enfoque clásico al poner de manifiesto que no todos los ejemplares eran
M.Goretti González 2
equivalentes en cuanto a su pertenencia categórica. Los datos ponen de manifiesto que los efectos
de tipicidad parecen deberse a las propiedades no necesarias, cuestionando la viabilidad del
enfoque clásico de la categorización. Algunas de las propiedades que se dieron a los sujetos en el
estudio de Malt y Smith :
El parecido familiar es una medida directa de la frecuencia de las propiedades del concepto siendo
los ejemplares con las puntuaciones más altas en parecido familiar, los que comparten el mayor
número de propiedades con los de su categoría, y el menor con los miembros de otras. El parecido
familiar es una medida indirecta de la semejanza de un ejemplar con respecto a los otros miem-
bros de la categoría. El parecido familiar también se encuentra correlacionando con la tipicidad:
los más típicos presentan las puntuaciones más altas. El orden de los ejemplares parece deberse a
las propiedades no necesarias, pues la propiedad necesaria “tener plumas”, contribuye de la
misma forma en cada uno de los ejemplares.
Sin embargo, también tiene este enfoque críticas. Los resultados sobre los efectos de tipicidad de-
penden del criterio de semejanza, de las categorías particulares que se han elegido y de los
ejemplares que se han puesto a prueba. Dos ejemplares de dos categorías distintas, tales como
“naranja” y “pelota”, son más semejantes entre sí con respecto a la forma que dos ejemplares de
una misma categoría, como naranja, plátano o fresa.
Roth y Shoben 1983, encontraron que el prototipo puede ser muy diferente en función del
contexto. El prototipo de aves varía en función de los siguientes contextos: “El pájaro voló sobre el
mar (gabiota)” o “el cazador disparó a ese pájaro (una perdiz)”. Así aunque la propuesta de unas
propiedades prototípicas es sumamente útil y descriptiva de la categorización humana, no es
suficientemente flexible como para explicar la sensibilidad que muestran los sujetos a la variabili-
dad tanto de los ejemplares como de las propiedades constituyentes de la categoría.
Una postura conciliadoras es la de los Modelos mixtos al proponer que los sujetos cuentan con
ambos tipos de propiedades, pues en determinados casos recurren a las propiedades definitorias o
diagnósticas. Teniendo en cuenta las prototípicas que son más accesibles, éstas se utilizan para la
categorización y se recurre a las diagnósticas sólo en casos especiales, como cuando hay que arbi-
trar en categoriza dudosa. Así, se entiende al prototipo como “heurístico por medio del cual se uti-
lizan las propiedades no necesarias y se recurre a las propiedades diagnósticas sólo en casos muy
determinados.
Armstrong, Gleitman y Gleitman 1983, sostienen que las propiedades diagnósticas no tienen que
ser necesariamente definiciones (ni fijas ni inamovibles).
M.Goretti González 3
2.3. Enfoque de los ejemplares
Parece natural pensar que un concepto es una abstracción, pero se propone que un concepto está
constituido por el conjunto de sus ejemplares (Brooks,1978), y ello quiere decir que es un
conjunto de casos concretos. La tipicidad de un ejemplar se determina por su semejanza con los
otros y la categorización consiste en evaluar si un objeto presenta algún nivel crítico de semejanza
con los mejores ejemplares. Este enfoque parece contradecir la idea de ahorro cognitivo . No obs-
tante, se indica que aún en el supuesto de que el sistema puediera almacenar todos los
ejemplares, en la categorización sólo se seleccionan algunos , los más típicos. La idea central de
este enfoque es que no es necesario asumir un único prototipo con el que se comparen los ejem-
plares, sino que la categorización será en función de la semejanza entre ejemplar y todos los
miembros.
Una de las ventajas de este enfoque es que no asume una única representación del concepto. Se
pueden utilizar varias representaciones dependiendo del criterio de semejanza y de los ejemplares
representados. Ello permite explicar los resultados obtenidos con los prototipos al considerar que
esta representación mantiene el criterio de mayor semejanza dentro de un conjunto de
ejemplares, y puede dar cuenta de la sensibilidad que muestran los sujetos ante otro tipo de infor-
mación: correlaciones entre propiedades, rango de la propiedad y el contexto. Al asumir
representaciones concretas de los ejemplares, se dota a la categorización de una enorme flexibili-
dad utilizando y relacionando toda la información representada según los objetivos planteados en
cada situación.
Barsalou 1983, pone de manifiesto que la categorización también ha de ser flexible como para ex-
plicar la agrupación temporal de unas propiedades. Algunos conceptos se generan sólo en un con-
texto muy determinado. Por ejemplo, si se pide a un sujeto que enumere aquellos objetoss de su
casa que salvaría de un incendio: joyas, cuadros, documentos, ... y estos formarían temporalmen-
te una nueva categoría. Estos conceptos, “dirigidos a metas” pueden presentar efectos de
tipicidad, aunque la base de estos efectos es cualitativamente distinta. El parecido familiar no
predice la tipicidad, sino que esta se encuentra determinada por el peso de las propiedades en el
contexto.
Los resultados de estos estudios ponen de manifiesto que la inducción categórica es un proceso
muy flexible en el que es necesario explicar tanto la estabilidad como inestabilidad de las catego-
rías.
Las críticas se centran en la necesidad de contemplar las generalizaciones que se producen durante
el aprendizaje y la necesidad de especificar el criterio de coherencia interna que limite el ámbito
de la categorización.
Se han propuesto modelos mixtos en los que el enfoque de los ejemplares se complementa con
algún nivel de abstracción que se corresponde con el prototipo o modelos que dan cuenta de
cómo puede surgir la abstracción a partir de la representación de los ejemplares. El mayor proble-
ma es poder identificar cuáles son las restricciones que se imponen sobre este proceso commo
para permitir que el sistema manifieste en todo momento un comportamiento coherente a la hora
de categorizar “el mundo”.
M.Goretti González 4
3. LA COMBINACIÓN DE CONCEPTOS.
3.1. Modelo de modificación selectiva
Osherson y Smith 1981, abordaron la problemática del cómputo de la tipicidad de los conceptos
compuestos a partir de los conceptos prototípicos que lo constituyen. Los partidarios de la Tª del
prototipo asumían que ésta podía formalizarse por medio de la teoría de los conjuntos difusos y
para la explicación de la combinación conceptual se basaban en que el juicio de tipicidad sobre un
concepto compuesto no podía ser mayor que la tipicidad de sus conceptos simples. El significado
del concepto “sofá” se refiere al conjunto de todos los sofás y el concepto “cama” se refiere al
conjunto de todas las camas. El resultado de la combinación de ambos conceptos es la intersección
de ambos conjuntos.
Esta teoría permite calcular el grado de pertenencia categórica de un ejemplar por medio de la
función CA : U -> [0,1] la cual expresa el grado en un intervalo de entre 0 y 1, en que un ejemplar X
de un Universo de discurso (U) pertenece al conjunto difuso A. Para el caso de la conjunción de
dos conjuntos A y B, CA^B , se establece que el valor de la pertenencia categórica de un concepto
compuesto X es el mínimo de sus valores de pertenencia a sus dos conjuntos constituyentes:
CA^B (x) = valor mínimo de [CA (x), CB (x)] Por ejemplo, podríamos haber obtenido el valor de perte-
nencia de 0,75 en el conjunto de “sofá” y un valor de pertenencia de 0,40 en el conjunto de
“cama”. Aplicando la regla obtendríamos para el concepto compuesto un valor de pertenencia
categórica de 0,40 (valor mínimo de (0,75.0,40) = 0,40]
Sofá
SOFÁ CAMA
cama
Conjunto Conjunto
C
A^B A B
Osherson y Smith , encuentran que las predicciones de la teoría de los conjuntos difusos no se
cumplían en los juicios de tipicidad sobre la conjunción de conceptos y proponen un modelo que
denominan Modelo de modificación selectiva para poder explicar el proceso de combinación
conceptual dentro del marco teórico de los prototipos. Su desarrollo fue debido a querer explicar
algunos resultados sobre los juicios de tipicidad de conceptos compuestos por la combinación
sustantivo-adjetivo. Los sujetos consideraban que la tipicidad de un concepto compuesto era
mayor que la de algunos de los conceptos simples que lo constituían.
– Si se evaluaba la tipicidad de un ejemplar particular de “sangre roja” (v.g. Donar) éste era
mayor en el compuesto “sangre roja” que en “sangre” a secas. (Supongo que en sangre al igual
era más típico v.g. herida).
– En estos juicios de tipicidad eran mayores cuando los conceptos compuestos reunían
conjunciones incompatibles como “sangre azul” (los adjetivos denotan un valor poco frecuen-
te. El grado de tipicidad de un ejemplar de “sangre azul” (v.g. Príncipe) para el concepto com-
puesto “sangre azul”, v.s. concepto simple como “sangre” (Es normal... a no ser que esté pensando en el
príncipe drácula, je,je,je cuando lo ponga de ejemplar de la categoría “sangre”.) era mayor que en el caso del
ejemplar del compuesto “sangre roja” frente a “sangre”.
– Al evaluar el ejemplar (en este caso como ejemplar) “sangre roja” dentro de la categoría o
concepto “sangre azul”, la tipicidad era menor cuando se evaluaba con respecto a “sangre azul”
que cuando lo era respecto a “sangre”:
M.Goretti González 5
Sangre azul Sangre
Sangre Tipicidad menor
roja Sangre
ejemplar < roja “Sangre roja” como ejemplar de “sangre”
El Modelo de modificación selectiva parte de una representación prototípica conforme a una es-
tructuración conceptual en la que se incluyen los atributos (v.g. Color) con pesos diagnósticos y los
valores de estos atributos (v.g. rojo, amarillo, azul,...) se encuentran ponderados con respecto a su
prominencia. El atributo color será más prominente que el atributo “líquido”. Se refiere a que si
voy a describir por ejemplo la palabra , categoría o concepto “sangre”, no pensaré inicialmente en
líquido, sino en color, para describirlo teniendo el “color” un valor diagnóstico alto que permitirá
discriminarlo frente a otros líquidos: sangre v.s. leche, agua,... cerveza.
Cada constituyente del concepto compuesto desempaña una papel distinto y asimétrico, y éste no
puede explicarse por la simple intersección de las propiedades de sus conceptos constituyentes. La
combinación entre “sofá” y “cama” no es igual en “sofá cama” que en “cama sofá”. El proceso de
modificación selectiva parte de la identificación del concepto que desempeña la función de
sustantivo como marco conceptual sobre el que se va a operar y del concepto que desempeña la
función de adjetivo como aquello que opera o modifica.
Otra limitación es que trata adjetivos simples y que presumiblemente sólo afectan a una propiedad
del prototipo, pero hay adjetivos más complejos pues algunos simples como el color puede
relacionarse con otros, como color verde con el grado de acidez. Estas relaciones entre las propie-
dades forman parte del prototipo y el cambio en el valor de un atributo también modifica al resto
de los atributos relacionados.
M.Goretti González 6
3.2. Modelo de especialización conceptual
El modelo de especialización conceptual de Cohen y Murphy 1984 asume que los conceptos
simples se encuentran representados por esquemas que estructuran el conocimieento con
variables y valores. En el caso de los compuestos hay un concepto principal y otro que lo modifica,
dando especialización detallada de los valores del concepto principal. Hasta aquí el Modelo de
modificación selectiva y el modelo de especialización conceptual son semejantes. Asumen
representación asimétrica en la combinación conceptual. La diferencia entre ambos radica en que
para el modelo de especialización conceptual este proceso no es posible sin antes acceder a la
base de conocimientos que tiene el sujeto.
Antes de iniciar el proceso de categorizar se tiene que consultar la base de conocimientos para
decidir cuál variable es la más apropiada y una vez hecha la especialización se debe ampliar y
refinar el nuevo concepto con el fin de que sea coherente y completo. En el ejemplo de “sangre
azul”, podemos ver ahora cómo el valor “azul” para el atrubuto color se pondera en prominencia y
diagnósticidad y se tiene que poner en relación con el conocimiento que tenemos sobre el len-
guaje figurado (linaje noble). Se puede decir que el Modelo de modificación selectiva forma parte
del modelo de especialización conceptual pues comparten aspectos muy semejantes.
Medin y Shoben 1988, proponen un modelo híbrido que conjuga la representación de ejemplares
y el conocimiento del mundo. Es propuesta inespecífica que contempla aspectos centrales del pro-
ceso de combinación conceptual. Los autores manifiestan a través de sus resultados
experimentales algunas de las insuficiencias del modelo de modificación selectiva y la necesidad
de una teoría de la estructuración conceptual más completa y con mayor capacidad de cómputo.
Los conceptos tienen una estructuración interna rica en el nº de relaciones que se establecen entre
sus propiedades y esto es una limitación para el modelo de modificación selectiva (asume que las
propiedades son independientes y que el cambio en una de ellas no afecta al resto.
Los resultados de Medin y Shoben pusieron de manifiesto que el cambio en el valor de una de las
propiedades del concepto provocaba también el cambio en los valores de las propiedades
relacionadas. En el caso de evaluar la tipicidad de una “cuchara de madera” y una “cuchara de
metal”, los sujetos consideraban que la “cuchara de metal” era más típica del concepto simple
“cuchara” que la “cuchara de madera”, pero la “cuchara de metal” era menos típica del concepto
“cuchara grande” que la “cuchara de madera”.
cuchara Cuchara grande
De acuerdo con el modelo de modificación selectiva, la diferencia entre “cuchara de metal” y “cu-
chara de madera” con respecto al concepto simple “cuchara” está en los pesos de la dimensión
tipo de material.
Con respecto al contexto, los autores encontraron que el patrón de semejanza variaba en función
M.Goretti González 7
del sustantivo sobre el que se aplicaban los adjetivos: Los mismos adjetivos, negro, gris y blanco,
aplicados a conceptos distintos, como “nube” y “pelo”, los sujetos consideraban blanco y gris más
semejantes para pelo , y negro y gris semejantes para nube. Igual que la propiedad de “ser curva”
era diferente si se trataba de un plátano que si era un boomerang. Un “plátano no curvo” era más
típico de “plátano” que un “boomerang no curvo” de “boomerang”. Por tanto parece que en la
estructuración conceptual hay algo más que el simple cómputo de pesos en las distintas
propiedades, y parece que existiera toda la información sobre las relaciones entre propiedades en
algún lugar no directo representado, pero sí que se acceda a ella según se vaya necesitando.
Las investigaciones se han centrado en las combinaciones que se generan por la relación entre el
concepto base y el concepto modificador. Se han llegado a identificar las relaciones básicas
mediante las que se pueden combinar los conceptos y se asume que la frecuencia con la que se ha
utilizado el concepto modificador y las relaciones básicas influyen sobre la interpretación de los
nuevos conceptos combinados. Otra perspectiva asume una representación por esquemas en la
que el concepto principal adopta la relación del concepto modificador, por ejemplo “pez martillo”,
adopta la variable “forma” de martillo.
4. EL PROCESO DE CATEGORIZACIÓN
La semejanza parece ser lo que hace que una categoría pueda juntar un conjunto de ejemplares.
M.Goretti González 8
Sin embargo es un término escurridizo. Así, encontramos que muchas cosas parecen semejantes
por le solo hecho de pertenecer a la misma categoría, donde los sujetos comentan que puede
estar influida por el propio conocimiento de aquello comparado perteneciente a la misma
categoría.
Según Tversky 1977, la semejanza se define en función de las propiedades que son comunes y
distintivas en un conjunto de ejemplares, pero que se encuentran ponderadas en términos de su
saliencia. Depende de las ponderaciones de las propiedades, lo que nos permite explicar el porqué
la ballena se agrupa a mamífero, a pesar del nº de propiedades en común que posee con los peces.
El conocimiento teórico ha permitido ponderar diferencialmente unas propiedades frente a otras.
Tversky demuestra cómo las ponderaciones varían en función del contexto y de la tarea experi-
mental, dando lugar a que no existe una respuesta unívoca a la pregunta de cuán semejante es un
objeto con respecto a otro. Una propiedad es aquello que por consenso se ha validado en una
muestra de sujetos. Sin embargo, la consideración del conjunto implícito de contraste y el nivel de
especificidad elegido determinan las propiedades que se incluyan en las listas de los sujetos. Estos
no enumeran no todo lo que conocen, sino las propiedades relevantes en esa situación.
Frente a este principio general, otros enfoques proponen que es el propio conocimiento que
tienen los sujetos y sus teorías ingenuas sobre el mundo lo que restringe la construcción y
organización categórica. De esta forma se entiende que la categorización no se da aisladamente
sino que los conceptos se organizan circunscritos al conocimiento estructurado o tªs ingenuas que
tienen los sujetos y que les permite actuar coherentemente. La categorización basada en el cono-
cimiento organizado permite articular las relaciones inter e intracategorías de modo que la
estructuración conceptual no se reduzca a listas de propiedades sino que se encuentre inmersa en
un cuerpo de conocimimientos con estructura y coherencia.
Bajo este enfoque de una categorización guiada por el conocimiento podemos incluir aquellas teo-
rías que asumen una representación de la información en estructuras de conocimiento, tales como
los esquemas, los guiones, los marcos o los modelos mentales. Abelson 1981, consideraba que los
esquemas o guiones pueden equipararse a una categoría en la que también cabe el parecido
familiar entre diversos ejemplares. En contraposición al prototipo, un esquema no especifica los
valores de sus propiedades, sino que estas propiedades (variables) son genéricas y adoptan valores
en función del contexto. La idea del proceso de inducción categórica será distinta dependiendo del
tipo de estructura que se propaga para representar el conocimiento, por ejemplo, la aplicación de
reglas, la generación de modelos mentales, el emparejamiento de patrones,... Seguimos con el
detalle de dos teorías sobre la inducción categórica que explican la flexibilidad de este proceso:
– La inducción categórica como sistema de reglas distribuidas.
– La inducción categórica como sistema de activación distribuida.
M.Goretti González 9
son los aspectos de los ejemplares que van a ponderarse, tiene que basarse en una explicación de
por qué ciertas propiedades asumen unos valores y otros no lo hacen. Así se resuelve por la
representación de la incidencia estadística de las propiedades entendiéndose que la ponderación
de las propiedades no es cuestión estática, sino dependiente del contexto y de las metas del
sistema.
Estos aspectos procedimentales son comunes a los de los sist de producción de Newell y Simon, 72
que se basan en el emparejamiento cíclico y la ejecución de reglas de condición-acción. La
actividad se puede describir en términos de un ciclo de tres pasos:
1. el emparejamiento de los hechos y reglas para determinar cuáles satisfacen las
condiciones.
2. La selección de un subconjunto de las reglas emparejadas para que sean ejecutadas y
3. la ejecución de las reglas seleccionadas para que lleven a cabo las acciones específicas.
Estas reglas estánn organizadas en función de los patrones de las condiciones y acciones dando lu-
gar a dos tipos de organización:
– La organización implícita: si la acción que es consecuencia de una regla satisface la condición
de una segunda regla, entonces la ejecución de la primera conducirá a la ejecución de la segun-
da.
– La organización explícita: la conexión entre reglas viene indicada directamente y las reglas que
se activan conjuntamente quedarán conectadas con el tiempo formando un conjunto
interrelacionado de reglas.
Este modelo concibe las categorías como un conjunto de reglas agrupadas que comprenden
supuestos probabilísticos sobre las propiedades que ocurren con otras propiedades y en el que se
pueden activar simultáneamente varias reglas. Se corresponden con las agrupaciones de reglas
M.Goretti González 10
explícitas o implícitas en función del contexto en el que ocurran.
Cada uno de los nodos representa la condición de una regla y los nodos intermedios representan
su acción correspondiente. El nodo C3 recibe el mayor apoyo y se disparará la acción correspon-
diente: donde el ejemplar se categorizará como “perro”.
C1 C2 C3 C4
acción
C3
Cuando las categorías no son mutuamente excluyentes, las reglas correspondientes pueden
activarse simultáneamente, de forma que, por ejemplo, un animal peludo con cola, puede
categorizarse como perro, gato o ardilla. Cuando son mutuamente excluyentes, pueden disparar
acciones que entran en conflicto, se establecen reglas que inhiben a las reglas conflictivas.
Además cada una de las reglas cuenta con un valor de apoyo y una ponderación. En este caso con-
creto, la información que entra en el sistema apoya de igual forma a los nodos representados. Sin
embargo, la mayor ponderación previa hace que se estime por una categorización tentativa. El
sistema no genera generalizaciones poco plausibles, pues se cuenta con un umbral de confirma-
ción que establece un criterio para la variabilidad del conjunto de propiedades que se están
considerando.
En la concepción de este modelo se entiende que estas reglas son un conjunto de expectativas que
se consideran verdaderas siempre y cuando no se contradigan por la informació presentada al sis-
tema. En ausencia de mayor información, estas expectativas por defecto proporcionan el mejor es-
quema para la situación actual. La probabilidad condicionada de una categoría, considerando la
observación de algunos de los valores de las propiedades de un ejemplar, puede representarse
implícitamente por la fuerza de un conjunto de reglas. A través de la organización explícita (por
medio de los marcadores que indican una conexión directa) se enlazan las relaciones entre las
categorías. De esta forma, la categorización no depende de una descripción monolítica, sino de
una combinación de propiedades y situaciones.
A través de estas jerarquías por defecto se pretende representar la incertidumbre sobre la que
tiene que operar el sistema: en un nivel las generalizaciones que son útiles y en otro nivel, la
información más específica de las excepciones representándose la uniformidad y la variabilidad
que existe en el ambiente. El número de ejemplares necesarios para alcanzar una generalización
será función de esta variabilidad.
El modelo mental de un objeto particular sería un conjunto de reglas derivadas de una variedad de
conceptos supraordenados más cualquier información particular disponible. Los ejemplares típicos
serán aquellos a los que se adhieren las reglas por defecto de las categorías supraordenadas, mien-
tras que los ejemplares atípicos se emparejarían con reglas excepcionales. Lo que se propone des-
M.Goretti González 11
de el modelo es una abstracción y representación del conocimiento general de las distribuciones
de las propiedades por medio de las agrupaciones de reglas. Los resultados ponen de manifiesto
que los sujetos saben mucho más de la estructura categórica que la simple formación sobre las
tendencias centrales o prototipos.
En este modelo se intenta explicar la compleja red de relaciones en función del conocimiento que
el sujeto construye en términos causales y que algunos como Murphy y Medin 1985, lo
denominan conocimiento teórico. Las teorías que se contruyen explican el mundo y en función de
ellas, éste se divide en clases. El paradigma simbólico explica la categorización fundamentándose
en el conocimiento que se contruye sobre el mundo que nos rodea y que constituye una Tª sobre
el mismo.
Este es un modelo conexionista que comparte con el anterior algunos principios generales, pero el
enfoque conexionista parte de otros supuestos. Uno de estos, en contraposición al paradigma
simbólico clásico, se refiere al tipo de arquitectura del modelo. El sistema de procesamiento del
enfoque conexionista se encuentra constituido por redes de activación que comprenden un con-
junto amplio de unidades de procesamiento unidas por conexiones con pesos diferenciados. Estos
modelos describen los procesos mentales en términos de los patrones de activación en un
conjunto de unidades y no por unidades particulares. Estas unidades son entidades de
procesamiento que asumen unos valores de activación basados en la suma ponderada de lo que
entra en el sistema y de las otras unidades que están dentro del sistema. El papel que desempaña
una unidad se defiene por la fuerza de sus conexiones, tanto excitatorias como inhibitorias.
Las conexiones son el medio por el cual interacctúan las unidades. Se les conoce como modelos
PDP o de procesamiento distribuido y paralelo, queriendo destacar que el procesamiento es
resultado de las interacciones que ocurren entre un número importantee de unidades. Aunque se
podría pensar que las jerarquías por defecto son análogas a las unidades, dado que ambas guían la
entrada de información en la búsqueda de buen ajuste, no hay en estos modelos conexionistas
ningún análogo de las variables o de los valores por defecto. No existe ninguna noción sobre una
estructura interna constituida y la aparente aplicación de reglas emerge de las interacciones entre
unidades de activación.
En este tipo de modelo el conocimiento adopta la forma de una red que satisface restricciones, y
éstas vienen impuestas por el contexto. Aunque en el modelo anterior también las restricciones
contextuales desempeñaban un papel fundamental, en estos modelos no existen entidades
representacionales que se correspondan con conceptos, jerarquías por defecto o esquemas. Estas
entidades se encuentran implícitas y emergen de las interacciones de un amplio conjunto de res-
tricciones.
Algunos detalles a tener en cuenta, sería que las propiedades se encuentran distribuidas por toda
la red y la fuerza de sus conexiones hace que el patrón adquiera una configuración determinada.
M.Goretti González 12
Estas redes de activación son sistemas de procesamiento que pueden computar estadísticos sobre
sí mismas de forma que reflejen las fluctuaciones de ambiente del que se derivan sus datos. El
procesamiento ocurre por medio de la evolución de estos patrones de activación, que van
actualizando los pesos entre conexiones. Cualquier configuración inicial con elementos activos e
inactivos puede evolucionar hacia una configuración estable partiendo de unos pesos iniciales. Se
asume que cada vez que entra una estimulación en el sistema, éste se mueve hacia un estado es-
table en el que se alcanza una bondad de ajuste máxima (es un sistema reactivo guiado por los
datos).
Cuando entra información en el sistema, todas las unidades ajustan su activación con el fin de sa-
tisfacer el mayor número posible de restricciones. Se podría pensar que el sistema se encuentra
continuamente esculpiendo una superficie en función de aquello que va recibiendo y de las
interacciones con el resto de unidades.
En el enfoque conexionista, y más concretamente en los modelos que se conocen como modelos
de satisfacción de restricciones, se reemplaza el marco simbólico por un nivel subsimbólico,
denominado así por encontrarse entre las conexiones neuronales y los cómputos mentales.
Conviene recordar que los constructos del cómputo mental son datos cognitivos que se explican
por un sistema próximo en su funcionamiento al nivel neuronal.
M.Goretti González 13
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013
1. INTRODUCCIÓN
La psicología del razonamiento ha planteado sus investigaciones de acuerdo con las dos modalida-
des gral de inferencia: las deductivas y las inductivas. Las inferencias deductivas se siguen necesa-
riamente de una información a otra. Esta permite alcanzar una conclusión que se siga necesaria-
mente de las premisas del argumento. Cuando la psicología se planteó el estudiar el razonamien-to
humano importó el modelo lógico y las investigaciones se centraron en el análisis del rendimiento
en función del criterio de validez lógica. En las tareas que se presentan se pide a los sujetos que
evalúen si el argumento es válido o inválido, que elija de entre varias conclusiones, cuál es la que
se sigue necesariamente de las premisas o que generen su propia conclusión en función de las pre-
misas presentadas. El interés y reto de la psicología del razonamiento es explicar cómo razonan los
sujetos y por qué se equivocan.
Los errores encontrados en la realización de estas tareas de raz.deductivo ha dado lugar a distintos
enfoques teóricos que van desde aquellos que consideran irrelevantes los principios lógicos en la
explicación del razonar hasta los que defienden una lógica mental, que puede estar más o menos
suavizada por el concepto de “lógica natural”, pero en la que hay un conjunto de reglas abstractas
y en la que los erroes no demuestran el fracaso de razonar lógicamente, sino la existencia de
determinadas condiciones que conducen al error.
Según el tipo de argumento deductivo, las investigaciones se pueden agrupar en tres: razonamien-
to silogístico categórico(proposiciones con cuantificadores), razonamiento silog.transitivo
(proposiciones con relaciones internas) y el razonamiento porposicional (proposiciones con el
condicional, bicondicional, negación y disyunción).
M.Goretti González 1
También contienen enunciados de cantidad (UNIVERSAL -> todos, ninguno; PARTICULAR -> algún,
algunos) y de polaridad ( afirmativa o negativa) dando lugar a cuatro tipos de proposiciones:
universal afirmativa, universal negativa, particular afirmativa o particular negativa.
También hay que tener en cuenta la posición del término medio (B) en cada una de las premisas.
Existen cuatro posiciones que dan lugar a cuatro figuras del silogismo:
FIGURA 1 FIGURA 2 FIGURA 3 FIGURA 4
B A A B B A A B
C B C B B C B C
C A C A C A C A
Hay que señalar que el nº total de silogismos válidos incluye todas las conclusiones válidas, sean
fuertes o débiles. Una débil será aquella que se obtenga como conclusión particular, cuando se
permite una conclusión universal. Por ejemplo, un AAA sería:
Podemos ver que la conclusión fuerte sería la universal afirmativa (A) pero existe posibilidad de
concluir con una débil, así considerada por existir la posibilidad dentro de esa figura de la AAA.
Algunos autores no hacen esta diferencia y solo consideran las conclusiones fuertes e el número de
silogismos válidos, siendo 19 los considerados:
FIGURA 1 AAA AII EAE EIO
FIGURA 2 AEE AOO EAE EIO
FIGURA 3 AAI AII EAI EIO IAI OAO
FIGURA 4 AAI AEE EAO EIO IAI
M.Goretti González 2
En un estudio que hizo Johnson -Laird y Steedman (1978) se encuentra que no siempre se
considera la segunda premisa como sujeto de la conclusión, produciéndose conclusiones en ambos
sentidos -> C A (que sería lo que se supone sería la forma de cualquier conclusión en cualquier
figura, por eso todos la tienen así en el cuadrito de arriba) y también se concluye con la forma A C
Al considerar ambos tipos de conclusiones, el nº de silogismos asciende a 512. Los resultados mos-
traron el efecto de la figura 4 y 1. Ello significa que muchos (71%) daban una conclusión A-C (fig.4)
y otro tanto, daba la conclusión de C-A (fig.1) Las conclusiones A—C se ajustan a un cambio de or-
den de las premisas y a un posible cambio de término medio. En el caso de figura 4, donde A-C es
la conclusión, lo que se hace mentalmente y sin darnos cuenta (opinión propia) es invertir el orden de
las premisas y así la figura 4 se convierte en fig.1 (¡todo esto automático, claro!)
Los trabajos experimentales sobre el silogismo categórico se centran en el cómo influyen los
aspectos estructurales y de contenido en el rendimiento de los sujetos. El rendimiento de los suje-
tos ha sido variable, desde 89% de respuestas correctas hasta un 8%. (¡Vamos, que nos dejamos llevar por
las apariencias! Je,je,je)
La hipótesis de la atmósfera no es una teoría, sino una explicación basada en la tendencia que se
observa en los sujetos al dar sus respuestas y que parecía determinada por los aspectos
estructurales del silogismo. El trabajo de Woodworth y Sell 1935, presentó una tarea en donde se
debía evaluar la validez de los argumentos. Encontraron que se equivocaban y que ello se
explicaba por el modo de las premisas. Cuando las dos premisas eran UNIVERSALES ( A – E) afirma-
tiva o negativa, mostraban tendencia a elegir una conclusión UNIVERSAL y cuando las dos premisas
eran afirmativas (A – I) daban conclusión afirmativa. Lo llamaron “Atmósfera” pues inducía a con-
clusión del mismo tipo. Mas tarde en 1969, Begg y Denny, explicitaron los principios del efecto te-
niendo en cuenta cantidad y cualidad de las premisas:
– Cuando las premisas contienen al menos una premisa particular, entonces la conclusión es
particular, y en el caso contrario es universal, y
– Cuando contienen al menos una premisa negativa, entonces la concluión es negativa, y en el
caso contrario, afirmativa.
Lo enunciaron como “Efecto atmósfera” siendo objeto de estudio para investigaciones que que-
rían averiguar sobre identificación y análisis de los errores (...no tenían que hacer, pero ¡cómo admiro a esta
gente!)
M.Goretti González 3
Sells 1936, indicar que puede ser debido a un principio gral de prudencia por el que se supone
que las conclusiones son menos prudentes que las particulares. Aún así y siendo bastante evidente
el que no queramos etiquetar a TODOS por un por si acaso, no ha tenido demasiada aceptación,
pues parece ser que también se evidencia que aún queriendo ser prudentes, no concluimos muy
frecuentemente de forma particular-negativa (O), cuando sería lo que nos decía el amigo Sells.
La tendencia no lógica del efecto atmósfera en los resultados puede predecir un porcentaje
aceptable de respuestas. Sin embargo los propios autores, reconocieron luego que el efecto solo
explicaba la tendencia al error, pero que no era una verdadera teoría del razonamiento. También se
encontraban diferentes respuestas ante silogismos válidos y no válidos, dándose el sesgo en la res-
puesta. Tampoco predice los distintos niveles de dificultad de los silogismos categóricos, además
de indicar que siempre se dará un conclusión, cuando los resultados indican que no siempre se da
conclusión válida cuando la tarea es de producción.
Chapman y Chapman 1959, señalaban que el efecto atmósfera podía se más una ilusión de irracio-
nalidad pues ellos explicaban los resultados de sus estudios por la conversión ilícita de las premi-
sas y por la inferencia probabilística.
– El principio de inferencia probabilística: supone que mostramos una consistencia interna en nto
razonamiento pero con reglas erróneas. Esta nos conduce a que consideremos que las
entidades que comparten determinadas propiedades tendrían mayor probabilidad de
compartir otras relaciones. Un ejemplo:
M.Goretti González 4
Tabla 4.1 Distribución de los términos de un enunciado categórico
AFIRMATIVO AFIRMATIVO
PREDICADO PREDICADO
No distribuido distribuido
UNIVERSAL A E
SUJETO Todos los A son B Ningún A es B
distribuido Todos los hombres son mortales Ningún hombre es inmortal
(todos y cada uno de ellos) tanto sujeto como predicado están
distribuidos porque la relación se refiere a
la exclusión de hombres y de inmortales
PARTICULAR I O
SUJETO Algunos A son B Algunos A no son B
no distribuido Algunos hombres son mortales
De esta forma la cantidad del enunciado determina que el sujeto se encuentre distribuido en
los enunciados universales A – E y no en los particulares I – O; la calidad determina la distri-
bución del término predicado. En el Universal Negativo tanto el sujeto como el predicado están
distribuidos porque la relación se refiere taanto a las exclusión de todos los hombres de la clase
inmortales como a la exclusión de todos los inmortales de la clase de hombres.
La afirmación negación de la inclusión de clases determina que el predicado se encuentre dis-
tribuido en los enunciados negativos E – O y que no esté en los enunciados afirmativos A -I
El cuadro anterior ilustra por qué la conversión sólo es legítima para los E e I, pues son los únicos
que tienen los mismos valores en su distribución: sujeto y predicado distribuidos en E, y no
distribuidos en I, permitiendo realizar la conversión del enunciado y que con ello no se altere ni su
cantidad ni su calidad.
Revlis formula una propuesta más concreta basada en la conversión de todas las premisas y en el
supuesto de que se prefiere razonar con estas versiones convertidas de las premisas. Hay una pri-
mera etapa de procesamiento en la que se codifican las premisas y se convierten quedando repre-
sentadas ambas versiones. Y luego, se elabora una representación compuesta de las dos premisas
y se pasa a la codificación de la conclusión de modo semejante a la primera etapa. Por último hay
un proceso de comparación entre la representación conjunta de las premisas y la representación
de la conclusión. Si ambas con congruentes entonces se acepta el silogismo como válido. Si son
incongruentes se procedería con la comparación de las representaciones en sus versiones
originales sin conversión, hasta encontrar un argumento válido. Si no se obtiene éste, o se supera
el límite de tiempo, se procede o con modelo para la selección aleatoria de una de las alternativas
o bien con un modelo de selección de rasgos (cantidad y calidad).
El contenido temático del silogismo puede facilitar el razonamiento, por ejemplo, la conversión de
Todos los gatos son felinos en Todos los felinos son gatos, daría lugar a una premisa contraria al
conocimiento del sujeto. El razonamiento silogístico con contenido es mejorr que el abstracto
porque el contenido bloquea la conversión de las premisas en el proceso de codificación. Sin em-
bargo, los resultados experimentales son contrarios porque el efecto del contenido o de las
creencias se sigue manifestando incluso en aquellos silogismos en los que la conversión no altera la
validez del argumento.
Con respecto al efecto del contenido (sesgo de creencias) ya Wilkins 1928 había encontrado que el
contenido familiar facilitaba el rendimiento, pero que disminuía si el contenido entraba en conflic-
M.Goretti González 5
to con la estructura lógica. Ejemplos de argumentos válidos e inválidos con conclusiones creíbles e
increibles:
SILOGISMO EJEMPLO %
Ningún perro policía es vicioso
VÁLIDO CREIBLE Algunos perros muy entrenados son viciosos 89%
Algunos perros muy entrenados no son perros policías
Ningún producto nutritivo es barato
VÁLIDO INCREÍBLE Algunas vitaminas son baratas 56%
Alagunas vitaminas no son nutritivas
Ningún producto aditivo es barato
INVÁLIDO CREIBLE Algunos cigarrillos son baratos 71%
Algunos productos aditivos no son cigarrillos
Ningún millonario es muy trabajador
INVÁLIDO INCREIBLE Algunas personas ricas son muy trabajadoras 10%
Algunos millonarios no son personas ricas
En líneas generales los sujetos tienden a considerar que un argumento es válido si están de
acuerdo con su conclusión y que es falso si no lo están. Además, Evans, Barston y Pollard 1983 en-
contraron una interacción entre validez lógica y credibilidad de las conclusiones, siendo el efecto
mayor para los silogismos inválidos que para los válidos. Se obtuvo que los sujetos aceptaban más
conclusiones creibles que increibles independientemente de su validez lógica. Sin embargo, la
diferencia entre la aceptación de conclusiones inválidas creíbles y conclusiones inválidas increibles
fue mayor que la diferencia entre conclusiones válidas creíbles.
Evans y cols propusieron dos modelos para explicar cómo se realiza el proceso de evaluación de las
conclusiones:
1) modelo de escrutinio selectivo y,
2) modelo basado en una mala interpretación de la “necesidad lógica”.
1) El modelo de escrutinio selectivo sostiene que los sujetos se centran primero en la conclusión
del argumento y si ésta es coherente con su sistema de creencias, la aceptan sin más. Está basada
en los análisis de los protocolos verbales en los que se identificaban tres tipos de estrategias para
la solución de los silogismos:
– “Estrategia solo la conclusión”: solo mencionan la conclusión.
– “Estrategia de la conclusión a las premisas”: mencionan primero la conclusión y luego las prem.
– “Estrategia de las premisas a la conclusión”: mencionan antes las premisas.
Los sujetos de los dos primeros grupos 1 y 2, presentaron la mayor tendencia a responder de
acuerdo con la credibilidad de la conclusión. Hay que tener en cuenta que no explica el modelo el
efecto de la lógica sobre las propias conclusiones creíbles. Algunos autores ponen de manifiesto
que los sesgos de creencias se siguen dando, en las tareas en las que los sujetos deben generar sus
propias conclusiones y en las que, no hace falta un proceso de escrutinio de la conclusión.
2) El modelo basado en una mala interpretación del concepto de necesidad dice que los
sujetos en realidad no entienden la necesidad lógica. Un argumento deductivo es válido
sólo si es imposible que su conclusión sea falsa mientras que sus premisas son verdaderas.
Un silogismo con conclusiones posibles, pero no necesarias, se denomina un silogismo
inválido indeterminado y cuando no se sigue ninguna conclusión se denomina silogismo
inválido determinado.
M.Goretti González 6
SILOGISMO INVÁLIDO INDETERMINADO SILOGISMO INVÁLIDO DETERMINADO
Figura 2, modelo AAA Figura 4 modelo AAE
Todos los animales son seres vivos Todos los A son B Todos los cobardes son seres vivos Todos los A son B
Todos los perros son seres vivos Todos los C son B Todos los seres vivos son reactivos Todos los B son C
Todos los perros son animales Todos los C son A Ningún ser reactivo es cobarde Ningún C es A
Los sujetos responden de acuerdo con la credibilidad de las conclusiones en los silogismos
inválidos indeterminados, pero cuando es inválido determinado no se sigue ninguna conclusión y
la credibilidad no ejerce ninguna influencia. La credibilidad surte efecto sobre los silogismos
inválidos indeterminados y el efecto desaparece en los silogismos inválidos determinados. No
obstante ambos modelos dejan sin explicar el proceso de razonamiento y solo se centran en los
errores para algunos silogismos (inválidos indeterminados).
Begg y Harris sostienen que los errores de razonamiento silogísticos se encuentran en la interpre-
tación de las premisas, pero no por un proceso de conversión sino por la interpretación de los
cuantificadoressegún las convenciones lingüísticas. Los sujetos los interpretan de tres formas:
Ninguno como exclusión, algunos como intersección y todos como identidad. La interpretación de
“alguno” como “todos” y de “algunos no” como “ninguno” son propias del significado lógico pero
son inútiles psicológicamente.
Esta explicación de los errores se centra en la interpretación de las premisas según las implicaturas
conversacionales propuestas por Grice, 1975. Implicatura designa el contenido implícito de lo que
decimos y la máxima conversacional de cantidad explicaría los errores en la interpretación de los
cuantificadores particulares. Según la máxima de cantidad la conversación debe ser todo lo
informativa que requiera el diálogo, aunque nunca más de lo necesario. Esta explicaría que los
sujetos no acepten la relación de subalternancia entre un enunciado universal y uno particular:
uno universal implica su enunciado subalterno correspondiente como Todos los los hombres son
mortales implica que algunos hombres son mortales. Para las personas sería poco informativo
decir “algunos” cuando se sabe que son “todos”. Sigue el cuadro de oposición
Se aprecia que tanto A como E implican sus correspondientes enunciados subalternos I y O. Ambos
enunciados comparten el sujeto, el predicado y la calidad, pero difieren en la cantidad.
A y E son contrarios porque comparten el mismo sujeto y el mismo predicado pero no pueden ser
ambos verdaderos, aunque pueden ser falsos.
Entre A y O , y E e I se aprecia que son contradictorios pues tienen el mismo sujeto y el mismo pre-
dicado, pero difieren en calidad y cantidad. Uno de ellos es la negación del otro, ambos no pueden
ser verdaderos o falsos a la vez.
M.Goretti González 7
La máxima conversacional de cantidad dice que debe transmitir la mayor cantidad de información
posible y no ocultar deliberadamente parte de la información. El significado lógico de “algunos”
sería una transgresión de las máximas conversacionales cuando se sabe que “todo” también es
verdadero y este último cuantificador es que transmite mayor información.
Begg 1987, Newstead 1989 y Politzer 86,90 ponen de manifiesto que la interpretación de algunos
cuantificadores se rige por las implicaturas conversacionales y no por la lógica. Defienden la racio-
nalidad desde un modelo de convenciones lingüísticas en el que las reglas otorgan una lógica
intuitiva o natural, pero no hay datos experimentales suficientes como decir que las
interpretaciones “Griceanas” constituyan la principal fuente de errores del razonamiento
silogístico.
Los modelos de conversión también han sido criticados. Estos modelos explican el efecto atmósfe-
ra bajo el supuesto racionalista de que el razonamiento es lógicamente correcto, pero con unas re-
presentaciones invertidas de las premisas y no consideran la figura. Sin embargo, Frase y Pezzoli y
Frase 1968, encontraron un efecto análogo al efecto atmósfera con la figura del silogismo. El tipo
de figura también presentaba diferentes grados de dificultad, siendo la cuarta más fácil que la pri-
mera. Johnson- Laird y Steedman 1978 , decían que cuando los sujetos tenían que producir la con-
clusión del argumento, éstos generaban conclusiones A-C (donde la premisa mayor se
correspondía con el sujeto y predicado en la menor) con la figura 4, y C-A con la figura 1.
Universal afirmativa:
Todos los A son B A B A = B
Subconjunto Identidad
Universal negativa:
Ningún A es B A B
Disyunción
Particular afirmativa:
Algunos A son B
A B A A = B A B
B
M.Goretti González 8
Un argumento es válido cuando la conclusión es verdadera en todos los diagramas que
representan todas las posibles combinaciones de las dos premisas. Es un proceso bastante costoso,
sobre todo porque el número de combinaciones posibles es gralmente mayor que el producto de
los diagramas de las dos premisas al existir más de una forma de combinarlos.
Erickson 1974, 1978 propuso una teoría del razonamiento silogístico basada en los círculos de
Euler. Los sujetos representaban cada premisa de forma análoga a la representación espacial de los
círculos. Las ditintas interpretaciones posibles de las premisas llevan asociados unos parámetros
probabilísticos que determinan u selección.
1ª En primera etapa también influirá el contenido del argumento. Para evaluar o producir una
conclusión se combinan las representaciones de las premisas en una sola representación del
silogismo.
2ª etapa de combinación: se asume que no hace el sujeto análisis exhaustivo de todas las combina-
ciones posibles de las interpretaciones de las premisas, sino que selecciona una combinación de
acuerdo con los parámetros probabilísticos.
3ª etapa, se selecciona etiqueta verbal que se correponda con la descripción de la combinación
obtenida para dar la respuesta.
Los errores en el proceso pueden ocurrir en cualquiera de las etapas y se asume que los sujetos
son proclives al efecto atmósfera. El problema principal es el número tan grande de formas distin-
tas en las que se pueden combinar los diagramas.
Una de las críticas más importantes al modelo es que asume que no hay errores en la primera eta-
pa de la representación de las premisas cuando has datos que lo cuestionan. Tampoco contemplan
los efectos de la figura y se recurre al efecto atmósfera como un sesgo de respuesta sin
explicación psicológica.
Los modelos basados en los círculos de Euler predicen que la dificultad dependerá del nº de dia-
gramas necesarios para la interpretación y combinación de las premisas, pero los datos ponen de
manifiesto que algunos de los silogismos fáciles han podido resolverse sin dificultad con muchos
diagramas y otros que son más difíciles y precisan de menos.
Newell 1981, propone otra aproximación para explicar el razonamiento silogístico por medio de la
representación espacial de los diagramas de Venn. En este método se representa el silogismos en
un solo diagrama. Estos utilizan círculos que se encuentran sobrepuestos de forma que represen-
M.Goretti González 9
ten las relaciones entre los conjuntos del silogismo. Se sombrea aquella zona en la que no hay
miembros y se representa con una X las áreas en las que existe al menos un elemento cuando el
enunciado categórico es particular (afirmativo o negativo).
Si miramos en la figura 4.5. de la página 144 de
Universal afirmativa (A) nuestro queridísimo libro nuevo se apreciará un
B Todos los A son B silogismo válido EAE:
A Ningún B es A
Todos los C son B
Ningún C es A
Universal negativa (E)
B Ningún A es B
donde se representan con los diagramas de Venn
A
los tres términos del silogismo A, B y C, exponién-
dose el espacio o universo del discurso. Las áreas
sombreadas son las vacías, donde no hay miem-
Particular afirmativa (I)
X B Algunos A son B bros de la relación expresada por los dos
A conjuntos según premisa.
Según Newell ,este modelo pretende acomodar los silogismos categóricos al marco general que di-
señaron Newell y Simon para la solución de problemas. Se entiende que el razonamiento
silogístico es un proceso de búsqueda a través del espacio del problema y que este espacio se re-
presenta de forma análoga a los diagramas de Venn. No se hacen predicciones sobre los errores, ni
se aportan datos empíricos que apoyen la viabilidad del modelo (Simon 1989, comentó que es pro-
bable que la utilización sólo ocurra en sujetos expertos y que una representación en la línea de los
modelos mentales es preferible, y más acorde con una aproximación del razonamiento silogístico.
Los modelos mentales de conjuntos fue una teoría del razonamiento silogístico en sus orígenes y
hoy constituye un marco teórico gral del razonamiento deductivo. Este comprende tres etapas:
1) etapa de interpretación y representación inicial de las premisas: utiliza su conocimiento
sobre el lenguaje y su conocimiento gral para comprender las premisas.
2) El sujeto combina las representaciones anteriores para generar una descripción lo más sen-
cilla posible de los modelos construidos a partir de las premisas. Debe enunciar algo que no
se encuentre explícito en las premisas y es la conclusión tentativa del argumento.
3) El sujeto busca modelos alternativos para poder falsar la conclusión tentativa. Si no los en-
cuentra la conclusión es válida, pero si los encuentra, regresa a la segunda etapa para
seguir probando conclusiones tentativas con contraejemplos.
M.Goretti González 10
El principio de economía propuesto por la teoría asume que el modelo mental inicial sólo
representará la cantidad de información explícita que sea necesaria para la interpretación de la
premisa. Está constituido por símbolos que representan miembros representativos del conjunto.
En la universal afirmativa Todos los A son B -> “a” es un miembro representativo del conjunto A y
“b” del conjunto B. Cuando un miembro del conjunto se encuentra representado dentro de un
corchete [a], quiere decir que el conjunto de miembros se encuentra exhaustivamente representa-
do. Por ejemplo si no hay miembros de “a” que no sean de “b” -->> [a] b
...
“b” se representa así pues no sabemos si alguno de sus miembros puede pertenecer a A
Una sola representación del modelo mental de la universal afirmativa comprende las dos
representaciones espaciales de los círculos de Euler: relación de identidad y subconjunto. Los tres
puntos (...) indican que podría haber otra clase de miembros que no se encuentran representados
en el modelo inicial, es como una anotación mental que indica la existencia de otros modelos que
están implícitos. Pueden hacerse explícitos en la que sea necesario ampliar la información
enunciada en las premisas. Por ejemplo en la representación de los miembros que no son “a” y son
“b” ( ¬a b )
En la segunda etapa del modelo se deben combinar los modelos mentales de las premisas en una
sola descripción. Se añade el modelo mental de la segunda premisa al modelo de la primera
mediante el término medio. Si fuera una universal afirmatiava: Todos los B son C, sería:
[b] c
[b] c
... y por la combinación de ambos modelos se obtendría:
[b] a [b]
[b] a [b]
... c
c
combinando ambos modelos:
[a [b] ]
El modelo sugiere la conclusión:
[a [b] ]
[c] Ningún C es A
[c] sin embargo, como “a” no se encuentra exhaus-
... tivamente representado y podía haber algún “c”
M.Goretti González 11
que fuera “a” , aunque no fuera “b”, podemos generar este segundo modelo mental donde:
[a [b] ]
[a [b] ]
a [c]
[c]
... y si este segundo modelo refuta la conclusión anterior y sugiere que
“Algunos C no son A”
[a [b] ]
[a [b] ]
a [c]
a [c]
...
La teoría de los modelos mentales explica la dificultad de los silogismos y los errores por el núme-
ro de modelos mentales y por el tipo de figura. Los resultados han puesto de manifiesto que
cuanto mayor sea el nº de modelos mentales necesarios para encontrar una conclusión válida
tanto más difícil será el problema y mayor la probabilidad de error. La figura también determina la
dificultad y la probabilidad de que una conclusión sea del tipo C-A o A-C. Se debe a que las
conclusiones se leen en el modelo mental en la misma dirección enn la que se han representado.
Cuando no se encuentran en la misma dirección hace falta una operación que invierte el orden y/o
la relación espacial entre los términos para poder realizar la combinación de los modelos mentales.
NIVEL DE DIFICULTAD OPERACIONES NECESARIAS PARA LA COMBINACIÓN DE LOS MODELOS MENTALES
FIGURA 4 (má fácil) No requiere ninguna operación dado que se lee directamente la conclusión A C
A B
B C
FIGURA 1 Requiere una operación de inversión del orden de las premisas
B A
C B
FIGURA 2 Requiere operación de inversión de la relación espacial entre los términos de la
A B segunda premisa
C B
FIGURA 3 (más difícil) Requiere una operación de inversión de la relación espacial entre los términos de la
B A segunda permisa y cambiar el orden de las premisas o la inversión de la relación espa-
B C cial entre los términos de la primera premisa
El contenido o las creencias se consideran una fuente error pues pueden influir en la interpreta-
ción, en la combinación de modelos y en el proceso de aceptación o rechazo de la conclusión
tentativa. Cuando el contenido influye puede acortar el procceso de búsqueda de modelos alterna-
tivos si la conclusión tentativa es compatible con el sistema de creencias, aunque sea inválida.
Podría ocurrir que el sujeto buscara afanosamente más modelos mentales alternativos cuando la
conclusión fuera contraria a su sistema de creencias. Este efecto estaría influyendo en la búsqueda
de contraejemplos. Incluso este contenido influye en los silogismos de un solo modelo mental y
proponen que una conclusión increíble también podría actuar de filtro en el proceso de
evaluación, haciendo que la sustituyan por una conclusión creíble o que respondan que no hay
conclusión.
M.Goretti González 12
bles interpretaciones, ni se compromete con el tipo de representación de los MM, ni con el orden
de la combinación de los MM.
Las investigaciones sobre el razonamiento con silogismos transitivos (lineales, problemas órdenes
lineales o de series de tres términos) estudian las inferencias que dependen de las relaciones de
transitividad. Es la propiedad de cualquier escala con la que se compara u ordenan objetos. Estos
trabajos han utilizado un silogismo constituido por dos premisas en las que se relacionan sus tres
términos en función de una propiedad transitiva y una conclusión que establece la relación entre
los dos términos no adyacentes.
Luis es mayor que Juan; Juan es mayor que Pedro; Luis es mayor que Pedro
Hay ocho estructuras básicas para representar un silogismo transitivo A > B > C y darse :
A>B;B>C
A>B;C<B
B<A;C>B
... y hasta ocho combinaciones posibles. Además se pueden introducir relaciones negativas en una
de las dos premisas o en ambas (premisas de igualdad negada). La tarea experimental más habi-
tual consiste en presentar las dos premisas del silogismo y pedir que se conteste a una pregunta
sobre la relación entre “A” y “C” o que se evalúe la validez de una conclusión. Las estructuras
básicas se pueden presentar con dos preguntas o conclusiones alternativas. También se han utiliza-
do silogismos indeterminados en los que los dos términos de la serie están situados hacia el mismo
extremo de la relación con respecto al término medio, no pudiéndose alccanzar una conclusión
válida sobre la relación entre ambos. Por ejemplo, en el siguiente silogismo los términos A y C se
encuentran situados hacia el mismo extremo B > A y C < B y no podemos inferir la relación entre
A y C, solo que son menores que B.
En el trabajo de Störring 1908, se describía cómo algunos sujetos parecían formar un diagrama
mental de las premisas, representándolas mediante imágenes mentales, mientras que otros pare-
cían resolver el problema de forma verbal.
Uno de los primeros modelos en la explicación del raz.transitivo hacía hincapié en los aspectos
operacionales implicados en su solución. Hunter 1957 decía que poder hacer una inferencia trans-
sitiva es necesario que las premisas contengan la misma relación y que el término medio sea el
predicado de la primera premisa y el sujeto de la segunda.
Luis es mayor que Juan; Juan es mayor que Pedro; Luis es mayor que Pedro.
Cuando el argumento no tiene la misma relación: Pedro es menor que Juan, o por ejemplo, Pedro
no es mayor que Juan, se deben aplicar las operaciones de conversión y de reordenación de
premisas. Mediante ello se logra que los términos medios de ambas premisas sean adyacentes. Si
la segunda premisa fuera Pedro es menor que Juan, entonces su conversión en Juan es mayor que
Pedro, logra que los términos medio se ubiquen en una disposición de contigüidad.
Hunter propuso que la aplicación de estas operaciones daban lugar a los distintos niveles de
dificultad de los problemas.
M.Goretti González 13
Los resultados experimentales no apoyaron todas las predicciones del modelo operacional. Fue
Johnson -Laird y Bara 1984, los que encontraron que en los silogismos transitivos también ocurría
el efecto de la figura, donde al igual que en el estudio con los silogismos categóricos, el tipo de fi-
gura favorecía las conclusiones A – C o C – A. El nivel de dificultad de los silogismos estaba relacio-
nado con el proceso de integración de la información en función del tipo de figura u orden de los
términos.
De Soto, London y Handel 1965, sostienen que el proceso de solución requiere la combinación de
las interpretaciones de las premisas en una representación unitaria y espacial. El Modelo de la
Imagen Mental está basado en la elaboración e interpretación de una imagen del contenido de las
premisas y dificultad depende del tipo de términos relacionales empleados en ellas. La dificultad
se da por la elaboración de la representación espacial correspondiente a la serie de tres términos.
Estos indican dos principios grales:
1) Principio de la preferencia direccional: los sujetos prefieren construir los órdenes
espaciales en determinadaas direcciones. En la cultura occidental se prefiere trabajar de
izda a derecha y de arriba abajo. Las relaciones se presentan en estos ejes espaciales. El
silogismo será más fácil si la primera premisa contiene en primer lugar el término que se
sitúa más arriba o más a la izquierda. “A es mejor que B ” es más fácil que “B es peor que A”,
también es más fácil representar el silogismo: “A es mejor que B” “B es mejor que C” que “B
es mejor que C” “A es mejor que B”.
2) Principio de anclaje de los extremos: La construcción espacial será más fácil cuando se
enuncia en primer lugar uno de los dos extremos de los ejes espaciales. Las más fáciles
serán aquellas que procedan de uno de los términos extremos al término medio: “A es me-
jor que B” o “B es mejor que C”. Construimos un eje mental marcado por la preferencia
direccional en el que se colocan los tres términos de la serie.
Los resultados muestran que esta disposición espacial se ajusta a las preferencias
culturales, (escritura y lectura). Sin embargo, el pp. de anclaje de los extremos sólo parece
influir en la segunda premisa. Huttenlocher 1968, sostiene que en la comprensión de la
primera premisa se coloca un término medio en relación con el otro en la disposición
espacial que construyen los sujetos. Comprendida la segunda premisa, entonces se colo-
cará el tercer término con respecto a los dos anteriores. Los resultados experimentales
mostraron que los silogismos A es mejor que B, C es peor que B; y “B es peor que A, C es
peor que B”, eran semejantes en el nº de aciertos y tiempos empleados. En el cuadro
siguiente podemos ver que el ppo.del anclaje de los extremos sólo influye en la segunda
premisa.
MÁS FÁCILES MÁS DIFÍCIL
(primero) A es mejor que B (tercero) B es peor que A
C es peor que B B es mejor que C
(segundo) B es peor que A Como en la segunda premisa se enuncia en primer lugar
C es peor que B uno de los dos extremos de los ejes (C) son los más
fáciles.
Podemos ver que este ppo. no influye sobre la primera premisa dado que en el segundo se
presenta primero el término medio (B) al igual que en el tercer silogismo.
M.Goretti González 14
3.3. El modelo lingüístico
Los modelos anteriores explican alternativas del mismo fenómeno, generando una polémica en
torno al modo de representación más adecuado de las premisas. La polémica ha dado lugar a una
ardua investigación experimental siendo la polémica difícil de resolver pues ambos hacen la misma
predicción pero por razones distintas. Por ejemplo, las predicciones del ppo.de la preferencia
direccional coinciden con las del principios del marcado léxico, peus la disposición de arriba a aba-
jo también se encuentra predicha por la facilidad de los términos comparativos no marcados.
Según Clark, la confrontación es más evidente en las premisas negativas y los datos experimentales
apoyan las predicciones del modelo lingüístico. Las premisas negativas tendrían un equivalente en
la versión afirmativa que daría lugar a las mismas predicciones en el modelo espacial y a
M.Goretti González 15
predicciones inversas en el modelo lingüistico: A no es tan malo como B, B no es tan malo como C,
serían equivalentes a : A es mejor que B, B es mejor que C. Ambos tipos de premisas darían lugar a
los mismos resultados, ya que la preferencia para la construcción de la imagen mental ess en
ambos casos de arriba hacia abajo. El modelo lingüístico, no obstante, predice que la estructura
lingüística es distinta, siendo las premisas negativas más fáciles al conservar el término medio en la
representación proposicional.
Algunos autores señalan que Clark parte del supuesto de la equivalencia entre las premisas afirma-
tiva y las negativas pero esta equivalencia puede no existir en el proceso de comprensión, pues
puede que A no es tan malo como B, no se interprete como A es mejor que B, sino como B es peor
que A y entonces la direccionalidad de abajo arriba, y el marcado léxico vuelven a coincidir en sus
predicciones. Tampoco se puede diferenciar el principio de anclaje de los extremos del modelo
espacial, y el principio de congruencia del modelo lingüístico, pues predicen resultados convergen-
tes, aunque por razones distintas.
El modelo mixto de Sternberg 1980, es un modelo conciliador que reúne aspectos tanto lingüísti-
cos como espaciales en la explicación del razonamiento con series de tres términos. El procesa-
miento de la información lingüística precede a la representación espacial y ambos tipos de repre-
sentaciones se encuentran disponibles durante la ejecución de los procesos de búsqueda y recupe-
ración de la información.
La propuesta del modelo mixto intenta integrar los aspectos del M lingüístico relacionados con los
adjetivos marcados en la etapa de codificación y los del modelo de la imagen en la construcción de
la disposición espacial en la que los términos se ordenan en la dirección no preferida. Cuando la
segunda premisa es de igualdad negada, se propone la búsqueda del término medio si la
codificación lingüística de esta premisa tiene como objeto gramatical al término medio. Localizado
este se construye una representación unitaria, situando primero la primera premisa y luego la
segunda. Si la respuesta está en la segunda premisa, la lectura de la respuesta es inmediata. Si está
en la primera, se realizará un recorrido que llevará tiempo.
Aún así, es posible que los sujetos desarrollen distintas estrategias a medida que adquieren
experiencia en la solución de los silogismos transitivos. Durante la tarea experimental, pueden
empezar por una representación de las disposiciones espaciales y a medida que van resolviendo
los problemas pueden cambiar a una representación lingüística o a la inversa. Por ejemplo, si la
pregunta se presenta ants que las premisas se adopta una estrategia lingüística y si la pregunta se
presenta después, una estrategia espacial.
M.Goretti González 16
mentales para llegar a una inferencia sobre las relaciones entre los dos términos no relacionados
explícitamente en las premisas.
Esta teoría predice que la dificultad de los problemas dependerá del número de modelos mentales
que puedan construirse. En los problemas de series de tres términos, la validez y el número de
modelos mentales no se pueden distinguir, ya que los problemas que dan lugar a un modelo
mental son también los que alcanzan una conclusión válida, mientras que no hay conclusión válida
en los problemas que dan lugar a más de un modelo. Byrne y Johnson-Laird 1989, se plantearon el
estudio de las relaciones transitivas con cinco términos en las que la dificultad de los problemas se
puede analizar en función del número de modelos mentales.
Las premisas dan lugar a dos modelos mentales y en ambos la conclusión es “D se encuentra a la
izquiera de E” o “E se encuentra a la derecha de D”
MODELO 1 MODELO 2
C A B A C B
D E D E
Los resultados apoyan las predicciones de la teoría de los modelos mentales frente a las prediccio-
nes del modelo de Hagert 1984 basado en representaciones porposicionales y la aplicación de
reglas: el número de modelos mentales y no el nº de reglas determina la dificultad de los proble-
mas.
Hay datos a favor de una representación espacial integrada en las investigaciones sobre la
memoria de trabajo y el razonamiento silogístico. En la Tª de los modelos mentales la sobrecarga
de la Mtrbjo es una de las fuentes principales de error y a la medida que aumenta el número de
modelos mentales también aumenta la dificultad de los problemas. La MT está constituida por un
procesador central apuado en un almacén fonológico y uno visoespacial. Este último está encarga-
do de retener en la MT la información visual: color; e información espacial: movimiento. Si se in-
troduce durante la realización de una tarea de silogismos lineales una segunda tarea que requiera
la utilización de esste almacén visoespacial, se esperaría encontrar un deterioro en el rendimiento
de los sujetos al producirse una interferencia en la construcción y elaboración de las disposiciones
espaciales en la MT. Los resultados experimentales han puesto de manifiesto que la introducción
de una tarea visoespacial secundaria interfería en el rendimiento de los sujetos, apoyando de esta
forma la representación de una disposición espacial en el razonamiento silogístico.
M.Goretti González 17
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013
1. INTRODUCCIÓN
El razonamiento condicional se centra en las relaciones contingentes reales o hipotéticas que vie-
nen enunciadas por medio de los operadores lógicos, “Si, entonces” (implicación material) y “Si y
solo sí, entonces” (implicación inmaterial). Esta formulación presenta algunas dificultades cuando
se interpreta desde el modelo normativo lógico.
Cabría esperar lógicamente que la próxima vez que nos diga que Pepa va a cenar a casa de sus pa-
dres pensemos que esa noche se queda a dormir Modus Ponens.
Pero si dice: Pepa durmió anoche en casa de sus padres, ¿podríamos inferir que anoche también
cenó con sus padres?
Si se infiere de esta manera, se cometería un error : la afirmación del consecuente.
Si nos hubiera dicho: Pepa ayer no cenó con sus padres y hubieramos inferido que entonces no
durmió en casa de sus padres, cometeríamos el error de la negación del antecedente.
Si sabemos que no se ha quedado a dormir podemos inferir lógicamente que no ha cenado con
ellos Modus Tollens.
Pero si el comentario hubiera sido:
“Si y solo si Pepa va a cenar a casa de sus padres, entonces se queda a dormir”
q se queda a dormir.
M.Goretti González 1
El modus ponens es la inferencia válida más fácil, frecuente y natural. Si asumimos que anteceden-
te y consecuente son verdaderos, cabe deducir que cuando se cumple p, entonces también se
cumple q. El modus tollens es, la inferencia válida más difícil. Se suele responder indicando que no
hay conclusión. No se suele pensar que el consecuente es necesario para que ocurra el anteceden-
te, porque es difícil creer que el que no ocurra el consecuente implique que no ocurra el
antecedente. Otra forma “rara” de expresar la relación necesaria sería : “Pepa va a cenar a casa de
sus padres, solo si se queda a dormir”. Por tanto, si Pepa no duerne en casa de sus padres, no ha
ido a cenar a casa de sus padres.
Modus TOLLENS (MT)
Si p , entonces q Si Pepa va a cenar a casa de sus padres (p),
entonces se queda a dormir. (q)
¬q Pepa no se ha quedado a dormir (¬q) (negación de prmisa menor)
Los dos errores habituales en la implicación material son concluir que no se cumple el consecuente
porque noo se ha cumplido el antecedente (falacia de la negación del antecedente) y que se cum-
ple el antecedente porque se cumple el consecuente (falacia de afirmación del consecuente) . El
antecedente es suficiente para que ocurra el consecuente pero no es necesario y tendríamos que
haber dicho “solo si Pepa va a cenar a casa de sus padres, entonces se queda a dormir”. Cuando el
antecedente es suficiente, su negación no implica que el consecuente no pueda ocurrir con otros
antecedentes.
El consecuente es necesario para que ocurra el antecedente, y con ello el que si no ocurre
consecuente, no pueda darse antecedente, pero si ocurre no implica que se haya dado el antece-
dente.
Falacia de la AFIRMACIÓN DEL CONSECUENTE (AC)
Si p , entonces q Si Pepa va a cenar a casa de sus padres (p),
entonces se queda a dormir. (q)
q Pepa se queda a dormir (q) (afirmación)
Si se hubiera expresado con el bicondicional “si y solo si” - “Pepa va a cenar a casa de sus padres,
entonces se queda a dormir” (equivalencia material) , las cuatro inferencias anteriores hubieran
sido válidas. El bicondicional es expresión poco habitual e incómoda por lo que la falacia de la afir-
mación del consecuente y la negación del antecedente puede deberse a que las personas
interpreten la implicación material como la equivalencia material.
Aún así, las inferencias lógicamente válidas presentan un índice de dificultad. En un meta-análisis
de 65 estudios con 700 sujetos, se obtuvo que cerca del 97% evaluaban como válidas inferencias
modus ponens (más fácil), 74% las inf.modus tollens, 64% la falacia de afirmar el consecuente y el
M.Goretti González 2
56% la falacia de negar el antecedente (más difícil). Además, este intercambio entre condicional y
bicondicional no ocurre con cualquier formulación “si p, entonces q”, sino que depende de diferen-
tes funciones semánticas del condicional (implicación indicativa, causalidad, advertencia,
permiso,...)
Los modelos de reglas mentales parten del supuesto de que los sujetos tienen reglas de inferencias
semejantes a las reglas lógicas y que estas reglas se aplican sobre un representación proposicional
de los argumentos condicionales con el fin de obtener o probar la conclusión. No abarcan todo el
conjunto de reglas lógicas, solo las básicas y las que se utilizan de forma natural y sin esfuerzo,
como en el modus ponens.
Se parte del supuesto general de que los problemas de razonamiento serán más difíciles en
función del número de pasos comprendidos en el procedimiento de prueba y de las propias limita-
ciones de los recursos de procesamiento de la información.
Esta propuesta fue ampliada y revisada en varios trabajos posteriores. En una de las últimas, la
explicación del razonamiento condicional se basa en tres componentes:
1. Entrada léxica, la cual codifica la entrada de la información lingüística del término “si” en
esquemas de inferencia independientes del contexto. Solo se interpreta su significado.
2. Componente: programa de razonamiento: con pasos a seguir desde la información
interpretada hasta la conclusión.
3. Procesos de comprensión pragmática: que junto a la entrada léxica, interpretan el condi-
cional según sea el contexto en que ocurra.
Los esquemas de inferencia para la codificación del término lingüístico “si”, son el modus ponens y
un esquema para demostrar el condicional. El MP concreta la conclusión que se puede inferir a
M.Goretti González 3
partir de la información que se tiene de las premisas. Por ejemplo:
– conclusión --> “voy al cine”.
– a partir de premisas ---> “Si llueve, entonces voy al cine” -> (si p,entonces q); y “ llueve” -> (p)
El esquema para la demostración del condicional permite evaluar la validez del argumento. Permi-
te saber si podemos afirmarlo. Permitirá demostrar que, “Si llueve, entonces voy al cine” , voy al
cine bajo el supuesto hipotético de que llueva. Esta regla introduce suposiciones en el
procedimiento de prueba siemppre y cuando éstas sean consistentes con las premisas, evitando
caer en contradicciones dentro del propio argumento. Braien y cols.1984 propusieron 18
esquemas de inferencias del razonamiento deductivo, reglas básicas y universales. (¡No tenían otra
cosa que hacer!)
Este programa está constituido por rutinas que dan lugar a razonamiento directo y estrategias que
producen el raz.indirecto.
Las rutinas son comunes a todos los sujetos y con poco esfuerzo. Buscan aplicar emparejamiento
entre los esquemas de inferencia y la forma de las proposiciones que constituyen las premisas del
argumento. En el caso del condicional, el emparejamiento ocurre entre el modus ponens y las pre-
misas “si p entonces q” y “p”. En el caso de tener que generar conclusión “q” (voy al cine), y en el
caso de que esta conclusión formara parte de una cadena de razonamiento, entonces la inferencia
se incorporará en el conjunto de premisas con las que se trabaja.
Cuando lo que se tiene es que evaluar la validez de un argumento, se comprueba si existe una
correspondencia o una contradicción entre las proposiciones del conjunto de premisas y la con-
clusión. El emparejamiento entre un esquema de inferencia y una proposición es el mismo, pero la
inferencia que se obtiene pasa a formar parte del conjunto de premisas y se comprueba su
consistencia o contradicción con la conclusión del argumento.
Para explicar las falacias de negar antecedente como la de afirmar el consecuente, como la
M.Goretti González 4
inferencia del modus tollens se recurre al componente 3º de comprensión pragmática. Cuando
los sujetos interpretan “si p, entonces q” también añaden las inferencias invitadas o sugeridas por
el contexto -> “Si no p, entonces no q”. Interpretación que se corresponde con el bicondicional ->
“Si y solo si p, entonces q” violando la prescripción lógica.
Para explicar la inferencia lógica correcta del modus tollens se recurre a las inferencias invitadas
del bicondicional, obteniendo una conclusión válida por una interpretación equivocada. La falta de
respuesta o lo difícil del modus tollens, se explica porque esta regla no forma parte de los esque-
mas de inferencia básicos. Para una conclusión válida se tendría que utilizar la reducción al absur-
do donde: si p es verdadera, entonces q tiene que ser verdadera, pero q es falsa, luego p tiene que
ser falsa.
Cuando las rutinas de razonamiento directo fracasan, el modelo cuenta con las estrategias de
razonamiento que no son universales, dando lugar a una amplia gama de diferencias individuales
entre las estrategias utilizadas, como procesos heurísticos, o transferencia del problema a otros
procesos de razonamiento (analógico o probabilístico,...)
(Sigo admirándo a estos señores que se les ocurre ponerse a investigar estas cosas en su momento, debe ser por lo de su
inteligencia creativa, no conformista y con ganas de querer darle al coco por el aburrimiento.... ¡vaya que si le han dado! Total,
para decirme que si no utilizo las rutinas que me han sabido describir más arriba, al final es porque utilizo mi propia estrategia a
diferencia de las que pueda utilizar otro ser humano,... ¡en fin! :-)
Rips 1994 propone la Teoría Psycop. Esta fue desarrollada de su modelo computacional ANDS, el
cual explica la deducción como un proceso de prueba mental constituido por tres componentes:
1. Estructuras de memoria
2. Gestor para el control de la aplicación de reglas,
3. Reglas mentales de inferencia.
Se parte de la idea de que las reglas mentales se utilizan para la generación y comprobación de una
prueba mental en la memoria de trabajo bajo el control de un gestor encargado de la correcta
aplicación dichas reglas mentales. La dificultad sería explicada por el número y tipo de reglas
mentales y los errores por aquellos factores que impiden la aplicación de las rutinas (limitación
MT, ausencia de la regla apropiada,...)
El procedimiento de prueba constta de una jerarquía de asertos (árbol de asertos) que incluye las
premisas y proposiciones que se derivan de las mismas; y otra jerarquía de submetas (árbol de
submetas) que incluye la conclusión y las proposiciones que la garantizan. Las reglas de inferencia
van colocando estas premisas en ambas configuraciones y se prueba el argumento cuando se da
un emparejamiento entre submetas y asertos. Hay dos tipos de reglas:
1. reglas hacia delante: derivan las implicaciones desde las premisas a la conclusión, y
2. reglas hacia atrás: son para comprobar la validez del argumento y van desde conclusión a
premisas.
Se coloca la premisa en la parte superior del árbol de asertos, y la conclusión en la parte superior
M.Goretti González 5
del árbol de submetas, pudiéndo vincularse con otras submetas cuya verdad garantiza la verdad de
la conclusión. El modelo también utiliza suposiciones para asumir que una proposición es
verdadera y así generar inferencias adiocionales. Éstas se colocan en nodos subordinados del árbol
de asertos. Ejemplo:
Si no hay una M o no hay una P en la pizarra, entonces hay una R.
No hay una M
Premisa inicial:
2. Si no hay una M , entonces hay una R
1. Si no hay una M o no hay una P, entonces hay una R
(conclusión)
7. Si no hay una M, entonces hay una R
Nodo subordinado
Van enumeradas según el orden de entrada en la estructura de memoria. La premisa (1) se coloca
en árbol de asertos y la conclusión (2) en el de submetas. Luego se asume que el antecedente “No
hay una M” es verdadero y se ubica en nodo subordinado (3). También una nueva submeta “R”
subordinada para probar que el consecuente es verdadero. Este se deduce del aserto 1 si se puede
probar que “No hay una m o no hay una P” es verdadero. Luego se coloca una nueva submeta para
probar “No hay una M”. Dado que coincide con el aserto 3, se puede suponer que el aserto R es
verdadero y se puede probar como válido. El modelo evaluará como inválido un argumento
cuando no haya reglas que permitan encontrar el emparejamiento entre submetas y asertos.
Este modelo explica el proceso de razonamiento condicional como la generación de una prueba en
la memoria de trabajo en la que se admiten suposiciones. No tienen que ser necesariamente
verdaderas. El árbol de asertos reúne los pasos lógicos que conducen desde las premisas a la
conclusión y el árbol de submetas guía el proceso desde la conclusión a las premisas. Las reglas son
sensibles a las metas del sistema.
Rips formula catorce reglas de inferencia hacia atrás y diez reglas hacia adelante, que se aplican en
un orden de preferencia que empieza por las sencillas (conjunto no definido que tampoco abarca a
todo el conjunto posible, pero sí puede manejar un amplio conjunto de argumentos y su plausibi-
lidad psicológica viene dada por los propios protocolos verbales de los sujetos) De este conjunto
dos son Modus Ponens: hacia adelante y hacia atrás.
La regla del MP hacia adelante permite inferir “q” si en el árbol de asertos se encuentran las pro-
posiciones “si p, entonces q” y “p”. La regla del MP hacia atrás se aplica sobre el árbol de
submetas para aquellas situaciones en las que las condiciones iniciales tienen como meta deducir
“q” y “cuentan con el aserto “ si p, entonces q” y en este caso el sistema genera laa submeta “p” y
se infiere “q” que es el consecuente de la proposición de el árbol de asertos.
El modelo no cuenta con procedimiento directo para la detección de los argumentos inválidos. Un
argumento es inválido sólo si no se pueden encontrar reglas para probarlo. El análisis de protoco-
M.Goretti González 6
los verbales muestra que los sujetos también evaluamos un argumento inválido de forma directa y
sin necesidad de realizar una búsqueda exhaustiva.
Existen al margen varias perspectivas teóricas que no están de acuerdo con el acento lógico de
estos modelos y sus críticas subrayan la falta de explicación de los efectos del contenido sobre el
proceso de razonamiento.
Una representación exhaustiva es representada por corchetes [...] “p” no puede representarse en
otra situación que no sea aquella en la que se relaciona con “q”. Sin embargo, “q” puede darse en
otros modelos mentales con o sin “p”. Los tres puntos ... representan otros modelos posibles que
no se encuentran representados, pero que pueden hacerse explícitos. Al aumentar el número de
modelos explícitos también aumenta la carga de procesamiento. Los modelos implícitos pueden
desarrollarse en modelos explícitos de dos formas distintas, interpretación del condicional
(implicación material) y como bicondicional (equivalencia material)
En el modelo mental inicial, la inferencia modus ponens es directa y, la más fácil. Además el mode-
lo mental inicial es el mismo para el condicional como para el bicondicional, lo que explica cierta
Modelo [p] q Ambigüedad encontrada en su interpre-
inicial ... (modelos implícitos) tación.
CONDICIONAL BICONDICIONAL Cuando se plantea una inferencia Modus
Modelos [p] [q] [p] [q] Tollens: Saber que Si Juan va a Barcelona
explícitos [¬p] [q] entonces viaja en avión, y saber que Juan
[¬p] [¬q] [¬p] [¬q] no viaja en avión (¬q), no se puede ob-
tener una conclusión directa del modelo inicial, y hará
falta desplegar los modelos implícitos. Podemos ver que la inferencia modus Tollens para la impli-
M.Goretti González 7
cación material requiere tres modelos explícitos y para la equivalencia material tan solo dos. Se
puede explicar también que la inferencia Modus Tollens es más fácil en el bicondicional que en el
condicional y que no existan diferencias en el modus ponens al compartir ambas interpretaciones
el mismo modelo mental inicial.
El modelo mental inicial del condicional explica por qué los sujetos paracen ajustarse a una tabla
de verdad defectiva (bicondicional) al considerar irrelevantes aquellos condicionales en los que el
antecedente es falso.
TABLA DE VERDAD DEL CONDICIONAL
p q Implicación material Condicional defectivo
VERDADERO VERDADERO VERDADERO VERDADERO
VERDADERO FALSO FALSO FALSO
FALSO VERDADERO VERDADERO IRRELEVANTE
FALSO FALSO VERDADERO IRRELEVANTE
El modelo inicial solamente representa lo que es verdadero. Esto se ajusta a los resultados
experimentales que muestran la irrelevancia psicológica de un antecedente falso porque el modelo
mental inicial es precisamente una representación exhaustiva del estado actual de cosas descritas
en el antecedente. Para cualquier otra inferencia (que no sea modus ponens) habrá que generar
los modelos mentales explícitos. El conocimiento gral. y el conocimiento de las relaciones entre
antecedente y el consecuente influyen sobre este proceso de interpretación dando lugar a la gene-
ración de los modelos explícitos.
Las falacias de afirmar consecuente y negar antecedente se explican por la generación de los
modelos mentales explícitos: Los sujetos representan exhaustivamente tanto el antecedente como
el consecuente [p], [q] y cuando se afirma el consecuente [q] se produce también la afirmación del
antecedente [p]. La falacia de la negación del antecedente ocurre menos frecuente pues requiere
de otro modelo mental explícito: [¬p] [¬q], que da lugar a la inferencia ¬q.
Una de las críticas al modelo de reglas mentales es que acomodan los efectos del contenido a un
componente para laa comprensión de los enunciados, manteniendo intacta la estructura formal de
las reglas. Considerando que una de las reglas básicas es el modus ponens, Byrne 1989 demostró
qu esta inferencia se podía suprimir o bloquear por el contenido, y así se puede descartar que esta
inferencia se haga por la aplicación de una regla que se supone básica e independiente del conte-
nido.
Byrne inspirado en los trabajos de Rumain, Connell y Braine (1983) los cuales bloqueban las fala-
cias de NA y de la AC introduciendo una premisa adicional que establecía un antecedente
alternativo para el mismo consecuente:
Si voy a jugar al tenis, entonces me pongo el chandal. Y se presenta la premisa adicional como, Si
voy a hacer footing, entonces me pongo el chandal. Cuando se introduce esta los sujetos se dan
cuenta de que la negación del antecedente no implica la negación del consecuente (pues uno se
puede poner el chandal aunque no vaya a jugar al tenis) y que la afirmación del consecuente no
implica la afirmación del antecedente pues uno no tiene que ir necesariamente a jugar al tenis por
tener el chandal puesto. Rumian y cols. quería demostrar que los sujetos no tienen reglas para
estas falacias, pero Byrne quería con ello demostrar que no había ninguna regla mental ni la del
modus ponens. En su procedimiento no se introducía un antecedente alternativo, sino otro que
M.Goretti González 8
fuera necesario para que se cumpliera el consecuente:
Si salgo a hacer footing, entonces me paso por tu casa --> Si es una hora prudente, entonces me
paso por tu casa. En este caso la premisa adicional informa que hace falta otro antecedente para
que se cumpla el consecuente. Al presentarse “Salgo a hacer footing” los sujetos no hacen la infe-
rencia modus ponens y responden que no se sabe o que no se puede. Por tanto este resultado
cuestionna que existan reglas de inferencia MP que se apliquen independientemente del conteni-
do.
Politzer y Braine 1991 señalan que lo dicho por Byrne no es adecuado. Los autores defienden que
la interpretación que harían los sujetos de las dos premisas sería “Si salgo a hacer footing y si es
una hora prudente, entonces me paso por tu casa”, pero también uno puede decidir no pasar.
Admitiendo la réplica de estos autores, la Tª de los MM es más completa ya que logra predecir y
explicar un mayor número de resultados experimentales que los modelos de reglas. Braine 1993
sugiere que se puede razonar tanto con reglas de inferencia como con modelos mentales y que los
modelos metales son compatibles con su teoría.
El consecuente depende de alguna forma del antecedente y esta dependencia puede tener distin-
tos significados según el contexto en que ocurra (relación de implicación, causal, temporal, permi-
sos, obligaciones,...) El signficado central del condicional se corresponde con dos condicionales
básicos: 1) la interpretación condicional (mod.mentales) y 2) la interpretación tautológica, la cual
se expresa como “si p, entonces posiblemente q”. El antecedente es una descripción de una posi-
bilidad y el consecuente es la descripción de lo que puede ocurrir es esa posibilidad. La interpreta-
ción condicional expresa que el antecedente es suficiente para que ocurra el consecuente y que el
consecuente es compatible con todas las posibilidades.
Si p, entonces Si p, entonces posiblemente q En la interpretación tauto-
lógica hay dos modelos
Modelos Iniciales p q p q mentales iniciales para re-
... (modelos implícitos) p ¬q
presentar la posible ocu-
Modelos explícitos p q p q rrencia y no ocurrencia del
¬p q p ¬q consecuente. Donde “Si
¬p ¬q ¬p q hace bueno, entonces
¬p ¬q posiblemente salga de pa-
seo”, dando pie a la ocurrencia como a la no ocurrencia. Admite la representación de ambas posi-
bilidades.
M.Goretti González 9
en Marbella” (¬p) se generaba facílmente a partir de “Si Luis se encuentra en marbella (p),
entonces está en España (q) y “Luis no está en España” (¬q).
En otros casos la modulación semántica y pragmática añade información sobre la relación entre
antecedente y consecuente. Al contrario que la lógica, este mecanismo puede generar un número
ideterminado de distintos tipos de interpretaciones porque cuando se interpreta un condicional en
el lenguaje natural se están considerando las posibilidades de ocurrencias y no los valores de ver-
dad de las aserciones.
La tarea de selección de Wason 1966 ha sido una de las pruebas más utilizadas para la mayoría de
las investigaciones sobre los efectos del contenido y el desarrollo de las Tªs y modelos con compo-
nentes sensibles a este contenido. Es la tarea paradigmática del condicional. Se presenta contenido
abstracto y el procedimiento consistía en presentar 4 tarjetas con letras por una cara y los números
por la otra. Se acompaña de un enunciado condicional en forma de regla y se pedía a los sujetos
que dieran la vuelta a la tarjeta o tarjetas que fueran necesarias para confirmar o falsar la regla:
“Si hay una consonante por una cara , entonces hay un número impar por la otra”.
P E 7 2
Ante la tarea, la mayoría seleccionan la tarjeta que se corresponde con el antecedente, o bien
seleccionan las dos tarjetas que se corresponden con el antecedente y consecuente (P y 7) Ello no
se corresponde con el modelo normativo donde la letra P confirmaría la regla modus ponens, y el
número 2, permitiría falsarla – modus tollens.
Al dotar de contenido a la tarea se encontró que el rendimiento de los sujetos mejoraba significati-
vamente pues estos seleccionaban las tarjetas correctas para confirmar y falsar el enunciado con-
dicional.
Pronto se manifestó que no era el contenido concreto frente al contenido abstracto el responsable
de este efecto de facilitación, sino que este contenido fuera conocido por los sujetos. Su
explicación estaba basada en el repertorio de conocimientos del sujeto y el rendimiento correcto
se interpretó como un proceso de memoria y no como aplicación de reglas lógicas. No obstante,
algunos problemas con contenido concreto pero no familiar seguían produciendo facilitación.
Además, el contexto en el que se formulaba la tarea permitía resolveer correctamente los
problemas y estos resultados indicaban que la presentación de la misma con contenidos familiares
no era suficiente para explicar en todos los casos la facilitación, por tanto algunas alternativas ad-
virtieron de procesos de razonamiento específicos del dominio de conocimiento y que están mar-
cados por el contexto.
Cheng y Holyoak 1985, proponen que los sujetos utilizan esquemas de razonamiento que definen
como una estructura de conocimiento constituida por un conjunto de relgas con un nivel
M.Goretti González 10
intermedio de abstracción definido por el contexto. Estos esquemas contienen reglas que son sen-
sibles a diferetes clases de metas y se entiende que las respuestas serán correctas en la medida en
que sean de mayor utilidad para la situación en la que se encuentra el sujeto. Los aspectos
pragmáticos del razonamiento, son los encargados de encaminar el proceso de inferencia y será la
experiencia ante un conjunto de situaciones con una misma clase de metas la que irá conformando
los esquemas concretos. Si se presenta problema con contenido abstracto y los sujetos tienen
conocimientos sobre el razonamiento formal se puede resolver correctamente y en caso de no te-
nerlos, recurren a otro tipo de estrategias, muchas veces desencadenantes de sesgo de razona-
miento.
El modelo identifica unos esquemas de regulación constituido por permisos y obligaciones bajo los
cuales se pueden agrupar la mayoría de los problemas con contenido temático. Estos esquemas
hacen explícitas situaciones en las que para alcanzar una meta hace falta cumplir unos requisitos.
Los componentes incluyen los conceptos de posibilidad, necesidad, acción y los requisitos que se
han de cumplir.
Esquemas de PERMISO:
– Regla 1: Si se va a realizar la acción, entonces debe satisfacerse la precondición.
Semejante al modus ponens al enunciar explícitamente que la precondición “debe” cumplirse
cuando se va a realizar la acción.
– Regla 2: Si la acción no se va a realizar, entonces no necesita satisfacerse la precondición.
Con esta se bloquea la falacia de la negación del antecedente puesto que hace explícita la
irrelevancia de que se cumpla la precondición si no se va a realizar la acción.
– Regla 3: Si se satisface la precondición, entonces puede realizarse la acción.
Se bloquea la falacia de la afirmación del consecuente al enunciar la posibilidad de que la
acción puede, aunque no debe necesariamente satisfacerse, cuando se cumpla la precondi-
ción.
– Regla 4: Si no se satisface la precondición, entonces no debe realizarse la acción.
Enuncia explícitamente el modus tollens al incluir el imperativo “no debe” realizarse la acciónsi
no se satisface la precondición.
Estas reglas no son reglas lógicas pues son sensibles al contexto y a la interpretación de los térmi-
nos “puede” y “debe”. Además no siempere hay coincidencia entre los esquemas de razonamiento
pragmático y las reglas lógicas (Los problemas con relaciones causales y de covariación pueden
evocar esquemas de razonamiento distintos a los propuestos para las situaciones con regulaciones
y se explica porque los esquemas pueden variar en función de las metas del sujeto. Cuando el con-
texto se ajusta a una situación de regulación en la que la autoridad pone condiciones para alcanzar
un determiando objetivo, los esquemas serán los de permiso y obligación, pero si el objetivo es la
predicción sobre la transición entre estados del ambiente, se evocarán los esquemas causales. Así
se puede explicar el como los sujetos interpretan como una equivalencia material las relaciones
causa efecto y covariaciones.
Los resultados de Cheng y Holyoak (1985) mostraron que los sujetos resolvían correctamente la
tarea de selección siempre y cuando tuvieran las claves contextuales para interpretar la regla como
un permiso. Los sujetos sin experiencia en el contexto acertaban en la tarea con contenido, así
como que cuando se da entrenamiento en los esquemas, aunque sean abstractos, produce efectos
facilitadores. Girotto y cols. lo corrobora con el experimento en niños que se encuentran en el
M.Goretti González 11
estadio de las operaciones concretas e incluso otros más pequeños mejoraban significativamente
su rendimiento cuando los problemas se presentaban como esquemas de permiso. Ello lleva a de-
fender que el razonamiento está basado en los esquemas en lugar del modelo de la lógica natural.
Los autores encuentran que los esquemas de permiso producían efectos facilitadores incluso
cuando éstos no eran familiares, pero sí plausibles. El contexto donde se enmarca una regla de
permiso interactúa con su contenido para la obtención de los efectos de facilitación en la tarea de
selección.
La Tª del Intercambio Social (evolucionismo cultural) desarrollada por Cosmides 1989, propone
una interpretación alternativa de los efectos de facilitación obtenidos con la tarea de selección de
Wason. Es semejante en aspectos a la Tª de los esquemas de razonamiento pragmático: mantienen
que los sujetos utilizan reglas de inferencia apropiadas al dominio sugerido en el problema y estas
inferencias pueden ser diferentes para distintos dominios de contenido. Se diferencian en el tipo
de reglas inferenciales que proponen y su origen. Para unos los esquemas de raz.pragmático se ori-
ginan por la experiencia, mientras que en la teoría de los contratos sociales son innatas. Señala
doña Cosmides que su teoría es una aproximación entre la moderna biología evolucionista y la
ciencia cognitiva. El enfoque evolucionista asume que la mente humana comprende un conjunto
de mecanismos de procesamiento en el sistema nervioso y que estos son producto de la selección
natural y están funcionalmente especializados para producir conductas determinadas (lenguaje,
relaciones familiares y cooperación).
Hay leyes que son inherentes al proceso de selección natural y que gobiernan y limitan el tipo de
conducta. La solución adaptativa para las situaciones de intercambio social son unos algoritmos de
contrato mediante los cuales un individuo está obligado a pagar un coste a un individuo o grupo si
quiere tener derecho a recibir un beneficio. Ello se da con el compromiso por parte de ambas par-
tes y cierta garantía de cumplirse. Detectan cuando alguien ha engañado o lo intenta. Contenido
de la tarea adaptada a la estructura coste/beneficio de forma que las cuatro tarjetas enuncian las
ss situaciones:
“Si se recibe el beneficio, entonces se tiene que pagar el coste”.
El procedimiento para la detección del posible engaño daría lugar a que el sujeto eligiese las tarje-
tas “coste no pagado” y “Beneficio aceptado”, ya que permitirían detectar a los tramposos, y así ig-
norarse las tarjetas “coste pagado” y la “beneficio no aceptado”. Según Cosmides y Tooby, 89 los
resultados obtenidos por Cheng y Holyoak no constituyen un apoyo a la teoría de los esquemas de
razonamiento pragmático, sino que los efectos facilitadores de este experimento se debieron a que
se añadió información contextual que convirtieron las normas de permiso en contratos sociales.
Los problemas utilizan contenidos imaginarios que se presentan en el contexto de una historieta:
El problema de la raíz de “cassava” cuenta que en una tribu (imaginaria) cuando un hombre se casa tiene que llevar
un tatuaje en la cara y que sólo los hombres casados llevan tatuajes. Debido a que la raíz de “cassava” es un
afrodisiaco y a que sólo los casados pueden tener relaciones sexuales, los ancianos de la tribu establecieron la
s.norma: “Si un hombre come raíz de cassava, entonces tiene que llevar un tatuaje en la cara”.
M.Goretti González 12
En el problema del huevo del avestruz se cuenta que la comida “duiker” es desable y escasa. Para poder comerla
hay que encontrar un huevo de abestruz, que es una tarea de caza compleja. En este caso la norma sería:
“Si comes “duiker”, entonces tienen que haber encontrado un huevo de avestruz”.
Cuando los sujetos razonan acerca de las situaciones con la estructura coste/beneficio sus respues-
tas se ajustan a las predicciones del procedimiento para la detección del engaño.
Cheng y Holyoak 89 rebaten la crítica de Cosmides a su primer experimento señalando que una
vacuna que protege a una persona conta una enfermedad no es propiament un “coste” pagado a
otra persona o grupo. Respecto a su segundo experimento sobre el contenido abstracto, afirman
que el mero hecho de decir que se ha de cumplir un “requisito P” para poder realizar una acción A,
no marca lingüísticamente a la “acción A” como beneficio obtenido.
Cheng y Holyoak, ponen de manifiesto que Cosmides utiliza términos “intercambio social” y
“contrato social” indiscriminadamente. Ella misma reconoce que los contratos sociales también
incluyen situaciones de permiso y regulación y utiliza en algunos casos una definición amplia de
intercambio social en la que incluye el cumplimiento de un requisito para obtener un beneficio, y
una definición más restrictiva cuando el contenido del problema se ajustaa a la estructura
coste/beneficio.
4.3. Polémica entre los esquemas de razonamiento pragmático y los contratos sociales
Los esquemas de permiso podrían interpretarse como normas de contrato social y Girotto, Blaye y
Farioli (1989) estudian otros esquemas de regulación: obligaciones donde no se da esta ambigüe-
dad. Respecto a las predicciones de Cosmides, se encuentra que sigue la facilitación cuando los
problemas se formulan como obligaciones, aún careciendo de estructura coste/beneficio.
Concluyen que la teoría de los esquemas de razonamiento pragmático explican número mayor de
resultados experimentales tanto interpretando casos como situaciones de regulación social como
con la estructura de coste/beneficio.
Regla 1: si se va a realizar la acción Y, entonces debe Regla 3: Si se satisface la precondición Z, entonces puede
satisfacerse la precondición Z. realizarse la acción Y.
Regla 2: Si la acción Y no se realiza, entonces no necesita Regla 4: Si no se ssatisface la precondición Z, entonces no debe
satisfacer la precondición Z. realizarse la acción Y.
M.Goretti González 13
ESQUEMAS DE OBLIGACIÓN (Cheng, Holyoak, Nisbett y Oliver, 1986)
Regla 1: Si OCURRE la situación Y, entonces se debe realizar la Regla 3: Si la acción Z se ha realizado, entonces puede haber
acción Z. ocurrido la situación Y.
Regla 2: Si no OCURRE la situación Y, entonces no es necesario Regla 4: Si la acción Z no se ha realizado, entonces la situación
realizar la acción Z. Y no debe haber ocurrido.
Una regla de permiso se convierte en una obligación desde el punto de vista del que hace la pro-
mesa y es un permiso desde la perspectiva del que la recibe. Siempre el sujeto intentará aplicar los
esquemas de reglas de su interlocutor (el que la hace, aplica el esq.permiso y el que la recibe
utilizará esq.de obligación) . Si se adopta un punto de vista neutro entonces se hará una
interpretación bicondicional de la situación.
Gigerenzer y Hug 1992 interpretan el cambio de perspectiva como evidencia a favor de la Tª de los
contratos sociales. Tienen como objetivo la diferenciación experimental entre el concepto de
contrato social y el algoritmo para la detección de tramposos. El porcentaje de respuestas
correctas disminuye cuando los sujetos resuelven la tarea de selección desde la perspectiva de un
contrato social con situaciones de permiso u obligación y en la que la detección de tramposos es
irrelevante. Defienden el papel que desempeña el mecanismo para la detección de los tramposos,
atenuando la relevancia del contrato social y descartando los esquemas de regulación.
Platt y Griggs 1993 logran separar por orden de importancia los efectos de algunos de los factores
que previamente habían producido facilitación, encontrando que la estructura coste/beeneficio es
necesaria praa obtener los efectos facilitadores en los problemas de contrato social. La perspec-
tiva del engaño y la presencia de la negación explicita sólo contribuyen a mejorar el rendimiento
cuando la tarea es ambigua. El término “debe” producía efectos facilitadores en un número mayor
de casos que los dos últimos factores.
Manktelow y Over, descartan ambas propuestas para apoyar una ampliación de la Tª de los MM
que incorpore las utilidades e sus representaciones. Señalan los efectos facilitadores de los térmi-
nos deónticos incluidos en los esquemas de permiso y los contratods sociales. Distinguen el condi-
cional con términos indicativos (tarea abstracta) y el condicional con términos
deónticos( esquemas de permiso y contratos sociales).
Jackson y Griggs señalan que los efectos facilitadores en los problemas con contenido abstracto
son productoo de dos factores ajenos a los esquemas de razonamiento:
1) enunciar la negación explícita para ¬p y ¬q , (“ Si hay una P, entonces hay un 7 ”--> “Si hay una P,
entonces no hay un 7”) y de la negación implícita sería “Si hay una P, entonces hay un 2” )
2) presentación de un contexto de búsqueda de posibles violaciones de la regla.
Cuando los problemas se formulan como esquemas de permiso abstractos, pero con la negación
implícita y en un contexto orientado a la comprobación de una regla y no a su violación, estos
efectos de facilitación desaparecen.
M.Goretti González 14
Cuando se usa la negación explícita, su formulación coincide con el antecedente de la regla 4 de los
esquemas de permiso, haciendo que el efecto de facilitación sea mayor en la evocación de los
esquemas.
Cuando se utiliza la negación implícita es necesario que el sujeto infiera que el cumplimiento de
una condición distinta a la comprendida en la regla implica que no se ha cumplido la condición de
la regla. Se supone que una de las dos condiciones y no ambas pueden ser satisfechas.
La propuesta de Cosmides sobre los contratos sociales queda asumida como parte de los esque-
mas de regulación de Cheng y Holyoak. La delimitación conceptual entre los esquemas de
regulación (permiso y obligación) y los contratos sociales es difusa y las críticas se han centrado
principalmente sobre el concepto de la estructura coste/beneficio, puesto que los problemas en
los que se han obtenido efectos facilitadores no se ajustan a esta estructura, incluso algunos de los
problemas utilizados por la misma Cosmides.
5. TEORÍAS DE LA RELEVANCIA
Sperber y Wilson parten del supuesto de que los procesos cognitivos se guían por la información
que sea más relevante en ese momento y sobre la que acomodan un contexto de supuestos para
maximizar su relevancia (Primer principio Cognitivo de Relevancia) Cuanto mayor son las expec-
tativas sobre los efectos cognitivos mayor será la relevancia y cuanto mayor sean los costes del
procesamiento menor será la relevancia.
El ser humano está preparado para interactuar con el ambiente, y con la información más saliente
y que sea fácil de representar. Sin embargo, la información que se comunica difiere de la
información ambiental puesto que en general suscita relevancia. Todo acto de comunicación
transmite una presunción de su propia relevancia (Segundo princpio Comunicativo de Relevancia)
Este principio garantiza que espontáneamente se ponga en marcha el proceso de comprensión
ante la emisión de un acto comunicativo.
En el laboratorio encontramos que las tareas suelen ser tan artificiales que las expectativas de
relevancia de los individuos son mínimas.Las consecuencias se pueden probar directamente en el
orden en qe se encuentran disponibles y se obtiene una conclusión cuando se alcanzan las expec-
tativas de relevancia. Las consecuencias más pertinentes: 1 y 2 menor
1) la regla implica que cualquier tarjeta con una (p) tendrá una (q) por el otro lado. cos te, y es -
fuerzo míni -
2) La regla implica que en la mayoría de los contextos hay casos p y q. mo.
3) La regla contradice el supuesto de que hay casos de (p) y (¬q)
Para que los sujetos logren una interpretación del condicional como una negación de los casos (p)
M.Goretti González 15
y (¬q) como la afirmación de que no hay casos (p) y (¬q) (negación implícita) hace falta que esta
consecuencia sea por lo menos tan accesible y rica en las expectativas sobre los efectos cognitivos
como los casos (p) y (q), entendido desde la interpretación de la regla y no desde su aplicación.
Sperber, Cara y Girotto 1995 diseñaron cuatro experimentos para analizar la versión abstracta y
varias temáticas de la tarea de selección vs distintas versioes de la tarea donde se manipularon los
efectos cognitivos y el coste dela relevancia. Los resultados se ajustaron a las predicciones de la Tª
de la Relevancia y mostraron la utilidad de las directrices propuestas con el fin de generar una
tarea de selección sencilla y con resultados correctos. La explicacón de estos resultados se
extiende a los efectos de facilitación encontrados en la negación explícita y con los términos
deónticos. Cuando se utiliza la negación:
“Si hay una consonante por un lado, entonces no hay número par por el otro”
Las tres consecuencias más pertinentes serían las siguientes:
1. la regla implica que cualquier tarjeta (p) tendrá por le otro lado una (¬q)
2. la regla implica que en la mayoría de los contextos hay casos (p) y (¬q) (negación explícita)
3. la regla contradice el supuesto de que hay casos p y q (negación implícita)
Los sujetos seleccionan las tarjetas (p) y (q) porque la negación implícita requiere menos coste y
los efectos cognitivos son los de la interpretación de la negación.
Los autores indican que la versión indicativa y la deóntica son dos tareas diferentes. En la primera
se razona sobre la verdad de la regla, mientras que en la deóntica se hace a partir del
cumplimiento de una regla. Los efectos de facilitación encontrados en la versión deóntica se expli-
can por su interpretación dentro de un contexto. Una regla que no contenga el término “debe”
puede interpretarse como algo que debería hacerse siempre y cuando la regla tenga sentido en el
contexto pragmático. En la versión abstracta no hace que la regla se interprete como un deber,
mientras que sí en la deóntica aunque no vaya explícito el término:
“Si hay una consonante por un lado, entonces “debe” haber un nº impar por el otro” (debe siempre)
“Si una persona bebe alcohol, entonces es mayor de edad” (no está el término “debe” pero se interpreta)
Cuando en la versión indicativa se logra la interpretación del condicional como una negación de la
existencia de casos p (hay consonante por un lado) y ¬q (no debe haber impar por el otro = par), y
en la versión deóntica como una interpretación de la ocurrencia p y ¬q, se resuelve la tarea correc-
tamente.
Evans distingue dos procesos para explicar el razonamiento: los heurísticos y los analíticos. Los
M.Goretti González 16
heurísticos seleccionan la información relevante y son procesos pre-atencionales de naturaleza
pragmática. La información seleccionada pasa a los procesos analíticos en donde tiene lugar el
razonamiento, aunque no existe un compromiso explícito con el tipo de modelo que permitiría
explicar las inferencias.
Ya sabemos que las respuestas más frecuentes en el condicional, son (p) y (p y q). La interpretación
original de Wason fue que los sujetos mostraban sesgo hacia la confirmaciónde la regla y no
perseguían su falsación. Sin embargo Evans 1972, descubrió que se daba la posibilidad de que se
diera otro sesgo, emparejamiento (E de Evans :-) Este consistía sencillamente en que los sujetos
estuvieran seleccionando las tarjetas que coincidieran con los términos de la regla y que no
pensaran en esa “afirmación” de Wason. En versiones afirmativas no se distingue entre ambos
sesgos, por lo que se investigó con las negaciones.
“Si hay una consonante por una cara , entonces hay un número impar por la otra”.
(p) (q)
Si ocurre el sesgo de emparejamiento, las tareas elegidas coincidirían con los términos de la regla
sin la negación y además sería lo correcto.
“Si hay una consonante por un lado, entonces no hay un número impar por el otro”
(si p, entonces ¬q)
Según el sesgo de confirmación se buscarían confirmar la regla y seleccionarían las tarjetas (p) y
(¬q) , mientras que si se da el sesgo de emparejamiento se seleccionarían las tarjetas (p) y (q)
(consonante y nº impar). Los resultados apoyan la hipótesis del emparejamiento. La selección de la
información se explica por dos heurísticos:
– uno se pone en marcha por término “Si” del condicional y hace que el sujeto se centre en el
antecedente,
– y el otro es de carácter más general y hace que la atención se dirija hacia el tema del
enunciado.
Ante una regla con una negación explícita, el sujeto se focaliza sobre el antecedente y el
consecuente y que pase de los procesos heurísticos sin haber razonado. (AY!!! si razonáramos algo más,
las cosas serían muy diferentes!) Se seleccionan las tarjetas relevantes, salientes, prominentes, sin pasar
por la parte analítica. En otras pruebas como en la tabla de verdad, la etapa analítica se pone en
marcha y filtra parte de la información que ha sido seleccionada en la etapa heurística.
6. TEORÍAS PROBABILÍSTICAS
6.1. Teoría bayesiana del condicional
Kirby 1994, introduce el análisis de los juicios probabilísticos para explicar el rendimiento de los
sujetos en la tarea de selección. El fracaso de la mayoría de los sujetos al no seleccionar la tarjeta
(¬q ) se explica por la baja probabilidad que hay de encontrar (p) cuando el conjunto de
ocurrencias es pequeño V.g. “vocales” Si hay una vocal por un lado, entonces hay nº impar en el
otro”.
M.Goretti González 17
Los autores Oaksford y Chater 1994 proponen que las frecuencias en la selección de las tarjetas
son una función monotónica de la ganancia en información que se espera obtener en cada una. Se
sitúan en el marco teórico en el que la racionalidad se entiende como adaptativa en el sentido de
que el comportamiento será racional si se adapta de forma óptima en el ambiente. Parte de los
siguientes supuestos:
1. las metas del sistema cognitivo se dirigen hacia la selección de información relevante.
2. Las propiedades que figuran en las relaciones causales son raras o poco frecuentes en el
ambiente.
3. Los sujetos resuelven la tarea de acuerdo con el modelo bayesiano para la selección óptima
de los datos y bajo el mencionado “supuesto de rareza”.
Los sujetos seleccionan la tarjeta (tarjetas) que al darle la vuelta aporte más información sobre la
comprobación de una de dos hipótesis:
1ª existe dependencia en la forma “Si p, entonces q), y
2ª la hipótesis alternativa más sencilla, que p y q son independientes.
Green, Over y Pyne 1997, encuentran que las estimaciones que hacen los sujetos sobre la ocurren-
cia de los contraejemplos de (q) se encuentran determinados por el tamaño del conjunto de (p),
aunque señalan que esta relación es algo más compleja porque el valor asignado a la información
(confirmación y desconfirmación) también se tienen que comparar con otros beneficios/costes
esperados.
La Teoría de la suposición de Evans y Over (2004) también asume que el razonamiento condicional
se basa en la evaluación de unas posibilidades que son hipotéticas con respecto a la ocurrencia del
antecedente. El condicional es un pensamiento hipotético por medio del cual se generan los MM
del antecedente y sobre esta base se considera la probabilidad o el grado de creencia de que
ocurra el consecuente. Ante un enunciado condicional “si p, entonces q”, los sujetos van a
considerar cuál es la probabilidad de que ocurra (q) dado (p).
Esta idea se opone a la teoría de los modelos mentales al no admitir que los modelos mentales se
ajusten a una interpretación del condicional básico como una implicación material. En la
formulación probabilística no hay cabida para la no ocurrencia del antecedente. Según la teoría de
la suposición, ante un enunciado condicional se emite un juicio sobre la probabilidad condicional
subjetiva de que ocurra el consecuente cuanndo ocurre el antecedente.
M.Goretti González 18
Evans, Handley y Over 2003, (seguían aburridos los pobres, je,je,je ) realizaron una investigación en la que
se pedía directamente a los sujetos que evaluaran la prob de los enunciados condicionales en un
contexto en el que se especificaba la frecuencia relativa de todas las posibles lógicas:
37 cartas con dibujos (círculo o diamante en amarillo o rojo)
– 1 carta con círculo amarillo.
– 4 cartas con diamantes amarillos.
– 16 cartas con círculos rojos.
– 16 cartas con diamantes rojos.
La tarea consistía en señalar en una escala de 1 (poco probable) a 5 (muy probable) la probabilidad
de que la siguiente afirmación fuera verdadera si se escogiera una carta al azar:
“Si la carta es amarilla, entonces tiene dibujado un círculo”.
(p) amarilla (q) círculo
(¬p) no amarilla (¬q) no círculo
Se calcula la probabilidad del enunciado codicional según se interprete como una implicación
material, una probabilidad condicional o una probabilidad conjuntiva. Según este cálculo, la
implicación material predice que el enunciado condicional será evaluado como muy problable
(0,90); la probabilidad conjuntiva como muy poco probable (0,03); y la prob.condicional como
enunciado con una probabilidad entre ambos extremos (0,20). (Vease las tablas de verdad)
Los resultados experimentales mostraron que el 50% de los sujetos se ajustaron a la interpretación
de la probabilidad condicional, y el 43% a la de la probabilidad conjuntiva, no siendo significativa la
del la implicación material (¡vamos que no elegimos bien cuando es la más probable!) La interpretación de los
datos de la probabilidad conjuntiva se corresponde con la del Modelo mental inicial de la Tª de los
Modelos Mentales (pq) aunque es inconsistente que los modelos mentales implícitos (¬pq y p¬q)
no hayan tenido ningún efecto sobre la evaluación del enunciado condicional.
Evans y Over no se oponen a la concepción de la teoría de los modelos mentales, son que su
crítica se centra en el supuesto de los valores de verdad. Defienden que las personas interpretan
un enunciado condicional como la probabilidad de que ocurra el consecuente cuando suponemos
que se ha dado el antecedente.
M.Goretti González 19
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013
1. INTRODUCCIÓN
Cuando hacemos una predicción o pronóstico, tomamos una decisión o buscamos la causa de un
hecho determinado estamos evaluando la probabilidad de que determinados acontecimientos
vayan a ocurrir o hayan ocurrido. Nuestras predicciones sobre acontecimientos futuros se basan
en información incompleta, parcialmente inprevisible y ambigua, en los que la certeza de nuestros
juicios se sitúan en un margen determinado de probabilidad. Es un margen de incertidumbre. El
razonamiento probabilístico es importante en el ámbito profesional cuano no pueden comtemplar-
se en su totalidad todas las VV posibles que influyen o dan lugar a una determinada consecuencia.
El diagnóstico clínico en medicina y psicología, la potencial eficacia de metodologías innovadoras
en educación, sentencias judiciales, pronósticos electorales,... son ejemplos de juicios predictivos
en los que las conclusiones no son inequívocamente ciertas.
2. EL TEOREMA DE BAYES
2. La suma de las probabilidades de todos los posibles sucesos en un espacio muestral dado
es 1. La probabilidad de “NO OCURRENCIA” de un suceso (S) es igual a 1 menos la
probabilidad de que sí ocurra. P (noS) = 1- P(S)
M.Goretti González 1
La suma de las probabilidades de toddos los posibles sucesos =
(30/100) + (20/100) + (50/100) = 1
Imaginemos que del conjunto de pacientes que asistieron a terapia extraemos uno al azar y está
curado. ¿Cuál es la probabilidad de que dicho paciente hubiera sido diagnosticado de depresión?
Thomas Bayes añadió a esos axiomas una fórmula conocida como el Teorema de Bayes, el cual
permite calcular la probabilidad condicional inversa (prob posterior o a posteriori) El cálculo no es
directo ya que conocemos el dato (el paciente está curado) pero tenemos tres posibles opciones
de diagnóstico previo o hipótesis de partida: depresión, fobia o ansiedad. El teorema constituye la
ley fundamental en la que se basa este tipo de inferencia probabilística, tanto cuando la informa-
ción procede de datos muestrales como cuando es de estimaciones subjetivas de probabilidad.
Tabla 6.1 Espacio de probabilidades conjuntas “tipo de trastorno” y “curación o no” después de tratamiento.
HIPÓTESIS P(H) DATOS P (D/H) P (H) x P (D/H)
Depresión 0,30 Curación 0,50 P(dep) y C|dep) = 0,30 x 0,50 = 0,15
H1
No curación 0,50 P(dep) y no C|dep) = 0,30 x 0,50 = 0,15
Fobias 0,20 Curación 0,70 P(fob) y C|fob) = 0,20 x 0,70 = 0,14
H2
No curación 0,30 P(fob) y no C|fob) = 0,20 x 0,30 = 0,06
Ansiedad 0,50 Curación 0,40 P(ans) y C|ans) = 0,50 x 0,40 = 0,20
H3
No curación 0,60 P(ans) y no C|ans) = 0,50 x 0,60 = 0,30
Hipótesis Probabilidad Curación o Prob. del
asociada no DATO P (total) = 0,15 + 0,15 + 0,14 + 0,06 + 0,20 + 0,30 = 1
M.Goretti González 2
2. La diagnosticidad del Dato para la hipótesis: P (D|H). P(curación |Depresión) este valor
recibe el nombre de diagnosticidad del dato (curación) y se puede dar en presencia de
otras dos posibles hipótesis alternativas: P (D|H2) o P (D|H3)
3. Con el producto de estos se obtiene la probabilidad conjunta de dos sucesos dependientes:
Haber sido previamente diagnosticado de depresión y curarse dado el diagnóstico previo de
depresión: P (H) x P (D|H) en nuestro ejemplo sería: P(depresión) x P(curación|depresión)
4. La probabilidad condicional inversa. Denominado así porque es la inversa de la condicional
P (D|H) se conoce la probabilidad condicional de curarse habiendo sido diagnosticado de
depresión: P(curarse|depresión). Sabiendo que un paciente extraído al azar está curado
¿cuál es la probabilidad de qe hubiera sido previamente diagnosticado de depresión?
P (H|D) o P(Depresión|curación)
Siguiendo el Teorema de Bayes, el cálculo sería el resultado de dividir la probabilidad de los casos
favorables por la suma de las probabilidades de todos los casos posibles. El axioma 4 explica el
numerador del Teorema (prob de casos favorables) y el axioma 3 explica el denominador (suma de
las probabilidades de los casos posibles.
Señalan Arieta Pinedo y González Labra (2011) que la inferencia bayesiana permite introducir
probabilidades subjetivas tanto al evaluar a priori como al evaluar las condiciones de un suceso.
Pueden obtenerse de distintas fuentes, tales como la evidencia, teorías previas o simplemente de
la opinión y creencias de la persona. La hipótesis alternativa es la ausencia de la hipótesis focal de
tal forma que su probabilidad complementaria se calcula aplicando el axioma 2 de la Tª de la
probabilidad. Fijémonos en el cuadro 6.1. Pero si volvemos al ejemplo de Ana, imaginemos otro
experimento de razonamiento probabilístico cuyo objetivo es analizar en sujetos no expertos en Tª
de la probabilidad cuál sería la solución al problema planteado sin necesidad de realizar cálculos
matemáticos:
Problema A: Seleccionamos un paciente al azar y encontamos que está curado.
¿qué prob será mayor?:
a) fue diagnosticado de fobia específica.
b) fue diagnosticado de ansiedad.
Problema B: Ana plantea analizar qué variables explican que después de la primera fase del
tratamiento sólo el 40% de los pacientes sanen de su ansiedad. Cita un día a todos los curados y
en otro día a los que siguen en el proceso.
Elena sufre de ansiedad y acude a consulta a pedir cita el día que ésta citó a los curados. En la
sala coinciden con Elena y le transmiten a ésta el éxito y rapidez de curación tras la primera fase
de tratamiento. A partir de la información Elena considera que la primera fase de tto empleado
por Ana para el tratamiento de la ansiedad:
a) es altamente eficaz
b) es parcialmente eficaz
M.Goretti González 3
Elena selecciona la A) y es incorrecta. En el caso del problema A, aún contando con toda la infor-
mación, el error se produce porque una mayoría se centran en el valor del porcentaje de curación
(70%), la diagnosticidad del dato en relación a la hipótesis, y desatienden a la probabilidad a prio-
ri de sufrir el trastorno (20%). En el caso del B, ella no cuenta con toda la información relevante, la
diagnosticidad del dato en presencia de la hipótesis alternativa (no se ha curado)
a) Heurístico de representatividad.
Los juicios probabilísticos responden a una de las ss preguntas:
1. ¿Cuál es la prob.de que el objeto A pertenezca a la categoría B?
2. ¿Cuál es la prob.de que el proceso B sea la causa del acontecimiento A?, o
3. ¿Cuál es la prob.de que el dato A se genere a partir del modelo B?
M.Goretti González 4
económico cognitivamente el juzgar la probabilidad de un evento evaluando el grado en el cual es
representativo de la categoría de referencia. Esta estrategia para abordar estos juicios probables,
produce sesgos significativos pues la semejanza no se ve afectada por factores que deberían
afectar a los juicios de probabilidad. Dicha insensibilidad a estos factores es estudiada por Tversky
y Kahneman, 1974.
Uno de estos factores que no afectan a la representatividad (aunque debiera tener efecto sobre el
juicios probabilístico) es la probabilidad a priori o la frecuencia base del resultado. Se realizó el
estudio: los participantes analizaron descripciones de personalidades de una muestra de 100 individuos (ingenieros
y abogados).
– A una condición experimental se les indica que 70% son ingenieros y 30 % abogados.
– Y en la otra condición, es 30% de ingenieros y 70 % de abogados.
Jack tiene 45 años, casado y cuatro hijos. Conservador, prudente y ambicioso. No manifiesta intereses políti-
cos y sociales y emplea su tiempo libre en sus aficiones (carpintería, navegar, resolver prob.matemáticos) La
probabilidad de que sea uno de los 30 ingenieros de la muestra de 100 es _______%
La probabilidad de pertenecer al grupo de ingenieros debería ser mayor en la primera condición, y la probabilidad de
pertenecer al grupo de abogados debería ser mayor en la segunda condición.
Los participantes VIOLARON drásticamente la predicción del Teorema de Bayes, pues en ambas condiciones se produ-
jeron los mismos juicios. Evaluaron la probabilidad de que una determinada descripción perteneciera a un ingenieo vs.
Abogado en función del grado en que dicha descripción era representativa de uno u otro estereotipo, atendiendo bien
poco a las probabilidades a priori de las categorías.
El 95% de los médicos estimaron que la probabilidad (cáncer / resultado positivo) = entre 70-80%
Cuando se les informó de su error, y se les preguntó sobre la causa del mismo, la mayoría afirmó
que había asumido que la probabilidad de cáncer con mamografía positiva [P
(cáncer/result.positivo)] era más o menos igual a la prob.de mamografía positiva en una paciente
con cáncer [P ( result.positivo/cáncer)], pasando por alto la probabilidad a priori del dato del 1%
en mujeres de 40 años.
Los trabajos que apoyan la dificultad de los humanos para aplicar las normas de la inferencia baye-
siana es el resultado de un planteamiento metodológico inadecuado: desajuste entre la forma en
la que se presenta la información a los participantes y el formato de la representación cognitiva
natural de dicha información. Gigerenzer y Hoffrage 1995, se basan en la teoría de la evolución,
donde la mente y su entorno han evolucionado en paralelo. Éstos sostienen que las demandas
computacionales de los algoritmos bayesianos son más simples cuando la información se codifica
en un formato de frecuencias más que en el formato estándar de probabilidad.
Probabilidad de cáncer es de 10/1000 = 1% P (H) = 0,01 ; De cada 10 mujeres que padecen cáncer, 8 dan un resultado
positivo en la mamografía.
Una mujer sin cáncer (990) dé resultado positivo en la mamografía es de 95/990. Una mujer de 40 años obtiene un
M.Goretti González 5
resultado positivo en la mamografía en un control rutinario ¿Cuál es la probabilidad de que la mujer padezca de hecho
cáncer de mama? __________-%
El algoritmo bayesiano para calcular la probabilidad posterior P (H|D) sería el resultado de dividir
el número de casos con síntoma y enfermedad (dato e hipótesis) por el nº total de casos con
síntoma (casos con síntoma y enfermedad + casos con síntoma y sin enfermedad H´). Todo sería
más simple cuando la información se codifica en el formatoo natural de frecuencias ( 8 de 10; 10
de 1000) porque las probabilidades a priori no necesitan ser atendidas, lo cual es racional para el
muestreo natural. Diferentes estudios comparativos entre las dos modalidades (frecuencia vs.
Formato estándar de probabilidades) indicaron que el promedio de algoritmos bayesianos
correctos incrementó de 16% - estándar- a 46% en formto de frecuencias.
Existe la gran diferencia entre ambas, en que en la primera se evalúa el dato, y en la segunda se
predice el resultado. Se da un grado superior de incertidumbre en relación a la segunda. La
hipótesis de representatividad sostiene que predicción y evaluación deberían coincidir.
Teversky y Kahneman, 1973 lo pusieron a prueba y consistía en describir en cinco adjetivos
referentes a la calidad intelectual del estudiante y rasgos de su personalidad:
– El grupo de evaluación valoraba la calidad de la descripción en relación a la población. Este
ordenaba la capacidad académica de todos los estudiantes. (0 a 100)
– El grupo de predicción predecía el rendimiento futuro. Ordenaba calificaciones medias que
obtendrían a final de curso. (0 a 100)
Los resultados se transformaron a percentiles y se dispuso en gráfica que representaba la capaci-
dad predictiva de la evaluación sobre la media de la predicción de su calificación final. Los juicios
de ambos grupos fueron similares. En la Tª estadística de la predicción, la equivalencia observada
estaría justificada sólo si la eficacia predictiva fuera
perfecta (condición alejada de cumplirse en el
ejemplo éste). La descripción no es objetiva, pues
las circunstancias personales del estudiante no
serán siempre favorables durante el curso, perjudi-
cando así su rendimiento. Los sujetos parecen igno-
rar la probabilidad del dato dada la hipótesis P(D|H´) CALIFICACIÓN MEDIA
M.Goretti González 6
La prediccón basada en la “impresión” de la descripción sin considerar otros factores que afectan,
da lugar a sesgos sistemáticos en el juicio probabilístico que responden al concepto de “ilusión de
validez”.
La idea errónea de la regresión constituye otro ejemplo de sesgo en el juicio predictivo basado en
el heurístico de representatividad. Se usa la regresión para predecir una medida basada en el cono-
cimiento de otra. La regresión estadística es la tendencia de una medición extrema a situarse más
próxima a la media cuando se realiza una segunda medición.
Se seleccionan cuatro grupos de 10 niños en dos versiones equivalentes (A y B): 10 mejores notas A – 10 peores notas
A ; 10 mejores notas B y 10 peores notas B.
Se observó que los 10 mejores en c/cada versión mostraron rendimiento promedio inferior en la versión alterntiva.
(ellos sabrán de qué pues no lo explican...)
La mayor parte dijo que la probabilidad era la misma, presumiendo que se describe con el mismo estadístico y que
éste se considera representativo para la población en general.
La Tª del muestreo sostiene que el número debería ser superior en el hospital pequeño porque en
una muestra de de gran tamaño es más difícil superar el 50%.
La insensibilidad al tamaño de la muestra explica también las expectativas en los juegos de azar,
en la medida en que esperamos que las muestras pequeñas de procesos aleatorios representen el
proceso con un elevado número de ensayos. Esta expectativa (intuición representativa local)
explica el fenómeno de la falacia del jugador. Después de observar nº rojos en la ruleta, la mayor
parte cree que luego le toca el “turno” al negro, cuando las probabilidades siguen siendo mínimas.
M.Goretti González 7
a.4. La falacia de la conjunción
El problema de Linda (muy citado a este respecto) describe el caso de mujer de 31 años, soltera, sincera y muy
brillante. Licenciada en Filosofía. Cuando era estudiante estaba profundamente comprometida en temas de discrimi-
nación y justicia socia, participando también en manifestaciones antinucleares. Se presentan las opciones:
a) Linda es una maestra en escuela c) es feminista. f) es cajera de un banco
elemental. d) es asistente social en psiquiatría g) es agente de seguros
b) trabaja en una librería y asiste a e) es miembro de la Liga de Mujeres h) es cajera en un banco y feminista
clases de yoga. Votantes.
La tarea consistía en asignar puntuación del 1 al 8 a las afirmaciones anteriores donde 1 (muy probable) a 8 (menos pr)
La descripción de Linda fue diseñada para ser muy representativa de una feminista activa y muy poco de cajera de
banco, por lo que se esperaba que consideracen más representativa de la personalidad de Linda la CONJUNCIÓN de
ambas (h) que el menos representativo (f). El porcentaje de participantes que mostró orden de c > h > f , fue del 85%
Según Teversky 1977 la semejanza de un ejemplar con una categoría se define en función de la
ponderación de las propiedades que son comunces y distintivas y esta ponderación varía en fun-
ción del contexto estimular y la tarea experimental. En la descripción de Linda, la ponderación con
una cajera de banco es baja. El hecho de añadir feminismo como rasgo distintivo explica la forma
en que los participantes ordenaron la lista de afirmaciones sobre las actividades que desarrolla
ella, en función del grado con el que encajaban con el estereotipo que se deriva de la descripción.
Argumento 1: Es más probable que Linda sea cajera en un banco a que sea cajera en un banco y feminista, puesto que
todas las cajeras de banco feministas son cajeras de banco mientras que algunas cajeras de banco no son feministas, y
Linda podría ser una de ellas.
Argumento 2: Es más probable que Linda sea cajera en un banco y feminista a que sea cajera en un banco, puesto que
se parece más a una feminista que a una cajera de banco.
La mayoría eligieron el argumento no válido (2) del parecido frente al argumento extensional
válido. Esto explica que aún cuando se induce una actitud reflexiva no elimina el atractivo del
heurístico de representatividad. Otros estudios sobre el tema, proporcionando cuestionarios con
preguntas sobre razonamiento probabilístico previo a la tarea, o bien incluso investigando en
M.Goretti González 8
dominios específicos y con expertos, los resultados siguen siendo consistentes con el heurístico de
representatividad.
b) Heurístico de accesibilidad
Las personas evaluamos la frecuencia de los ejemplares de una categoría o probabilidad de un
acontecimiento por la facilidad con la que los ejemplos nos “vienen a la mente” o se “nos ocurren”.
Evaluamos por ejemplo el riesgo de sufrir un infarto más probable en personas de entre 50 y 60 añ
Los ejemplos de categorías más frecuentes se recuerdan más fácil, rápido, pero muchas veces esta
accesibilidad se ve afectada por otro tipo de factores, produciéndose sesgos que Teversky y
Kahneman agrupan en cuatro: sesgo debido a la facilidad de recuperación, a la facilidad en la
construcción de ejemplos, en la facilidad para imaginar situaciones, y en la correlación ilusoria e
ilusión de control.
La fama y la frecuencia en función del sexo estaban inversamente relacionadas en ambas listas. Los
participantes se dividieron en dos grupos:
Grupo 1 se les pidió que RECORDARAN EL MAYOR NÚMERO DE NOMBRES QUE PUDIERAN.
Grupo 2 se les pidió que juzgaran para cada una de las dos listas si contenían más nombres de hombres o mujeres.
Los resultados en ambos grupos fueron de idéntico signo. Los del grupo 1 recordaron más
nombres de mujeres en la lista 1 y de hombres en la lista 2. La FAMA y no la frecuencia determinó
la facilidad de recuerdo.
En el grupo 2 dijeron que en la lista 1 había más mujeres y en la lista 2 más hombres (la FAMA otra
vez en medio y no la frecuencia real).
Van Boven, White y Huber 2009 lo evidencian en la presentación de dos secuencias de películas
separadas en un período de tiempo de 20 minutos. En ambas se mostraban atrocidades, pero en la
vista más cercana en tiempo, se le atribuyó haber afectado al estado emocional. Se exibió el sesgo
de inmediatez.
M.Goretti González 9
consonantes que en inglés son más frecuentes en la tercera posición de una palabra (K,L,N,R, y V)
La letra (L) aparece con mayor probabilidad en:
a) la primera posición.
b) la tercera posición.
La frecuencia estimada fue significativamente mayor para la primera posición (falso) para las cinco
letras estudiadas, demostrando sesgo en la estimación de la frecuencia relativa debido a la supe-
rior facilidad de generar ejemplos que empiecen con una letra determinada vs a los que la
contienen en tercera posición.
Posteriormente bajo condiciones más estrictas de control y alguna modificación, se manipularon el
valor informatio o diagnóstico de la experiencia subjetiva de accesibilidad generando en los parti-
cipantes a través de las instrucciones la atribución errónea de la experiencia de facilidad de recu-
peración:
– Todos los participantes escribieron en un folio en blanco 10 PALABRAS que contenían la letra T en la tercera
posición.
– Los grupos se diferenciaron en la manipulación experimental del valor diagnóstico de la experiencia de facilidad de
recuperación de las palabras que empezaban por la letra (T):
1. Grupo “FACILITACIÓN”, debía escribir las 10 palabras que empezaban por T en folio con filas de pequeñas (t)
impresas en color pálido t t t t t t t t t t t t t t t t t t Se le informó que la impresión de éstas era para facilitarle
t t t t t t t t t t t t t t t t t t la recuperación de las palabras.
2. Grupo “INHIBICIÓN”, escribiría 10 palabras que empezaban por (t) sobre el mismo tipo de folio pero se le indicó
que esto DIFICULTARÍA su tarea de recuerdo.
3. Grupo “CONTROL” , realizó la tarea sobre folio en blanco.
– Todos los participantes valoraron el grado de dificultad de una y otra tarea de entre 1 a 8 (muy difícil)
inmediatamente después de realizar cada una de ellas.
– Los juicios de frecuencia de palabras que empiezan por (T) respecto a los que la contienen en la 3ª posición se
realizaron concluidas ambas tareas, emitiendo en escala de 8 puntos, donde 1 = Muchas palabras con (t) en 3º
lugar que palabras que empiecen por (t) y 8 = muchas palabras que empiezan por (t) que palabras las contengan
en 3er lugar.
– Todos los sujetos (todos independientemente de la condición experimental) informaron que les resultaba más
difícil recordar palabras que la tienen en la tercera posición.
– El efecto de la manipulación del valor diagnóstico de la experiencia de recuperación produjo un impacto
significativo en los juicios de frecuencia relativa de los participantes. Unos creían que la hoja facilitaba y emitieron
juicio bajo de frecuencia relativa de las palabras que empezaban por (t); los de inhibición , creyeron que su
ejecución había sido inhibida y aportaron el juicio más alto de frecuencias relativas de las palabras que empiezan
por (t). El juicio de los del grupo de control se mantuvo en medio de los otros.
A destacar también los contextos donde se hace la tarea de búsqueda. Los contextos de palabras
abstractas como amistad, amor,... resultan más fáciles de imaginar o asiciar a historias vividas,
leídas o películas que palabras concretas y careciendo de connotaciones por lo que no se evoca
facilmente algún escenario.
M.Goretti González 10
b.3. Sesgo debido a la facilidad para imaginar situaciones
Luego se les pidió que juzgaran la probabilidad de sufrir hiposcenia – B en el futuro en escala de 1 (poca) a 10 (mucha).
Los imaginativos mostraron tendencia a juzgar la probabilidad de contraerla mayor al grupo control e inferior en la del
grupo “difícil imaginar”.
El término correlación ilusoria propuesto por Chapman 1967, agrupa los errores que se producen
como resultado de la sobreestimación de la correlación entre dos eventos. En los experimentos del
autor los participantes recibían pares de palabras proyectadas en pantalla. Unas a la derecha
(huevos, tigre o cuaderno) y otras a la izquierda (beicon, león,flor,barca) y se agrupaban al azar. Los
participantes sobreestimaron la frecuencia de aparición de los pares semánticamente relacionados
como lo era : beicon-huevos o león-tigre. La relación explica la fuerza de asociación en la memoria
y la facilidad para su recuperación, lo que lleva a sobreestimar la frecuencia objetiva. Esto mismo
mantiene el origen de la supersticiones o las creencias mágicas, el “efecto halo” y los estereotipos
sociales (delito <=> grupo minoritario -> genera estereotipo negativo sobre éste).
Langer simuló distintos tipos de azar induciendo la ilusión de control al introducir factores como
competitividad, posibilidad de elegir, familiaridad con los estímulos,... Este fenómeno es uno de los
factores que explica el sentimiento excesivo de confianza en el éxito y el riesgo excesivo asumido
en los juegos de azar. Contribuye además a explicar la persistencia de este sesgo en la
sobreconfianza en la calibración del propio juicio (juicio de segundo orden).
M.Goretti González 11
categoría se sustituye por ejemplar prototípico y el atributo de la categoría (en que se evalúa en el
juicio emitido) por una propiedad del prototipo. Por ejemplo, cuando un participante juzga la
probabilidad, en el caso de Linda de que fuera cajera de banco vs cajera de banco y feminista, está
llevando a cabo dos procesos de sustitución. Primero lo hace con “cajera de banco” por su
ejemplar prototípico, y luego sustituye el atributo de la probabilidad de la pertenencia a la ca-
tegoría por la propiedad de semejanza del prototipo.
La evaluación retrospectiva de las experiencias con valor afectivo ilustra bien el doble proceso de
sustitución basado en la accesibilidad de la información. Esta evaluación se basa fundamentalmen-
te en el promedio entre la media del pico más saliente de la experiencia global y el pico más
próximo al final de la experiencia.
Redelmeier y Kahneman registraron el nivel de dolor en una prueba de colonoscopia. Dicha prue-
duraba de entre 4 y 69 minutos. Se tenía paciente A y B, y los resultados evidenciaron que la
evaluación restrospectiva del dolor producido por la prueba, podía predecirse con un grado consi-
derable de eficacia promediando el pico más elevado con la magnitud de dolor que había produ-
cido el momento fianl de la experiencia. A informó que había sido mucho más desagradable pero
el pico máximo no se diferenció entre ambos sujetos y el participante B soportó una prueba más
prolongada. Lo que ocurre es que el valor afectivo de la experiencia para el A quedó deteerminado
por ser este pico alto próximo al final de la prueba. El simple hecho de añadir al terminar la
experiencia un intervalo corto de malestar mínimo produce en los pacientes una evaluación global
de la experiencia como menos aversiva e incrementó luego pruebas de seguimiento.
En este ejemplo se da el doble proceso de sustitución que determina el juicio subjetivo del sujeto.
La categoría “dolor que produce la experiencia global” se sustituye por el prototipo “promedio del
pico más elevado de dolor y del valor más próximo al final de la experiencia”. Pero en este caso la
propiedad del prototipo no viene dada por la representatividad de la información (duración total
de la experiencia o magnitud promedio del dolor global) sino por su accesibilidad en la memoria.
M.Goretti González 12
nes semánticamente más simples y accesibles. El ejemplo del “dolor”, constituye la estimación
cuantitativa subjetiva de una experiencia con valor afectivo.
Los resultados de Jacowitz y Kahneman 1995 cuestionan esta interpretación. En su estudio los
valores de anclaje proporcionados se basaron en las estimaciones de 15 problemas de juicio cuan-
titativo obtenidas en un grupo de sujetos que no participaban luego en el experimento de estimar
altura del monte Everest, la distancia entre San Francisco y Nueva York,... Los valores de anclaje
correspondían al percentil 15 y 85 de este grupo como anclas de valor bajo vs alto. Los autores de-
mostraron un efecto asimétrico en el sesgo de anclaje. Este fue significativamente superior para
los valores elevados. Se vio reforzado por el hecho de que un porcentaje de sujetos superior al
grupo de 15% inicial, generaron juicios cuantitativos superiores al valor del percentil 85 y no fue así
con el porcentaje de sujetos que generaron juicios inferiores al del percentil 15 del grupo inicial.
Los valores de anclaje altos incrementan la plausibilidad de los valores superiores al ancla en
mayor medida que los bajos incrementan la plausibilidad de los valores inferiores al ancla, siendo
la razón de que 0 es el límite, pero no se da límite superior (infinito). Según los autores, se pone de
manifiesto que el sesgo no siempre se da en el proceso de ajuste de la estimación inicial, puesto
esta ancla puede alterar la creencia inicial del individuo y modular el juicio absoluto emitido.
Por tanto se sugiere que este proceso de anclaje se inicia en la fase de comparación y sesga la
estimación inicial del sujeto, previa al juicio absoluto. Se concluye enumerando tres posibles cau-
M.Goretti González 13
sas en tareas de juicio comparativo, sin considerarlas mutuamente excluyentes:
1. Un punto de partida para el ajuste. (Responde a la formulación de Tversky y Kahneman)
2. Indicio conversacional, debido a la saliencia que le confiere el experimentador.
3. Una sugerencia o prime.
La investigación reciente sugiere que el anclaje se origina con frecuencia en la fase de recuperación
de la información y que el ancla actúa como una sugerenci, haciendo que la información
consistente con ella sea accesible rápidamente. El efecto de anclaje no se produce si no se cum-
plen determinadas condiciones de compatibilidad entre ancla (valor inicial) y juicio requerido,
como es la escala de medida en la que se formulan ambos. Además Strack y Mussweiler 1997,
indicaron que es necesario que se expresen en la misma dimensión (altura vs anchura). A varios
participantes se les formuló dos preguntas.
– 1ª juicio comparativo considerando valor del ancla “mayor o menor que”,
– 2ª juicio absoluto.
Se utilizaron cuatro condiciones 2 x 2 (compatibilidad o no de la dimensión del ancla con la
dimensión del juicio ; y valor del ancla alto vs bajo).
La interacción reveló que el efecto de anclaje solo fue significativo cuando las dimensiones fueron
iguales solo cuando el valor del ancla fue elevado. El hecho de que el efecto de anclaje disminuya
de forma significativa cuando la dimensión del juicio difiere de la del ancla, no puede explicarse
por el priming numérico que proporciona el ancla. Sugieren los resultados que la fuerza del efecto
depende de la medida en que la información es activada por el ancla también se percibe como
aplicable al juicio absoluto.
Strack y Mussweiler 1997 terminan su investigación con otro experimento que permite poner a
prueba la hipótesis del priming semántico y no el numérico per se, es el responsable de los efectos
de anclaje.
– En este caso utilizaron un 2 x 2 (ancla plausible / no; ancla alta vs baja)
– Como variables dependientes se registraron valores de juicios y la latencia de respuesta en los
dos juicios (comparativo y de valor absoluto).
– El análisis de la latencia desvela algo interesante:
> Las latencias (tiempos) fueron significativamente mayores para las anclas plausibles
frente a las no plausibles, mientras que en los juicios absolutos este patrón fue al revés.
> Los datos sugieren que que cuando el ancla es un valor plausible, los participantes
resuelven la tarea comparativa elaborando la respuesta en un proceso cognitivo que
consume tiempo. La información relevante es fácilmente accesible y acelera la
respuesta en la tarea de juicio absoluto posterior. Cuanto más tiemp consuma el juicio
comparativo menos tiempo consumirá el juicio absoluto.
> Las latencias en ambos juicios deberían estar inversamente correlacionadas pero sólo
en la tarea comparativa cuando se utilice información relevante.
> En el caso de las anclas plausibles, ambas latencias de respuesta correlacionaron
negativa y significativamente, donde las latencia más largas en j.comparativo implicaba
latencias cortas en j.absoluto. (¡lo mismo!)
Chapman y Johnson 2002 presentan modelo alternativo a esta propuesta de Tversky y Kahneman
del 1974, que permite interpretar el sesgo de anclaje en amplio abanico de tareas y
procedimientos experimentales.
El mecanismo se basa en proceso de accesibilidad selectiva que se genera en la fase de
M.Goretti González 14
recuperación de la inform y determina la formación de la respuesta. Este proceso es el resultado
de múltiples causas y los mecanismos responsables pueden producirse en más de una fase. Los
sesgos y errores se producen a consecuencia del priming asimétrico en el proceso de recuperación
de la información, incrementando desproporcionadamente la disponibilidad de rasgos
compartidos por “ancla” y respuesta y reduciría la disponibilidad de aquellos rasgos que los dife-
rencian.
Imaginamos haber heredado una silla antigua. El precio de una similar fijado por un anticuario podría servir para
valorarla y ajustarla luego según la diferencia en calidad. El proceso de anclaje es equilibrado e ilustra la funcionalidad
del heurístico como recurso rápido que implica un esfuerzo cognitivo mínimo.
Imaginemos que asistimos a subasta televisiva de muebles antiguos y utilizamos el precio de partida de una silla simi-
lar en diseño pero firmada por un importante diseñador.
Si activamos los rasgos compartidos en detrimento de los rasgos que diferencian ambos objetos nuestra estimación
será elevada en exceso y se cometerá sesgo en la valoración.
– 1º Debían escribir los dos últimos dígitos del nº de la seguridad social y considerarlo como una probabilidad.
– 2º Se les pide que pensaran en la probabilidad de que el candidato republicano ganara las elec- ciones
presidenciales y que compararan su respuesta con el número apuntado.
Esta primera estimación de probabilidad no se registró, para que se consideraran los dígitos como valor de anclaje. Las
probabilidades de anclaje fluctuaron de 0 a 99% con media de 48% y Md= 51%.
– 3º Asignar a los sujetos de ofrma aleatoria a una de tres condiciones experimentales:
- Condición “a favor”: escribir razón por la que el republicano debía ganar.
- Condición “en contra”: “ “ “ “ no debería ganar.
- Condición “neutral”: no se les pidió escribir.
– 4º Segunda estimacón por escrito de que el candidato republicano ganara las elecciones.
– Se establecieron tres categorías de participantes:
1. SIMILAR: los de razón a favor con valores de anclaje SUPERIOR al 50% y aquellos en contra con anclaje INFERIOR
al 50%
2. DIFERENTE: los de razón a favor con anclaje INFERIOR al 50% y aquellos en contra con anclaje SUPERIOR al 50%
3. NEUTRAL: los del grupo neutral.
M.Goretti González 15
Los resultados confirmaron la hipótesis de partida demostrando que el efecto de anclaje fue significativo sólo para
las condiciones “similar” y “neutra”, y el sesgo de anclaje puede reducirse o eliminarse propiciando que los
participantes identifiquen razones discrepantes con el valor del ancla.
Según Epley y Gilovich 2001, los procesos implicados en el efecto de anclaje difieren dependiendo
de si el ancla es suministrada por el experimentador o por cualquier otra fuente externa, o bien es
por el propio participante a partir de las preguntas planteadas. En este caso, el proceso de ajuste
sería el responsable del efecto en la medida en que el valor numérico del ancla, por su condición
de respuesta auto-generada, adquiriría el estatus de respuesta candidata con el peso específico
suficiente para iniciarlo.
Los autores lo pusieron a prueba “valor del ancla por experimentador vs por el participante”. Las
respuestas fueron grabadas, transcritas y evaluadas por dos jueces. Para cada respuesta el juez
evaluaba si el participante conocía el valor del ancla, si utilizaba esta como base de la respuesta y si
mencionaba el ajuste a partir del valor del ancla para alcanzar la estimación final. El acuerdo entre
estos era alto (0.94) y consideraron que los sujetos habían utilizado el mecanismo de anclaje y
ajuste si sus informes verbales se referían tanto al ancla como al proceso de ajuste. A los que se les
proporcionó utilizaron menos el mecanismo de ajuste a partir del ancla que aquellos que habían
generado de forma espontánea el valor inicial.
Epley y Gilovich 2001, coincidieron con Jacowitz y Kahneman proponiendo una taxonomía de
posibles efectos de anclaje en los juicios bajo incertidumbre en la medida en que son muchas las
variables que pueden intervenir en función de la tarea o experimento.
Tversky y Kahneman 1973 aportan otro ejemplo: pidieron a un grupo que estimaran e lnúmero de
palabras de 7 letras en inglés que acababan en - ing en cuatro páginas de una novela y a otro
grupo que comentaran lo mismo pero referido a palabras que terminaban en – n . La Md del pri-
mer grupo fue de casi tres veces superior a la del segundo, pues las palabras que terminan en ing
son más accesibles al recuerdo que las palabras que contienen la n en sexta posición.
La Tª del Apoyo es una perspectiva del juicio intuitivo bajo incertidumbre que permite explicar
gran parte de la evidencia de las operaciones mentales que responden a la denominación del juicio
basado en heurísticos en la evaluación de frecuencias y probabilidades.
M.Goretti González 16
tesis en sus posibles componentes o hipótesis elementales generalmente aumenta su apoyo. Así,
el apoyo de la disyunción explícita Ca ѵ Cn es igual o mayor que el apoyo de la disyunción implícita,
C, que no menciona ninguna causa. s(C) < s( Ca ѵ Cn )
La Teoría del apoyo es subaditiva para disyunciones implícitas (C), y aditiva para las disyunciones
explícitas ( Ca ѵ Cn ) . El grado de subaditividad es influido por varios factores, uno puede ser la in-
terpretación de la escala de probabilidad. Será pronunciada cuando la probabilidad se interpreta
como la predisposición de una caso individual, respecto a cuando se estima como frecuencia relati-
va en una determinada población. Kahneman y Tversky denominan a estas dos modalidades de
juicio singular y distribucional (más preciso). Esta propuesta de los (amiguetes K y T) indica que la
disyunción implícita “accidente” se desempaqueta con mayor facilidad en sus componentes
“accidente de coche, de avión, fuego, ahogamiento,...” Las posibles causas de muerte se
representan en las estadísticas de mortalidad de la población, pero no en la muerte de una perso-
na. La tendencia a “desempaquetar” una disyunción implícita es mayor en modo distribucional que
en singular o individual. Cuando el problema se formula en términos de frecuencias se espera que
se produzca “descuento” o menor diferencia entre la probabilidad de la hipótesis implícita y la
suma de las probabilidades de las hipótesis elementales explícitas. ¡Tela marinera!
Tversky y Kahneman 1994 pusieron a prueba el supuesto del principio del “desempaquetado”: la
subaditividad para las disyunciones implícitas. Los participantes se dividieron en 2 grupos:
– 1. Grupo: Recibió la instrucción de estimar las probabilidades de muerte para el caso de una persona determinada
como consecuencia de causa específica.
– 2. Grupo: Realizaron una tarea de juicios de frecuencia y evaluaron el porcentaje de personas de los 2 millones de
muertes del año previo que podían atribuirse a cada una de las causas.
La tarea consistía en evaluar una hipótesis implícita (muerte como resultado de causa natural) o una disyunción
explícita (muerte a consecuencia de una enfermedad cardiaca, cáncer o alguna otra causa natural), pero nunca ambas.
Se definieron tres componentes y cada uno se dividía en 7 subcomponentes.
Se esperaba que el hecho de explicitar en mayor medida las causas de la muerte incrementaría la
subaditividad: la diferencia entre la probabilidad asignada a la hipótesis implícita y la suma de las
probabilidades de los componentes de la hipótesis. Los resultados arrojaron que la estimación
media de una disyunción implícita - P(causas naturales) - , es menor que la suma de las estima-
ciones media de sus componentes.
Quedó respaldado y demostrado incluso en juicios probabilísticos con expertos. A una muestra de
médicos se le presenta un escenario con una mujer que llega con dolor abdominal.
– A la mitad de los participantes se les pide que asignen probabilidades a 2 diagnósticos:
gastroenteritis y embarazo ectópico, y a una categoría residual: ninguno de los dos.
– La otra mitad debía asignar a 5 diagnósticos específicos.
Si los juicios de los médicos se ajustaran a la Tª clásica de la probabilidad, la prob.a la categoría
M.Goretti González 17
residual sería equivalente a la suma de las prob.de los tres componentes desempaquetados en la
condición de los 5 diagnósticos:
Van Boven y Epley 2003 generalizaron el hallazgo de Tversky y Kahneman a juicios evaluativos con
valor afectivo, en los que se juzga el carácter positivo o adverso de una categoría o delas
consecuencias de un acontecimiento. Los autores señalan que los factores más relevantes que ex-
plican el efecto serían las descripciones detalladas de los elementos constituyentes de una hipóte-
sis permitiendo recordar con mayor facilidad posibilidades que han pasado por alto y facilitan la
simulación mental y la imaginación vívida de las categorías o acontecimientos. Parece ser que en
los juicios evaluativos de una categoría parece jugar un papel más importante la facilidad con la
que se recuerdan sus elementos constituyentes que la cantidad total de elementos que pueden re-
cuperarse.
Esta teoría ofrece un marco explicativo unitario para la deducción e inducción y sostiene que las
conclusiones probabilísticas son el resultado de ambos tipos de inferencias. Los individuos razona-
mos construyendo modelos de las situaciones descritas en las premisas. Una conclusión es posible
si mantiene en al menos un modelo de las premisas, es probable si aparece en la mayor parte de
los modelos y es necesaria si se da en todos los modelos.
Esta teoría da cuenta del razonamiento extensional sobre probabilidades. Se basa en los princi-
pios fundamentales:
1. Principio de verdad: Las personas representan situaciones construyendo exclusivamente
aquellos modelos mentales que responden a una posibilidad verdadera, debido a la capaci-
dad limitada de la Mtrabajo. Las situaciones con prob.0 (cero) corresponden a lo que es fal-
so, por lo que, de acuerdo con la teoría, no se representan generalmente en los modelos.
2. Principio de equiprobabilidad: cada modelo representa una alternativa equiprobable.
3. Principio de proporcionalidad: garantiza la equiprobabilidad, la prob.de un evento A, de-
pende de la proporción de modelos en los que ocurre; es decir, p(A) = nA/ n. Un corolario de
éste, es el ppo. De inclusión: si un acontecimiento A ocurre en cada modelo en el que ocu-
rre otro acontecimiento B, entonces A es al menos tan probable como B, y si A ocurre en
M.Goretti González 18
algunos modelos en los que B no, entonces A es más probable que B.
4. Principio numérico: si una premisa hace referencia a una probabilidad numérica, serán eti-
quetados con sus valores númericos apropiados, y una probabilidad desconocida puede
ser calculada restando la suma de las (n-1) prob.conocidas de la prob.global de la n
posibilidades en la partición.
– De acuerdo con las estadísticas, 4 de cada 10 personas sufren una enfermedad, 3 de cada 4 con
la enfermedad tienen el síntoma, y 2 de cada 6 sin la enfermedad tienen el síntoma. Pat es una
persona seleccionada al azar y tiene el síntoma. ¿cuál es la probabilidad de que Pat sufra la
enfermedad? Los sujetos ingenuos construirán los modelos mentales verdaderos y
equiprobables, que serían etiquetados con sus valores numéricos apropiados.
FRECUENCIAS
ENFERMEDAD (A) SÍNTOMA (B)
3 casos
ENFERMEDAD SÍNTOMA
ENFERMEDAD SÍNTOMA
ENFERMEDAD ¬ SÍNTOMA 1 caso
¬ ENFERMEDAD SÍNTOMA
2 casos
¬ ENFERMEDAD SÍNTOMA
– De acuerdo con Johnson - Laird y col. 1999 esta probabilidad puede ser calculada a partir de la
representación extensional de los modelos mentales vistos en la tabla anterior sin necesidad
de utilizar el Teorema de Bayes.
Giutto y Gonzalez 2001, manipularon el contenido de las instrucciones aplicando el principio del
subconjunto para calcular la probabilidad condicional inversa. Para resolver problemas similares al
de Pat y plantearon dos pasos pidiendo que se completaran frases como las ss. añadiendo los
valores: Vamos a analizar cuál es la prob.de que Pat sufra la enfermedad en el supuesto de que presente el sínto-
ma. Del total de 10 posibilidades, Pat tiene posibilidades de tener el síntoma; entre éstas, estarían
asociadas con la enfermedad.
M.Goretti González 19
Las instrucciones facilitaron la respuesta correcta (de 5 posibilidades de tener el síntoma, 3 están
asociadas con la enfermedad)
Barbey y Sloman 2007, integran el enfoque de los MM enmarcado dentro de las hipótesis de los
conjuntos anidados. Los errores y sesgos en la inferencia bayesiana se reducen de forma
considerable cuando el planteamiento del problema facilita la representación de las relaciones
inclusivas de las categorías relevantes para resolverlo. Según éstos el que se haga más fácil debido
a la presentación de frecuencias en vez de en formato de probabilidades, se debe a que el formato
de frecuencias contribuye a clarificar y hacer más transparentes las relaciones inclusivas
pertinentes. Los autores presentaron mediante gráfica con círculos de Euler, el rendimiento de dos
grupos de sujetos en dos versiones de un problema:
Se ha desarrollado una prueba para detectar una enfermedad. La probabilidad de que un americano la padezca es de
1/1000. Un individuo que no padece la enfermedad tiene una probabilidad del 5% de dar positivo en la prueba. Un
individuo que padece la enfermedad dará positivo en la prueba en todos los casos. ¿Cuál es la probabilidad de que una
persona extraída al azar que dé un resultado positivo padezca realmente la enfermedad? %
La respuesta modal con este tipo de versión es 95% suponiendo que el error de la prueba sea un
5% (falsos negativos), debería producir un 95% de resultados correctos. Los sujetos estarían
pasando por alto la probabilidad a priori de sufrir la enfermedad siendo uno de los sesgos más ca-
racterísticos en la estimación de prob.condicionales.
Probabilidad de
-A- círculos Probabilidad de
que padezca la de Euler que una persona - B – Relación de equivalencia en
enfermedad (1) dé un resultado el numerador y denominador del Teo-
positivo en la prueba (50)
rema de Bayes con los subconjuntos
Todas las relevantes de la gráfica inclusiva:
posibilidades
(1000) P(H|D) = P (H D) =
P(D)
Los grupos que se compararon diferían exclusivamente en que en el grupo experimental la redac-
ción del problema se acompañaba del diagrama que se representa -A- y el porcentaje de
respuestas correctas ascendió de 20% a 48%. La gráfica de los conjuntos anidados redujo de forma
sustancial el sesgo observado en la condición control, a pesar de que el problema se formuló en
términos de probabilidades. Los diagramas hacen explícito que las posibilidades de que una
persona dé positivo en la prueba (tenga síntoma) es un subconjunto de todas las posibilidades y
que las posibilidades de padecer la enfermedad es, a la vez, un subconjunto de las posibilidades de
dar positivo en la prueba. La representación de las relaciones inclusivas de las categorías nos
ayuda a inferir la respuesta correcta: del total de individuos que da positivo en la prueba, 50, 1
padecerá la enfermedad : 1/50 =2%
M.Goretti González 20
de frecuencias. La nueva categoría no era relevante y no altera el valor del resultado pero
incrementa en complejidad. Añadirla supone la representación de unmodelo mental adicional que
aumenta la “carga” en la memoria de trabajo y dificulta la aplicación del principio del subconjunto
para alcanzar la solución correcta del problema. Se intenta minimizar la carga de la memoria de
trabajo representando de forma explícita sólo aquellos casos en los que las premisas son
verdaderas y se pasan por alto los casos en que son falsas. Johnson-Laird y Savary demostraron
que razonando sobre probabilidades relativas, la mayor parte de los sujetos alcanzaban conclusio-
nes imposibles cuando no consideraban los casoss en que las premisas son falsas:
Gigerenzer, Hoffrage y Kleinbölting 1991, propusieron el marco integrador que permite explicar el
“efecto de exceso de confianza” y el “efecto difícil-fácil”. La tarea prototípica en juicios de confian-
za incluye preguntas de cultura general con dos alternativas. El desajuste en la calibración no es
una característica intrínseca del juicio humano, sin la consecuencia de la utilización de tareas con
escasa validez ecológica. Un modelo mental probabilístico es un procedimiento inductivo que se
utiliza cuando el conocimiento es limitado y permite realizar inferencias rápidas. La clave concep-
tual es queun MMP estará adaptado si permiten conectar la estructura específica de la tarea con
una estructura de probabilidad en una clase de referencia del ambiente natural del sujeto, almace-
M.Goretti González 21
nada en su MLP. Imaginemos que formulamos: ¿Qué ciudad tiene más habitantes?: a)Bilbao o b)
La Coruña. La pregunta permite generar una clase de referencia representativa extraída del entor-
no natural del sujeto, que podría ser “ciudades españolas con una población superior a 200.000
hab.
Un MMP para una tarea determinada integra una clase de referencia (ciudades esp.con + de
200000 hab), una variable criterio (nº de habitantes), y claves probabilísticas que varían en su
grado de validez. La MMP asume que las inferencias sobre preguntas inciertas o desconocidas se
basan en estas claves probabilísticas, que se generan, se evalúan y se activan para dar la
respuesta. En el ejemplo se podían dar:
a) tener o no equipo de fútbol,
b) ser capital o no de una comunidad autónoma
c) tener o no Universidad
d) ser ciudad o no de veraneo,...
Si las ciudades a y b tuvieran ambas equipo de fútbol, esta clave no sería válida pues no ayuda a
responder la pregunta. La Tª asume que el orden en que se generan las claves refleja una jerarquía
de acuerdo con su grado de validez.
De acuerdo con la Tª de MMP, el sesgo de sobreconfianza sobre cada pregunta individual, debería
corregirse y ajustarse a la eficacia objetiva cuando se emitee un juicio de frecuencia, donde cada
bloque de preguntas, en conjunto, constituía una muestra de la clase de referencia natural
“conocimiento de cultura gral que he demostrad en pruebas o exámenes previos”.
En relación a los juicios de confianza se observa un sesgo de sobre-confianza que es más acusado
cuanto mayor es la eficacia de las respuestas de los sujetos. El sesgo se corrige cuando se utilizan
preguntas representativas. La curva de confianza para el grupo de preguntas representativas se
asemeja a una curva de regresión para la estimación del porcentaje de aciertos a partir de la
confianza asignada, revelando subconfianza en la parte izquierda, sobreconfianza en la derecha y
cero sobreconfianza como promedio. La media de las diferencias no difiere significativamente de 0
por lo que es un juicio bien calibrado.
De acuerdo con los autores de los MMP los resultados apoyan la teoría como modelo integrador
de resultados empíricos, ésta requiere un mayor desarrollo para responder a determinadas
cuestiones que no quedan resueltas con claridad, por ejemplo aspectos a delimitar a la hora de se-
leccionar la clave probabilística que se activa, si es ajustado éste a la jerarquía de acuerdo con su
validez , o si las claves se sustituyen o se integran de forma múltiple.
Gigerenzer y Goldstein formulan el algoritmo básico “TakeThe Best” (elige el mejor) TTB, que
M.Goretti González 22
constituye un marco conceptual de la Tª MMP. El algoritmo representa un diagrama de flujo en 5
principios para claves binarias:
1. Principio de reconocimiento: reconocimiento de un objeto constituye un predictor de la
variable. Si una persona debe decidir cuál de las dos ciudades a y d tiene más hab., la infe-
rencia será la ciudad a) porque no ha oído hablar de la otra ciudad.
2. Búsqueda de claves con validez: se recuperan de la memoria las claves y sus valores en un
orden jerárquico de acuerdo con su grado de validez. La validez ecológica de una clave es la
frecuencia relativa con la que predice correctamente el resultado. V.g. Comparando dos
ciudades, el 87% de los casos la ciudad que tiene equipo de fútbol tiene más habitantes, la
validez ecológica de la clave es del 87%
3. Regla de discriminación: Una clave discrimina entre dos objetos si uno de ellos tiene un
valor positivo en la clave y el otro no lo tiene.
4. Principio de sustitución de la clave: si la clave discrimina, se para la búsqueda de nuevas
claves. Si no lo hace, se vuelve al paso donde se ha de elegir nuevamente.
5. Regla de maximización para la elección: se elige el objeto con valor positivo en la clave. El
algoritmo TTB es un procedimiento no compensatorio, sólo la clave que mejor discrimina
determina la inferencia, sin que la combinación de valores de claves diferentes ni la integra-
ción de información puedan contrarrestar la elección basada en la clave con mayor validez.
El modelo TTB se enmarca dentro de un modelo de racionalidad ecológica que permite explicar
cómo el sesgo de sobreconfianza se corrige cuando el participante realiza la inferencia sobre
objetos de su entorno natural, que le permiten seleccionar claves probabilísticas con suficiente
validez en relación a una variable derivada de la clase de referencia. Una clave probabilística válida
es aquella capaz de predecir la inferencia adecuada.
El trabajo de Griffin y Tversky, 1992 intentó replicar el estudio de Gigerenzer y cls. Seleccionaron
al azar una muestra de 30 pares de estados americanos y pidieron a los sujetos que eligieran qué
estado era superior en 3 atributos:
a) nº de habitantes.
b) porcentaje de participación en el voto,
c) porcentaje de graduados en bachillerato.
Los resultados reflejaban que el sesgo de sobreconfianza no podía reducirse solo al nivel de dificul-
tad. El nivel de eficacia en las respuestas para las VV “voto” y “educación” fue muy similar y
cercana al azar, y sin embargo, el sesgo de sobreconfianza fue significcativamente superior en la VV
de “educación”, respondiendo ello al efecto llamado ilusión de la validez. El estereotipo americano
está más unido a la educación que a la participación electoral (se considera que el nivel educativo
es superior en un estado, en función del nº de universidades famosas o eventos culturales que
celebran).
Estos resultados delimitan dos VV conceptualmente importantes que intentan explicar sobre las
claves que se recuperan a la hora de emitir un juicio probabilístico. La evidencia disponible para
emitir un juicio intuitivo se interpreta según con 2 coordenadas: la “fuerza” o saliencia de la evi-
dencia y su “peso” o validez predictiva.
La Teoría estadística y el cálculo probabilístico prescriben reglas que combinan con precisión fuerza
M.Goretti González 23
y peso o validez, en cambio el juicio humano no combina ambos factores, lo que produce sesgos y
errores de calibración.
Imaginemos el juzgar la probabilidad con la que una persona será contratada a partir de una cara
de recomendación escritra en términos cálidos y enfatizando en sus cualidades positivas. Las per-
sonas focalizamos en la fuerza o carácte extremo del contenido de la carta y tendemos a predecir
un resultado favorable al candidato, sin atender de forma suficiente al peso o validez predictiva de
la carta: la credibilidad de quien la escribe ( y de si dice lo mismo de todos – pasamos por alto el
tamaño de la muestra) .
El modelo teórico del juicio probabilístico que integra esta dicotomía predice sobre-confianza
cuando la fuerza es elevada y el peso es bajo y subconfianza cuando la fuerza es baja y el peso es
elevado. El suejto se focaliza en la “impresión” que le produce para luego ajustar el juicio de acuer-
do con su conocimiento de su validez. El juicio combina el anclaje en la fuerza de la impresión
basándose en la representatividad de la evidencia, con un proceso de ajuste que tiene en cuenta el
valor predictivo de la evidencia (insuficiente)
El análisis sugiere que las personas basamos la confianza en nuestro rendimiento en la impresión
sobre los resultados sin observar suficientemente la calidad de los datos. Lichtenstein y Fischhoff
demuestran en un experimento que el efecto de sub-confianza donde el rendimiento objetivo era
superior al del juicio previo, se daba en buena parte del rango cuando los ítems eran fáciles, un
efecto de sobreconfianza a los largo de la mayor parte del rango cuando los ítems eran difíciles, y
una sobreconfianza extrema en todo el rango cuando eran “imposibles” (considerar si un párrafo
en inglés lo había escrito un británico o un americano). (¡Si es que somos unos “echados pa´lante!)
El juicio probabilístico de los expertos no siempre está calibrado. La evidencia indica que también
se equivocan, desatienden a las probabilidades a priori de las hipótesis y a la capacidad predictiva
del dato, siendo predictores claros de la calibración sesgada.
La calidad del diagnóstico y pronóstico en el juicio clínico de los médicos sustenta el cuerpo empíri-
co de evidencia más amplio. Los autores analizaron los datos de 9 investigaciones, que se agrupan
en tres categorías. Un grupo de médicos realizó el estudio clínico individual de distintos pacientes
que padecían “tos aguda” persistente. Cada paciente era examinado por un solo médico y éste re-
llenaba una lista de síntomas estandarizada. Luego se pedía al médico que estimara la probabilidad
de que el paciente tueviera neumonía en una escala de 0 a 100 (sin conocimiento de la radiogra-
fía) La “tos aguda y persistente” era el dato y “padecer neumonía” la hipótesis focal.
La capacidad predictiva del dato respecto a la hipótesis focal constituye un indicador de la calidad
o el peso de la evidencia. El parámetro alfa constituía un dato objetivo y su valor aumenta en
relación directa con la capacidad predictiva del dato respecto a la hipótesis focal, frente a otras
hipótesis alternativas.
M.Goretti González 24
El juicio de los médicos muestra una marcada sub-confianza cuando tanto la probabilidad a priori
como la discriminabilidad son elevadas, una ligera sobreconfianza cuando la prob.a priori es baja y
la discriminabilidad es alta, y una sobre-confianza extrema cuando la prob.a priori es muy baja y la
discriminabilidad es baja.
Koehler y cols. interpretan que la “impresión” que causa el síntoma cuando el médico se enfrenta
a un caso particular se ve reforzada por la accesibilidad de la fuente de información: el carácter
vívido de la experiencia personal y la proximidad al paciente. La “saliencia” del síntoma paraece
variar en relación inversa con la tasa de la enfermedad en la población. Cuanto más atípica resulta
la enfermedad, mayor relevancia adquiere el síntoma y esta relevancia facilita la recuperación de la
memoria de información coherente con la evidencia, que resulta de mayor medida disponible. La
disponibilidad de síntomas coherentes con la hipótesis focal contribuye a su proceso de
“desempaquetado” en sus síntomas componentes, incrementando así su probabilidad subjetiva. El
sesgo en la focalización inicial del juicio a favor de la hip.focal respecto a las hip.alternativas, resta-
rá eficacia al proceso de ahuste final, que no considerará de forma suficiente la discriminabilidad
objetiva del síntoma: su validez predictiva real de la enfermedad.
Esta combinación de fuera(impresión y peso (validez predictiva) de la evidencia (tos aguda y per-
sistente) respecto a la hipótesis focal (neumonía) se ajusta con bastante exactitud al marco teórico
de Griffin y Tversky. La combinación de fuera alta - tasa muy baja- y peso bajo – discriminabilidad
baja- produce sobre-confianza extrema, mientras que la combinación de fuerza baja y peso alto
produce subconfianza.
La disponibilidad de la evidencia nos hace sobrevalorar la fuera de la evidencia sin que atendamos
suficientemente a la validez de los datos disponibles. El sesgo de sobreconfianza es incluso más
acusado en el caso de los expertos por su mayor resistencia a admitir que se han equivocado.
Sesgo cognitivo “ilusión de validez” lo denomina Kahneman, 2011 y establece él un paralelismo
entre esta ilusión cognitiva y la ilusión perceptiva de Müller – Lyer. En el caso de la ilusión
perceptiva, cuando la persona es adevertida de que no puede confiar en lo que percibe, corrige su
ilusión e informa correctamente de o que ahora es una creencia basada objetivamente. La
constatación de nuestros errores de calibración en los juicios prredictivos puede contribuir a que
aceptemos el hecho intelectualmente, pero es poco probable que produzca un impacto real sobre
nuestros sentimientos y modifieuqe acciones futuras. La confianza se sustenta en los que
denomina la falacia narrativa, basada en el intento continuo de buscar un sentido al mundo que
nos rodea y una coherencia en los hechos que se suceden.
Blank y fischer 2000, realizaron el experimento en el cual los participantes predecirían los
M.Goretti González 25
porcentajes de voto que obtendrían los distintos partidos políticos en las elecciones y recordar las
predicciones después de las elecciones. Los participantes recordaron haber estimado un porcenta-
je de voto que difería en un punto del porcentaje real, desviándose de forma significativa de sus
predicciones iniciales. Se les preguntó si el resultado les sorprendía. La mitad no se sorprendió
afirmando que los resultados coincidían con su predicción personal. El resto afirmaron que los
resultados no podían ser de otra manera y ofrecían distintas razones que justificaban la necesidad
del resultado. Los tres componentes del sesgo retrospectivo identificados inicialmente por
Fischhoff y cols.:
b) las impresiones de predictibilidad: asumen las percepciones y juicios coherentes con el hecho
de que los resultados podrían haberse anticipado. Efecto de “siempre supe que iba a ocurrir”.
La predictibilidad implica consideraciones metacognitivas que presuponen que el resultado podría
haberse anticipado en algún momento.
c) las distorsiones de la memoria: recuerdo erróneo de que sus predicciones estuvieron muy cerca
de lo que de hecho lo estuvieron. Estas distorsiones están gobernadas por procesos de memoria
que se concretan en el anclaje en el resultado y la reconstrucción de la predicción inicial.
Cada componente responde a una idea psicológica distinta y no siempre se da en el mismo parti-
cipante pero el denominador común, sí es el resultado de la construcción narrativa basada en la
búsqueda de coherencia.
Según Kahneman [...]estamos predispuestos a pensar que el mundo es más regular y predecible de
lo que realmente es porque nuestra memoria, de forma automática y continua, matiene una histo-
ria sobre lo que está sucediendo, y porque las reglas de la memoria tienden a hacer la historia tan
coherente como sea posible y a suprimir las alternativas. El pensamiento rápido no duda. [...]
cuando una impresión convincente entra en conflicto con nuestro conocimiento, la impresión
generalmente prevalece[...]
M.Goretti González 26
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013
1. INTRODUCCIÓN
Los juicios probabilísticos son parte del proceso de toma de decisiones porque la incertidumbre se
encuentra presente en el proceso de decisión. El primer paso es el planteamiento gral de cuál es la
decisión que hay que tomar. Este planteamiento de la decisión determina las alternativas que se
generan, lo que da lugar a resultados completamente diferentes. Luis tiene que decidir qué va a
hacer al terminar sus estudios: ¿cuál será la mejor forma de lograr un buen nivel de vida? Son
alternativas centradas en aspectos económicos. Pero si por el contrario: ¿podría ampliar mis
estudios con algún curso para postgraduados? Las alternativas serán diferentes. Esto mismo
ocurre en decisiones políticas o sociales. Las alternativas generadas, la decisión, será
completamente distinta según el tipo de preguntas que se haga el individuo.
Este planteamiento general está determinado por las metas de la persona. Los sujetos con metas
a corto plazo o a largo plazo decidirán de forma diferente. Una persona que desea trabajar los dos
meses de verano para ganar dinero e invertir en sus estudios futuros, puede elegir un empleo de
muchas horas y con mucha dedicación, y con un buen sueldo. Sin embargo, con metas a largo
plazo, elegirá empleos que le permitan mantener calidad de vida, y ganar algo menos de salario.
Ante decisión importante (deliberada y consciente) el siguiente paso sería la generación de las
alternativas u opciones, sin desechar a priori ninguna de ellas. Serán diferentes en función del
conocimiento y de los valores de la persona, así como de los factores socioculturales.
Normalmente discriminar entre alternativas está determinado por la accesibilidad de la
información, al decidir entre varios productos. Se tiende a tener en cuenta la información presen-
tada y sólo en la forma que se presenta, ignorando a la vez datos que han de inferirse,
transformarse o recuperarse de la memoria. V.g. Comprar un coche (modelo y marcas) en función
de la publicidad evaluamos las características más salientes, atendemos a los accesorios, diseño o
detalle que el fabricante ha merecido hacer hincapié.
Una vez generado un número suficiente de alternativas, se evalúan con el fin de elegir la mejor.
Por una parte, las expectativas o la probabilidad de ocurrencia de c/una, y por otra, las
consecuencias que pueden esperarse en el caso de ocurrir. En la compra del coche evaluamos del
modelo consumo, resistencia, potencia o seguridad. Una decisión correcta debería tener en
cuenta tanto la probabilidad de que la característica se de como las consecuencias que
equivaldrían al valor que la persona da a dicha característica.
M.Goretti González 1
igualmente en los concursos o juegos de lotería en los que las personas que juegan
sobreestimas las posibilidades de ganar el premio. Se dan a la vez otros sesgos: sesgo de
exceso de confianza en el juicio emitido, o sesgo retrospectivo consistente en la creencia,
conocido el resultado final, de que las cosas podían suceder de esa forma y se había predicho
previamente.
Una decisión es una respuesta a una situación en la que existe más de un curso posible de acción:
opción o alternativa de elección. Suele basarse en las expectativas que tenemos sobre la ocurren-
cia de futuros acontecimientos y en la evaluación de las consecuencias de dichos acontecimientos
en función de nuestras metas y valores. V.g. Llegamos de una jornada de trabajo agotados. Nos
invita un amigo a ir al cine. Ante tal situación se ha de elegir el quedarse en casa descansando o ir
a ver la peli en buena compañía, pero con el riesgo de dormirnos en la misma. Los cursos de acción
serían: Ir al cine o quedarnos en casa. A la vez tenemos unas expectativas de lo que puede ocurrir:
1- si nos quedamos, descansar y no ver una peli.
2- elegir ir al cine, y puede ocurrir que veamos la película o que no por quedarnos dormidos en la
misma.
Desconocemos la probabilidad de ocurrencia de estos acontecimientos pero podemos estimar su
probabilidad y así evaluaremos sus consecuencias. En una escala de satisfacción entre 0 y 100:
M.Goretti González 2
En el diagrama en forma de árbol de decisión de la situación estamos combinando las propias
expectativas con los intereses y los deseos personales. El árbol de decisión no porporciona una
solución pero sí la representación de las expectativas sobre la ocurrencia de los hechos futuros y
de la evaluación de sus consecuencias. Ello permite visualizar gráficamente cuál es la alternativa
que brinda una mayor satisfacción y su expectativa según nuestros criterios.
En la toma de decisiones se suelen diferenciar tres situaciones relacionadas con las expectativas:
1. aquellas en las que se conocen las probabilidades (comprar un billete de lotería)
2. en las que se desconocen y éstas se pueden estimar (seguir trabajando o poner negocio
propio) y
3. situaciones en las que hay certeza sobre las opciones y sólo se ha de elegir entre las
mismas (pedir carne o pescaso en el restaurante) La certeza indica que no hay dudas sobre
los acontecimientos futuros y la decisión se toma bajo este supuesto.
La teoría normativa asume que cuando decidimos, lo hacemos eligiendo aquello que tiene el
máximo valor en los resultados que se esperan obtener. Unos matemáticos del XVII y XVIII
consideraron estudiar la probabilidad y la toma de decisiones en los juegos de azar como pauta de
comportamiento óptima. El objetivo era encontrar la forma de cuantificar el valor de una apuesta
en los juegos o en decisiones bajo condiciones de riesgo. Bajo este supuesto se denominaron
Modelos del valor esperado coincidiendo este valor con la esperanza matemática el juego.
El Valor esperado de una alternativa es la suma del producto de c/valor por su probabilidad de
ocurrencia. La mejor elección será aquella que obtenga el máximo valor esperado:
Alt.1 > Ganar 1000 euros con prob. 0.90 y ganar 0 euros con probabilidad de 0.10
[(1000 x 0,90) + ( 0 x 0,10) = 900 euros]
Alt.2 > Ganar 500 euros con prob. 0.80 y ganar 20 euros con prob. 0,20
[(500 x 0,80) + ( 20 x 0,20) = 404 euros]
La alternativa 1 es la mejor porque tiene un valor esperado de 900 euros frente a 404 de la 2ª.
Esta cantidad es promedio ponderado de los resultados que se esperan ocurran en el futuro. Se
pondera cada resultado posible con respecto a la frecuencia con que se espera. También se puede
obtener a partir de estimaciones subjetivas, y es el valor esperado la representación de las
creencias personales sobre la ocurrencia del posible resultado.
Según la teoría del valor esperado los sujetos buscan maximizar sus ganancias y elegirán la opción
1. No obstante, no todos se ajustan a la elección y prefieren la opción 2, en la que se gana menos
pero se gana siempre. Ello hizo que el “valor esperado” fuera sustituido por el concepto de la
utilidad esperada, entendida como el grado en que las consecuencias de una opción alcanzan las
metas personales en una situación determinada.
La primera objeción a este criterio fue en el S.XVIII (Nicolás Bernouill) aunque fue Daniel Bernouilli
M.Goretti González 3
el que desarrolló y lo publicó como Paradoja de San Petersburgo.Trata de la decisión de un
jugador ante un juego con valor esperado infinito:
– El jugador A plantea las reglas del juego y el jugador B tiene que decidir cuánto dinero está
dispuesto a pagar por participar en él.
– La regla consiste en que el jugador A lanzará una moneda hasta que caiga el lado de la cara, y
el número de veces necesarios (n) para conseguirlo determinará la cuantía del premio.
– Si A lanza una moneda y sale cara en la primera tirada, el jugador B pagará dos ducados y
termina el juego.
– La pregunta que se plantea en la paradoja es: ¿cuánto pagaría el señor B al jugador A por
participar en este juego?
Según el criterio del valor esperado, el jugador B debería participar en el juego si el valor esperado
es mayor que la suma exigida para entrar a jugar y rechazar la propuesta cuando ésta sea memor.
Para calcular el valor esperado total del juego se suman todos los valores esperados en cada
lanzamiento, dando como resultado un número infinito de “ducados”. La paradoja surge porque
con un valor infinito se debería apostar cualquier cantidad de dinero. Al señor B le interesa que
salga cara lo más tarde posible. Los resultados evidenciaron que grlmente no están dispuestas a
apostar más de 20 monedas por participar. Pone de manifiesto que no es realista asumir que B
espere poder jugar durante tiempo ilimitado para obtener número infinito de monedas a
cualquier precio.
Para resolverlo, Daniel Bernoulli propuso la noción de utilidad esperada como valoración
subjetiva de las posibles consecuencias monetarias del juego. Es en función de la riqueza de cada
individuo y está en relación inversa a su nivel de riqueza. Ganar o perder 200 euros no es lo mismo
para un rico que para un pobre, y cuánto más dinero se tenga menos se valorará dicha ganancia o
pérdida. El autor también comenta de utilidad marginal decreciente al señalar que la función de
utilidad es siempre creciente pero crece cada vez más despacio. Es necesario diferenciar entre el
valor esperado (cantidad objetiva) y la utilidad esperada que depende de las circunstancias de c/u.
En la paradoja descrita los individuos están dispuestos a pagar distintas cantidades por participar
en el juego según su criterio, aunque el valor esperado sea infinito. Esta distinción permite analizar
la toma de decisiones bajo riesgo considerando las valoraciones subjetivas que hacemos.
Bernouilli logró demostrar que el valor del dinero no es lo mismo para todos y que dicha
valoración es en proporción a la utilidad que pueden obtener de él.
El concepto de utilidad esperada de Bernoulli fue retomado por Neumann y el economista Oskar
Morgenstern (1944) . La teoría de la utilidad esperada de Neumann y Morgenstern ha sido el
modelo estándar de la decisión individual en situaciones de riesgo. Esta teoría del ámbito de la
economía está interesada en “qué” deciden las personas más que en “cómo” deciden. Su interés
se centra en el análisis de la relación entre aquello que se decide y los valores personales que le
han llevado a ella. El resultado del análisis permite entender los actos de elección como las
actitudes que tiene una persona hacia el riesgo.
Los autores proponen unos axiomas que garantizan la coherencia en el proceso de toma de
decisiones. Se necesita una escala de preferencias con la que poder evaluar las opciones. La
noción de utilidad es la escala de preferencias con mayor aceptación de los modelos normativos.
M.Goretti González 4
Con esta se está asumiendo que las metas u objetivos de las personas se expresan en su preferen-
cias, buscando resultados acordes con los valores que se tienen.
Se asume que los atributos de una opción son independientes y que cada uno tiene un peso o
importancia. Implica ello que cada uno tiene una utilidad que indica el grado en que esa propiedad
contribuye a alcanzar las metas y objetivos. Las personas conocen su entorno, son capaces de
ordenar las alternativas según el criterio de utilidad y eligen la de mayor proceso de
maximización. La decisión óptima será aquella que refleje sus preferencias. Esta teoría presenta
las ss ventajas:
1) consideración de toda la información disponible sobre las diferentes opciones,
2) comparación entre cualquier par de opciones dado que comparten una misma escala de
preferencias y
3) establecimiento de una estructura de preferencias coherente a partir de la determinación
de utilidad de cada opción.
Esta aproximación ofrece un conjunto de axiomas para poder construir una escala de utilidades en
la que la representación de los valores de las consecuencias se ajuste a una concepción ordinal de
la utilidad. Los axiomas son principios fundamentales e indemostrables sobre los que se
construye una teoría. Son proposiciones claras y evidentes que se admiten sin demostración, pero
pueden no serlo. Lo que sí, su expresión lógica se utiliza para la deducción y así poder generar
conceptos a partir de ellos.
Savage – 1954 generalizó la teoría de la utilidad esperada para permitir la inclusión de las
probabilidades subjetivas basadas en las creencias propias u opiniones sobre probabilidad de los
hechos. Edwards – 1954 denomina a esta ampliación “el modelo de la utilidad subjetiva
esperada” en un artículo que fue el primer intento de la psicología por acercarse a este dominio.
Sin embargo no es habitual hacer una distinción porque los axiomas y teoremas sistematizados de
Savage cumple las leyes de la teoría de la utilidad esperada y las probabilidades subjetivas que
contempla, cumplen las leyes de la probabilidad.
AXIOMAS:
1. Axioma de completitud u ordenamiento completo: A > B; B > A ; A ≈ B
1- A se prefiere a B A= pera B = piña
2- B se prefiere a A
3- se prefieren las dos, y por tanto, son indiferentes
ante un conjunto de alternativas, las personas pueden ordenarlas según las preferencias
asumiendo que es posible ser indiferente. Esto se hace explícito ante dos alternativas
donde “no se puede decidir” dejar de decidir. Estas serían comparables y la persona ha de
preferir una de ellas o considerarlas como equivalentes.
M.Goretti González 5
responde pera, se establece un orden, donde se prefiere la piña a la pera y esta a la
manzana o bien que se prefiere siempre piña respecto a la manzana.
Piña dulce A´
pq = 0,60 (0,75 x 0,80)
Decisión Piña insípida B´
1 - pq = 0,40 ALTERNATIVA SIMPLE EQUIVALENTE
1 – 0,60 = 0,40
B pera
1 - p = 0,25
7. Axioma de continuidad: Si A > B > C, entonces existe una probabilidad p tal que B ≈ (ApC)
Este es importante para la construcción de la escala de utilidad porque asume que habrá
un valor entre 0 y 1 que permite que la persona sea indiferente. Se establece que si A es
M.Goretti González 6
preferido a B y B es preferido a C, entonces siempre es posible encontrar una probabilidad
p para que la alternativa B sea equivalente a la combinación de la probabilidad p de A con
la probabilidad 1 – p de la alternativa C (ApC) Con esta se asegura que no haya una
alternativa mejor o peor a las otras y se puede localizar en la escala la opción B entre A y C.
Si eligen la A, sabemos que han asignado una utilidad mayor al valor esperado de 240 euros que al
valor esperado de 250 euros. 25% s/1000 + 75% s/0 = 250 euros
FUNCIÓN DE UTILIDAD CÓNCAVA AVERSIÓN AL RIESGO FUNCIÓN DE UTIL LINEAL ACTITUD NEUTRAL
U(A)
U(B)
Si la utilidad esperada fuera proporcional a la cantidad del valor esperado, sería lineal y
representaría una actitud neutral hacia el riesgo. La utilidad B U(B) sería = U(A)
También encontramos personas que presentan preferencia por el riesgo al elegir situaciones con
mayor riespo por una mayor cantidad de dinero de de menor riesgo y menor cantidad de dinero.
Supongamos:
OPCIÓN A : una ganancia segura de 260 euros.
OPCIÓN B : un 25% de probabilidades de ganar 1000 euros y un 75 % de ganar 0 euros.
Su cálculo sería U(B) 25% s/ 1000 + 0,75% s/0 = 250 euros; la U(A) = U(260euros) y eligen la
utilidad de B
U(B)
U(A)
La utilidad describe las preferencias de un sujeto y los axiomas imponen las restricciones sobre sus
posibles relaciones, aunque no determinen cuáles son estas transferencias. Esta teoría proponía
M.Goretti González 7
que para ser racionales en la toma de decisiones no había falta compartir la misma función de
utilidad, sino que bastaba con ajustarse a los mismo axiomas normativos en esa búsqueda por
alcanzar la máxima utilidad esperada que había sido definida individualmente.
Los axiomas anteriores fueron objeto de críticas entre las que destacan las paradojas de Allais
1953 y la de Ellsberg de 1961 . Indicaban como se podían violar algunas de las restricciones
impuestas, cuestionando así el concepto de racionalidad subyacente de la teoría.
La paradoja formulada por Allais se centra en la violación del axioma de independencia. Si una
alternativa A se prefiere a B, entonces cualquier combinación de A y C con una probabilidad
determinada debe ser preferida a otra combinación de B con C con la misma probabilidad. Allais
describió dos situaciones:
Situación primera:
- Alternativa B:
- Alternativa A: ganar 1 millón con p de 1 ganar 2,5 millones con prob de 0,10
(con total certeza) ganar 1 millón con probabilidad de 0,89
ganar 0 euros con probabilidad de 0,01
En esta primera la mayoría opta por la alternativa A en la que se gana 1 millón con certeza. Para
hacer el cálculo de la utilidad esperada entre ambas alternativas se considera la ganancia de 1
millón eliminando la prob de la misma de la alternativa B y conservando la prob restante en la
alternativa B ( 1 – 0,89=0,11)
- Alternativa A: ganar 1 millón con probabilidad de 0,11
- Alternativa B: ganar 2,5 millones con proba de 0,10 y ganar 0 euros con probabilidad de 0,01
Elegir la opción A implica que la utilidad U (A) 0,11 es mayor que la utilidad de la alternativa B ,
donde U(B) 0,25
La paradoja se plantea cuando se presenta la segunda situación enla que las dos alternativas
comparten una ganancia de 0 euros.
Situación segunda:
- Alternativa C: - Alternativa D:
ganar 1 millón con p de 0,11 ; ganar 2,5 millones con prob de 0,10
ganar 0 euros con prob de 0,89 ganar 0 euros con probabilidad de 0,90
La mayoría de las personas prefieren la alternativa D inicialmente. Implica que U(C) 0,11 es menor
que la utilidad de la alternativa D, U(D) 0,25
M.Goretti González 8
Savage 1954 hace un análisis de la paradoja de Allais ampliando el axioma de independencia con
el principio denominado aspecto cierto (sure-thing). Este afirma que si dos alternativas comparten
un resultado concreto, la preferencia será independiente del valor de este resultado común. Las
personas descartan el resultado seguro y basarán su elección en los posibles resultados diferentes
entre alternativas. Ante la situación primera, en una probabilidad de 0,01 se elegirá entre 1 millón
y 0 euros; y ante la probabilidad de 0,10 entre 1 millón y 2,5 millones. Ante la situación segunda, el
aspecto seguro es la ganancia de 0 con prob.de 0,89 y se rechaza, y sigue siendo la decisión entre
1 millón y 0 euros; y ante la probabilidad de 0,10 entre 1 millón y 2,5 millones.
La segunda paradoja planteada por Ellsberg 1961 se basa en el concepto de ambigüedad . Se ex-
traen bolas de colores. 90 bolas: 30 rojas, 60 negras y amarillas en proporción desconocida. La
extracción al azar supone ganancia distinta en función del color. Se presentan dos situaciones:
Situación 1 Situación 2
- Alternativa A: ganar 100 euros si la bola es - Alternativa C: ganar 100 si la bola es roja o
roja; ganar 0 si es negra o amarilla amarilla; y ganar 0 si es negra.
- Alternativa B: ganar 100 si es negra y 0 si - Alternativa D: ganar 100 si es negra o amarilla;
es roja o amarilla. ganar 0 si es roja
Por tanto la teoría de la utilidad esperada se ha descartado como modelo normativo válido de la
toma de decisiones. Se puede considerar que es una guía prescriptiva adecuada o un buen criterio
para el hombre racional, pero no un modelo descriptivo de decisiones. Analiza como debería de
ser una decisión correcta, para una correcta planificación, inversión o estrategias políticas, pero no
es buena descripción de las elecciones de las personas en su vida diaria.
Las personas asignan probabilidades subjetivas tal y como se establece sino en base a atajos
cognitivos aunque estos sean erróneos. Pronto la evidencia empírica y los resultados
experimentales mostraron que los axiomas se violaban repetidamente. Se expone un ejemplo de
que no se cumple el axioma de la transitividad donde A >B y B > C, entonces se prefiere A sobre C.
Según Tversky se da dentro de un entorno cotidiano la decisión no correcta:
Estudiante que quiere completar sus estudios y debe elegir entre psico, sociología y antropología.
M.Goretti González 9
Descubriéndo que ha de inscribirse rápidamente por pocas plazas considera inicialmente su
preferencia hacia la psicología con mayor calidad de enseñanza. Mientras espera piensa que su
mayor interés es la sociología y podría obtener calificación mayor. Parece mejor optar por esta
alternativa, pero sigue pensando y considera que el curso de antropología tiene calidad mayor,
con posibilidad de calificación mejor, por lo que definitivamente opta por esta. Aún así sigue
pensando en su inicial elección...
Situación 1 Situación 2
- Alternativa A: ganar 30 $ seguros (prob.1) - Alternativa C: ganar 30 $ con prob de 0,25
- Alternativa B: ganar 45 $ con probab 0,80 - Alternativa D: ganar 45 $ con prob de 0,20
Las cantidades de dinero son las mismas en las 2 situaciones, pero las probabilidades de la st.2 se
han dividido. Según la utilidad esperada, aquellos que elijan la alternativa A deberían elegir la C, y
si eligen la B, luego debían optar por la D. La mayoría prefería la alt A en la situación 1: mostraban
aversión al riesgo porque preferían ganar 30 $ sin riesgos que ganar más con un riesgo de 0,20 de
no ganar nada. En la segunda situación la mayoría elegían la alternativa D donde mostraban que
preferían ganar 45$ con un riesgo de 0,80 que 30 $ con un riesgo de 0,75, demostrando lo
indicado por Allais con el axioma de independencia de la teoría de la utilidad esperada. Fue deno-
minado el efecto de la certeza porque la reducción de una ganancia segura a una ganancia con
una probabilidad de 0,25 tiene mayor impacto, que la correspondiente reducción de una prob de
0,80 a 0,20.
Otros resultados muestran la violación del principio de invarianza. Este es un supuesto básico
implícito para la coherencia sustentada por los axiomas. Establece que la relación entre las prefe-
rencias no debe depender de la descripción de las alternativas o del procedimiento utilizado para
hacer la elección.
Situación 1 es 300 $ más rico y ha de elegir: Situación 2 es 500 $ más rico y ha de elegir:
- Alternativa A: una ganancia segura de 100$ - Alternativa C: pérdida segura de 100 $
- Alternativa B: una ganancia de 200$ con pr. De - Alternativa D: pérdida de 0 $ y de 200 $, am-
0,50 y una ganancia de 0 $ con probab. 0,50 bas con probabilidad de 0,50 $
En términos de la utilidad esperada, ambos problemas son idénticos. Las dos situaciones plantean
una elección entre 400$ seguros o 500 $ y 300 $ con una probabilidad de 0,50. Los resultados
mostraron que la mayoría elegía la alternativa A en la sit.1 y la alternativa D, en la sit.2. El valor
esperado es igual, pero se encuentra que cuando el problema se formula en términos de
ganancias, los sujetos muestran actitud aversiva al riesgo. Y cuando se presenta en términos de
pérdidas, se muestra una preferencia por el riesgo. Este efecto es conocido como el efecto del
marco (framing effect) o de la inversión de las preferencias sin limitarse a aspectos monetarios.
En otro estudio de Tversky y Kahneman 1981, se planteaba la elección entre dos programas sani-
tarios:
M.Goretti González 10
Se avecina una enfermedad y se han estimado 600 fallecimientos. Se propone dos programas:
Situación 1 donde:
– si se adopta programa A, se podrían salvar 200 vidas
– si se adopta programa B, existe 1/3 de probabilidades de salvar 600 vidas y 2/3 de no salvar
ninguna.
Situación 2 donde:
– si se adopta el programa C, podrán morir 400 personas.
– Si se adopta el programa D, existe 1/3 de probabilidades de que no muera nadie y 2/3 de que
mueren 600 personas.
Los programas A y B tienen el mismo valor esperado (salvar 200 frente a 400) y los progr.C y D son
idénticos a A y B, pero en términos de muertes (400 muertes frente a salvar 200 vidas). En la 1ª
situación la mayoría elegía opción A, mostrando la aversión al riesgo y el efecto de certeza.En la 2ª
situación, la mayoría eligieron el D, mostrando una preferencia por el riesgo y evitando una pérdi-
da segura. Esto es claro ejemplo de la inversión de las preferencias para las ganancias y las
pérdidas puesto que las dos situaciones son idénticas y de la violación del principio de invarianza.
Este nos recuerda que las elecciones no deberían cambiar en función de la descripción de la situa-
ción o de la formulación de los problemas, siempre que contengan la misma información.
Se le pedía elegir y la mayoría lo hacía hacia el programa X. Preferían salvar 70 vidas que ahorrar
43 millones. A un segundo grupo se le presentaba lo mismo pero sin indicar costo del programa Y
y debían estimar el coste que considerasen necesario para que las dos alternativas fuesen
atractivas por igual.
El coste de Y debería ser menor que en el programa X pues morían más. Si se tiene en cuenta solo
el coste, será preferible la alternativa más barata y podemos inferir qué prefieren los sujetos a
partir de la cantidad asignada para igualarlas. Si establecen el coste superior a 12 millones significa
que prefieren el programa X porque la diferencia entre ambos se reduce. Si lo establecen menor,
prefieren el Y dado que la diferencia se incrementa. Cuando se pedía este tipo de respuesta se
prefería el Y en su mayoría. Los autores lo explican por la importancia relativa a los atributos (vidas
salvadas) pero pierden peso cuando se trata de tasar o poner precio. Las personas mostrarán su
apoyo a una iniciativa pública de forma diferente según se les pregunte en las encuestas por sus
preferencias o por su opinión sobre cuantía de sus costes.
También se presenta cuando la persona toma una decisión de elección de una alternativa y
cambia por la decisión de rechazarla. En una decisión binaria no debería influir la elección o el re-
chazo: si A se prefiere a B, entonces se rechazará B frente a A. Shafir 93 encontró que los atributos
positivos son más importantes cuando se “elige” y los negativos cuando se trata de “rechazar”. Si
se tiene información sobre señor B que guarda atributos que sobresalen como positivos y
M.Goretti González 11
negativos, pero al señor A no se le atribuyen. La mayoría elegiría al primero (B) tanto por otorgarle
conceción como por denegársela en otro caso. Esta discrepancia muestra cómo dos tareas que
parecen equivalentes dan lugar a dos elecciones distintas. Las personas no atienden únicamente a
la utilidad de los componentes de c/alternativa para decidir. Prefieren la alternativa cierta cuando
se ofrece ganancia y riesgo cuando se trata de pérdidas de la misma magnitud. No siguen leyes
lógicas de transitividad o independencia, pues varían de VV del contexto y la tarea. Aún cuando
parecen ajustarse a la lógica, no significa que traten de maximizar el valo o la utilidad de las alter-
nativas. Por tanto hay que considerar los aspectos subjetivos o propios de la persona.
La Tª de la perspectiva indica que tomamos decisiones ponderando por el peso decisorio. Estos
no guardan relación lineal con probabiliades objetivas, pues los pesos mayores serán cuando las
probabilidades son bajas (sobreestimación), pierden pendiente y son menores en los tramos
centrales de las probabilidades (subestimación) y se recuperan cuando estas son altas (efecto de
certeza).
Las aportaciones principales señalan que la función del valor subjetivo es cóncava para ganancias y
convexa para las pérdidas y su inclinación es mayor cerca del punto de referencia (sensibilidad a
ganancias o pérdidas en mayor en la primera unidad +10 y -10). Se postulan que se subestiman las
probabilidades moderadas y altas, y se sobreestiman las probabilidades pequeñas y la certeza.
Se distinguen dos fases: “edición” revisión preliminar de las alternativas y “evaluación” que da
lugar a la elección de la alternativa que haya obtenido el valor más alto.
M.Goretti González 12
La fase de “edición” organiza y reformula las alternativas para simplificar los siguientes procesos
de evaluación y elección. Se aplican las operaciones:
– Codificación de los resultados en pérdidas y ganancias. Estos se definen en relación a un pun-
to de referencia. Si corresponde con el estado del problema, las ganancias y pérdidas
coinciden pero este punto de referencia puede cambiar por la formulación del problema o
expectativas de la persona.
– Combinación de las probabilidades asociadas a resultados idénticos. Permite simplificar el
conjunto de alternativas: 200 euros con prob de 0,25 más otros 200 euros con prob de 0,25,
puede reducirse a 200 euros con prob de 0,50
– Segregación de los componentes ciertos de los componentes con riesgo. Una alternativa de
300 euros con prb de 0,80 y 200 euros con prb de 0,20 se puede descomponer en una
ganancia segura de 200 euros y una ganancia de 100 euros con prob de 0,80. Al final serán 280
– Cancelación de los componentes compartidos por todas las alternativas. La opción común se
cancela.
– Simplificación por el redondeo o por eliminación de las alternativas muy poco probables. 101
euros con prob de 0,49 euros puede considerar como 100 con prob de 0,50
Editadas se pasa a la fase de “evaluación” que comprende la función del valor subjetivo y la
función de la probabilidad ponderada de obtener un resultado. Las estimaciones del valor de una
alternativa son cambios de riqueza o bienestar y no en estados finales. El valor es tratado como
una función con dos aspectos: una posición inicial que sirve de punto de referencia y la magnitud
del cambio desde ese punto de referencia. La teoría se basa en una ecuación básica que describe
la forma en la que se combinan la probabilidad y el valor subjetivo para determinar el valor global
de las alternativas. Puede aplicarse a elecciones que implican otros atributos como calidad de
vida,... si los resultados se codifican como ganancias o pérdidas.
Cuando presentan el mismo valor esperado la elección será función únicamente del riesgo. Si se
quiere incrementar entonces habrá que aumentar también la probabilidad y la cuantía de las ga-
nancias (las pérdidas de la alternativa más arriesgada deben compensarse con ganancias mayores)
M.Goretti González 13
Los resultados experimentales de Coombs y Huang 1970 confirmaron que los sujetos elegían la
alternativa con el mayor valor esperado cuando la diferencia entre los diferentes niveles de
riesgos y el riesgo ideal era la misma. Encontraron que este nivel de riesgo ideal y persona no era
el mínimo nivel de riesgo posible. Estas diferencias individuales no deberían considerarse como
rasgo de personalidad estable sino como las diferencias que se muestran en su percepción de los
riesgos y de los beneficios de una situación determinada en un momento concreto. Por ejemplo,
los estudiantes de países occidentales daban mayor peso a las probabilidades de las ganancias y la
percepción del riesgo disminuía a medida que mejoraban los resultados en el juego, mientras que
los estudiantes orientales concedían mayor peso en la magnitud de las pérdidas y la influencia de
los resultados positivos era mucho menor en su percepción del riesgo.
Figner y Weber 2011 señala que la idea de riesgos en la toma de decisiones depende de factores
que se agrupan en términos como quién, dónde y las diferentes interacciones entre ambos. Cada
individuo tiene un nivel óptimo de tensión entre la ganancia que desea obtener y la presión de
riesgo que puede soportar. Según Coombs y Huang – 1970 nivel de tensión entre codicia y el
miedo, donde existe un umbral de aceptación de la alternativa en ambas dimensiones donde no se
elegirá una alternativa cuya ganancia sea menor que su umbral de ganancias, ni la que el riesgo
sobrepasa el umbral de riesgo establecido. Para ser aceptable la alternativa no debe violar
ninguno de los dos umbrales. Son reglas dentro de las estrategias de decisión no compensatorias.
Así ninguno de los dos criterios puede contrarrestar al otro: un riesgo alto no compensa una gran
ganancia y un riesgo muy pequeño tampoco compensaría una ganancia pequeña.
El objetivo consiste en describir los distintos procedimientos mediante los cuales las personas
toman sus decisiones. Se requieren procedimientos heurísticos sencillos que permitan seleccionar
y procesar. Ahora la elección no se basa en un análisis exhaustivo de todas las alternativas hasta
encontrar la óptima sino la satisfactoria.
M.Goretti González 14
Payne, Bettman y Johnson 92, señalan que las personas tienen más de una estrategia de elección
y éstas pueden ser en algunas ocasiones deliberadas, otras veces, el resultado de aprendizajes
previos y en otras pueden ser intuitivas. La interacción ocasiona que el conjunto de estrategias pra
la elección comprenda un abanico amplio de heurísticos, desde los rápidos y apropiados para las
decisiones bajo presión de tiempo y poca capacidad de cómputo, hasta los de procesamiento
secuencial lento y apropiado para decisiones más complejas y deliberadas.
Los métodos para el rastreo del proceso, observan la estrategia empleada mediante el análisis de
los protocolos verbales, el análisis de los movimientos oculares, la monitorización de la búsqueda
de información y el análisis de la actividad cerebral por Rmf. En otros casos, se infiere según se
presentan pares de alternativas (X, Y) y si se elige uno u otro se inferirá que se utiliza una regla u
otra. Se tratan de cubrir dos objetivos: descubrir qué estrategias y qué reglas empleamos; y qué
rasgos de la tarea y del contexto determinan la selección y uso de estas estrategias.
Las situaciones de incertidumbre son las que mejor se ajustan a la toma de decisiones de la vida
cotidiana y las situaciones de riesgo caracterizan mejor la toma de decisiones en los juegos de azar
y en los ámbitos profesionales. También los criterios de elección son conocidos como reglas de
decisión, heurísticos de elección,...
Se ajusta al modelo normativo. Se asigna a los atributos una ponderación por importancia para
luego multiplicarlos por el valor determinado de ese atributo. Por ejemplo, en la compra de la casa
asignamos un 9 (0-10) al atributo precio. A continuación se analizará cada alternativa asignándole
una ponderación al valor concreto del atributo. A una vivienda con precio medio asignamos un 5, y
se multiplica por 9 (45) Se suma el resultado obtenido en c/u de los atributos para cada alternativa
y se elige la de mayor puntuación. La estrategia maneja toda la información disponible y es una
estrategia compensatoria porque la alternativa que tenga puntuación baja en un atributo puede
compensarse con otra alta en otro.
CRITERIO DE DOMINANCIA
Criterio coherente con modelo normativo, pero sólo para aquellas decisiones en las que exista la
mejor o peor alternativa. Se exploran todas para encontrar la mejor y elegirla o la peor y
eliminarla. Gralmente resulta difícil pero es un criterio útil para un análisis preliminar con el fin de
discriminar las más débiles (dominadas) y reducir el número de ellas a considerar.
M.Goretti González 15
que éste ocurrirá (máximo de los máximos). Si son utilidades, se elige la de mayor utilidad y si son
costes, la que presente el coste más bajo.
CRITERIO DE HURWICZ
Ni todos somos optimistas ni pesimistas, Hurwicz describió el comportamiento intermedio como
la suma ponderada de los extremos: alfa es el peor resultado; y 1 – alfa, es el mejor. Se estima la
probabilidad subjetiva del peor resultado y la subjetiva del mejor. La elección de este valor alfa
estará entre 0 y 1 donde el grado máximo de pesimismo será 1 (maximín), y 0 sería el de máximo
optimista (maximax). Se multiplica por sus utilidades respectivas y su suma suaviza los extremos.
CRITERIO DE RECONOCIMIENTO
Existe tan poca información sobre las alternativas que eligen la que reconocen o que les resulta
familiar. Forma parte de las estrategias heurísticas “rápidas y frugales” (requieren poco esfuerzo
en recursos y tiempo).
Comparan el valor de cada una de las consecuencias o atributos de todas las alternativas:
M.Goretti González 16
Posteriormente se compara ésta con otra y se vuelve a proceder hasta que solo quede una. Toma
toda la información disponible y es compensatorio.
CRITERIO LEXICOGRÁFICO
Se determina primero cuál es el atributo más importante y luego se elige la alternativa que
presente el valor más alto en dicho atributo. Se denomina lexicográfico porque los atributos se
ordenan en función de la importancia de forma análoga a cómo están ordenadas alfabéticamente
las palabras en un diccionario. Es de los criterios más comunes.
Las reglas compensatorias son más completas porque tienen en cuenta todos los atributos y las
posibles relaciones entre los mismos, como al adquirir una vivienda que un precio alto, puede
compensarse por la cercanía al puesto de trabajo. Sin embargo, estas compensatorias y
coherentes con el modelo normativo son costosas cognitivamente y poco viables para decisiones
con muchas alternativas multiatributo.
Algunas variables como la presión del tiempo, información distractora, dificultad de la tarea
influyen en el uso de la estrategia y por tanto en las distintas respuestas. En diferentes
investigaciones, se observa que las personas modifican la estrategia empleada cambiando a más
simples centradas en los datos negativos que permiten la eliminación de ciertas alternativas. Se
observa también el proceso de cadenas de estrategias o reglas, de forma que primero se usan las
que permitan descartar y luego se evalúa más detalladamente. Parecen útiles en diferentes
contexto, pero no se puede olvidar que el descarte inicial puede llevar a despreciar alternativas
actractivas.
M.Goretti González 17
Tabla 7.5 CLASIFICACIÓN DE LOS CRITERIOS DE DECISIÓN
(adaptado de Hastie y Dawes, 2010)
ELECCIÓN ENTRE ALTERNATIVAS
CRITERIOS COMPENSACIÓN ESCRUTINIO ESFUERZO MENTAL
Aditivo lineal COMPENSATORIO EXHAUSTIVO Muy alto
Dominancia NO COMPENSATORIO EXHAUSTIVO medio
Maximax NO COMPENSATORIO incompleto bajo
Maximín NO COMPENSATORIO incompleto bajo
Hurwicz NO COMPENSATORIO incompleto medio
Razón insuficiente COMPENSATORIO EXHAUSTIVO Muy alto
Arrepentimiento COMPENSATORIO EXHAUSTIVO Muy alto
Satisfacción conjuntiva NO COMPENSATORIO incompleto bajo
Satisfacción disyuntiva NO COMPENSATORIO incompleto bajo
Reconocimiento NO COMPENSATORIO incompleto bajo
ELECCIÓN ENTRE ATRIBUTOS
Diferencia aditiva COMPENSATORIO EXHAUSTIVO Muy alto
Lexicográfico NO COMPENSATORIO incompleto medio
Eliminación por aspectos NO COMPENSATORIO incompleto medio
Razón única NO COMPENSATORIO incompleto bajo
Esta necesidad de justificar está relacionada con el fenómeno estudiado por Festinger 1964 sobre
la necesidad de reducir la disonancia cognitiva. Las personas suelen estar satisfechas de sus
decisiones porque no conocen el resultado obtenido en caso de haber elegido otros, y por la ten-
dencia a eliminar la disonancia. Desde una perspectiva teórica más comprensiva, Svenson 1996
considera que la toma de decisiones es en gran medida el arte de resolver conflictos por medio de
la reconciliación o negación entre metas contradictorias, siendo esta resolución además
dependiente del problema, el contexto y las diferencias individuales.
Se ha de tener en cuenta que la decisión no es un proceso estático, sino que debe re-considerarse
repetidamente a medida que surgen otros elementos o varían las condiciones. Nuestros valores o
utilidades son inestables, muchas veces por desconocimiento. Es preciso tener en cuenta el cono-
cimiento de la persona experta frente a la ingenua. Además cada uno lleva a cabo varios roles en
la vida y cada uno de éstos determina una perspectiva diferente que variará la utilidad para cada
dimensión. El estado anímico dará lugar a juicios más positivos o negativos, modificando las
decisiones. El más positivo dará lugar a búsqueda de alternativas variadas y a la sobrevaloración
de la ocurrencia de estados favorables, y a la inversa. je,je,je ¡no tengo remedio!, lo sé.
M.Goretti González 18
A veces las decisiones está “cargadas” emocionalmente. Algunas personas no pueden considerar
detalles monetarios a la posibilidad de salvar vidas o salvaguardar el medio ambiente. Tetlock las
considera como compensaciones tabú (resistencia en lo sagrado o no). Pueden ante esto negarse
a decidir, dejar que otros lo hagan por ellos, optar por alternativa que mantenga el estatus quo o
que puede justificar fácilmente ante ellos y los demás, utilizando estrategias no compensatorias; o
bien intentar abordar el tema con esfuerzo de recursos y tiempo ponderando aspectos
emocionales como importantes.
Payne y Bettman, 2004, señalan que las ventajas y desventajas de las decisiones, se encuentran
directamente relacionadas con los objetivos:
1. maximizar la precisión de la decisión;
2. minimizar el esfuerzo cognitivo;
3. minimizar el impacto de las emociones negativas durante el proceso y una vez tomada,
4. maximizar la facilidad con la que se pueda justificar la decisión.
M.Goretti González 19
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013
1. INTRODUCCIÓN
La solución de problemas hace referencia a una de las manifestaciones del pensamiento más
extendidas y con un rango muy amplio de aplicaciones. Impregna todo aquello que se encuentra
relacionado con nuestra actividad cotidiana. Esta capacidad nuestra forma parte de nuestro
repertorio de procesos cognitivos básicos en distintos dominios de conocimiento, estando implica-
dos procesos básicos, como, percepción, memoria, categorización, razonamiento, lenguaje, apren-
dizaje,... asociada la misma a la inteligencia y la creatividad de uno. La solución de problemas com-
prende cualquier situación en la que se tiene una meta y se desconoce cómo poder alcanzarla. Las
personas intentaremos con mayor o menor éxito el objetivo.
Para abordar el estudio de este proceso de solución hace falta partir del análisis de al menso 4
componentes:
1- estado inicial de conocimientos,
2- estado meta que se quiere conseguir,
3- los procedimientos, acciones u operaciones que se pueden utilizar para ello, y
4- las limitaciones directas e indirectas impuestas por el contexto.
Cuando nos enfrentamos a un problema partimos de un estado inicial, tenemos un estado meta al
que queremos llegar y unas imposiciones que se deben respetar para alcanzar la meta. Por
ejemplo, tenemos un problema si se presentan inesperadamente unos familiares, la despensa es-
tá vacía y no tenemos presupuesto como para salir al restaurante. El estado inicial será no tener
cena, prepararla sería el estado meta y la imposición es hacerlo con lo que encontremos en la des-
pensa. Por solución se entiende el procedimiento que se ha empleado para alcanzar la meta, pero
sería más adecuado utilizar el término solución para denotar el producto final del proceso (estado
meta) y el término resolución para hacer referencia al procedimiento.
La psicología de la Gestalt ofreció alternativa a la psico experimental iniciada por Wundt (1911) y
al conductismo norteamericano de Watson,1930. Enfoque contrario al método analítico
defendiendo que la totalidad no podía entenderse como la mera suma de sus partes
constituyentes, sino en términos de sus interrelaciones en dicha totalidad de la que forman parte.
Wundt desautorizada la utilización del método introspectivo (procedimiento rigurosos de esos
años con los que contaba la psicología del momento). Su argumento se basaba en las
interferencias y sesgos potenciales pro- ducidos por el propio análisis introspectivo del
pensamiento. La Gestalt se centra en el uso de pro- tocolos verbales que pudieran exteriorizar el
pensamiento libres de interferencias.
Frente al enfoque asociacionista (conductismo) que explicaba la solución de problemas como una
conducta ob- servable basada en el número y fuerza de las conexiones estímulo-respuesta, la
Gestalt se interesó por la obtención de soluciones ante situaciones no conocidas. Según el conduc-
tista, el sujeto intentaría resolver recurriendo a sus conocimientos o experiencias previas en las
M.Goretti González 1
que hubiera obtenidos buenos resultados. Contaría con un conjunto de recursos (asociaciones
estímulo-respuesta), para afrontar nuevas situaciones y de no existir éstass, procedería por
ensayo-error. Al contrario, la Gestalt defendía que el aspecto esencial del proceso era la transfor-
mación o reorganización súbita de los aspectos críticos del problema.
“Gestalt” es término que se traduce como configuración, estructura, forma,... pero ninguno trans-
mite el carácter dinámico del concepto alemán, pues significa totalidad integrada y articulada en
la que la naturaleza, el lugar, el papel y la función de cada una de sus partes son lo que son por la
propia naturaleza de la totalidad (Wertheimer). El autor lo explicaba como la pompa de jabón:
donde el grosor de la textura jabonosa debía ser uniforme en toda la estructura, en interacción
dinámica y con la propia totalidad, de tal forma que pinchada, se presentaba el cambio en la
estructura de la misma (¡claro!).
...
de l os 9 puntos
...
A. s ol uci ón i ncorrecta
...
B. Correcta con 4 l ínea s 3 l íneas
...
... ... ... ...
... ... ... ...
Supongamos que a ndan a l go más uni da s , je,je,je
En la formulación del problema de los nueve puntos se pide conectar todos los puntos con cuatro
líneas o menos sin levantar el lápiz del papel. Resulta difícil por el el principio de pregnancia, que
impone la organización de los nueve puntos en un cuadrado como la forma más coherente y
sencilla. Las personas asumimos que las líneas deben dibujarse dentro de esos límites imaginarios
haciendo su resolución. Cuando se logra romper esta organización, se puede reorganizar diferente.
M.Goretti González 2
problemas. Durante la realización de la tarea se pedía a los sujetos que pensaran en voz alta
mientras resolvían el problema con el find de analizar cómo los sujetos progresaban hacia la solu-
ción. Las soluciones se desarrollaban por medio de las inferencias establecidas entre una represen-
tación mental del problema y la generación y evaluación de un conjunto de soluciones posibles.
El término fijación funcional fue utilizado para describir esta adherencia a procedimientos u orga-
nizaciones anteriores que impiden o bloquean una nueva reorganización de la situación. Este es
opuesto al de insight pues hace referencia al bloqueo mental y este sentido el aprendizaje previo
interfiere en la reorganización necesaria para resolver el problema. En el “problema de las cajas”
de Dunker se presentaba una vela, una caja de cerillas y chinchetas y se pedía a los sujetos que fija-
ran la vela encencida en un tablón. Problema que no resultaba nada fácil resolver. La solución
surge cuando se cambia la función contenedora de la caja de cerillas por la función de soporte que
puede fijarse al tablón con las chinchetas. Ilustra el ej. el cómo el uso habitual de la cajita genera
fijación funcional, bloqueando las posibles utilidades distintas.
Luchins,1942 demostró cómo la aplicación repetitiva del mismo procedimiento para resolver un
problema puede bloquear la aplicación de otros procedimientos alternativos y más eficaces. Utilizó
el problema de las jarras de agua y la tarea de los sujetos consistía en obtener una cantidad
determinada de agua utilizando para ello tres jarras con diferentes medidas. Este conjunto de pro-
blemas recibió el nombre de einstellung (actitud) para denotar esa disposición hacia la utilización
de procederes conocidos. Después de esta primera tarea, se presentaba otro grupo de problemas
denominados críticos porque podían ser resueltos por otro procedimiento más rápido.
GRUPO SOLUCIÓN SOLUCIÓN SIN El diseño básico de este experimento lo
EINSTELLUNG DIRECTA SOLUCIÓN
aplicó Luchins a más de 900 sujetos encon-
Control (niños) 1% 89% 10% trando los mismos resultados del efecto
Experimental (niños) 72 % 24% 4%
Control (adultos) 0% 100% 0%
einstellung: aplicación mecanizada de un
Exprerimental (adultos) 74% 26% 0% procedimiento ya aprendido y la consiguien
Te generación de un estado mental ciego en el planteamiento del problema. Conviene señalar que
la aplicación mecanizada de aprendizajes anteriores no solo es útil y eficaz, sino necesaria para
resolver problemas similares. Desafortunadamente, también puede convertirse en un obstáculo en
la solución de problemas nuevos o en el descubrimiento de innovaciones en los procedimientos de
resolución aprendidos.
Los estudios sobre fijación funcional de Dunker fueron bien recibidos por la comunidad científica
de la época aunque su trabajo fuera más amplio a otros campos.
Ejemplo: Si una persona tiene un tumor de estómago inoperable y existen unos rayos de alta inten-
sidad que destruyen el tejido orgánico, ¿cuál seria el procedimiento para eliminar el tumor con la
aplicación de estos rayos, pero evitando al mismo tiempo la destrucción del tejido sano que lo
rodea?
Los sujetos que participaron en las sesiones debían resolver el problema pensando en voz alta
todo aquello que se les iba ocurriendo mientras intentaban llegar a una solución. El método de
pensar en alto es distinto al introspectivo porque en el primero el sujeto se encuentra centrado en
el problema y verbalizando su pensamiento, mientras que en otro el sujeto pensante se convierte
en objeto de su propia atención. Dunker encontró que generalmente la solución no se alcanza en n
solo paso sino en varios a partir de la obtención de las propiedades esenciales o el principio gral de
M.Goretti González 3
la solución. A este principio lo denominó valor funcional de la solución, y consiste en una reformu-
lación del problema original, pues la solución final se alcanza a medida que este ppo gral se va
concretando en cada paso. Su interés era conocer cómo se desarrollaba y se integraba una
solución dentro del sistema de conocimiento del propio sujeto y no tanto en la viabilidad de las
propuestas de solución en sí mismas.
Las distintas propuestas de solución que daba el sujeto, según iba pensando en voz alta, se agrupa-
ron en tres principios generales:
1. evitar el contacto entre los rayos y el tejido sano;
2. la inmunización del tejido sano; y
3. la reducción de la intensidad de los rayos en su trayecto por el tejido sano.
A partir de estos se desarrollaban otras fases mediadoras más concretas encaminadas hacia la
solución del problema. Estas fases reformulaban el problema original en otro más concreto. En el
caso de la primera fase, el problema se concretó en la búsqueda de una vía libre hacia el estóma-
go con el fin de evitar dicho contacto y se encontró como solución el esófago. Según Dunker:
[...]cada una de las fases posee en sentido retrospectivo el carácter de una solución y en sentido
prospectivo, el de un problema”.
Lo habitual era encontrar que el sujeto iba tanteando de forma alternativa la viabilidad de los
principios grales y de las distintas fases mediadoras. Por ejemplo, un sujeto podía empezar desde
arriba con el principio, para luego volver a retomarlo en la fase en que lo dejó. Podría empezar des-
de abajo porque conocía soluciones semejantes que podrían aplicarse a la situación planteada por
el problema, o incluso las restricciones de éste, podían sugerir una solución como el estar el tumor
situado en el estómago podría contemplar la solución del esófago por proximidad anatómica. Las
aportaciones de la psicología de la Gestalt contribuyeron a que la psicología cognitiva desarrollara
el estudio de la solución de problemas como búsqueda de las interrelaciones entre las partes del
problema que diera como resultado una comprensión estructural del mismo.
A partir de los ´60 del S.XX el enfoque del PI sustentó el marco teórico y metodológico de la inves-
tigación sobre la solución de problemas. Los modelos computacionales ofrecían su desceipción y
explicación dentro del marco formal y riguroso que necesitaba la psicología cognitiva. El
Solucionador General de Problemas de Newell y Simon, 1972 constituye el inicio y marco de refe-
rencia como proceso de búsqueda heurística y estructuración y reestructuración de la representa-
ción del problema planteado por la Gestalt.
Newell y Simon describen “la solución de problemas” como la interacción entre un sistema de
procesamiento de la información (PI) – sistema de cómputo con almacenes de memoria,
operadores, receptores sensoriales y efectores motores, con limitaciones también- , un
solucionador y un ambiente de la tarea que comprende los factores externos relevantes para esa
determinada situación. El solucionador al enfrentarse al ambiente representa esta situación como
un espacio del problema, y este espacio es la particular representación que el sujeto hace del
ambiente de tarea configurado por las interacciones entre las limitaciones del PI y el ambiente.
Este espacio viene definido por los estados, los operadores, las restricciones, las funciones de
evaluación y las estrategias de búsqueda.
M.Goretti González 4
Las investigaciones se han centrado fundamentalmente en dos aspectos: 1. los procedimientos
que conducen a las soluciones, y 2. las representaciones internas de los problemas.
Una de las primeras clasificaciones se basaba en el grado de definición de los estados iniciales y
metas de la situación. Reitman, 1965 existían cuatro tipos: 1) donde tanto estados iniciales y meta
están bien definidos, 2) problemas donde el estado inicial está bien definido y la meta no, 3)
problemas donde la meta está bien definida pero no así el estado inicial, y el 4) tanto estados ini-
ciales como meta están mal definidos.
La clasificación general más aceptada los agrupa en bien definidos o cerrados y mal definidos o
abiertos. Los bien definidos (anagramas o ajedrez) son aquellos que contienen en sí toda la infor-
mación que permite resolverlos y cuya estructura impone unas limitaciones. Se identifican con fa-
cilidad la meta, los requisitos y el punto de partida para resolver el problema y los pasos u
operadores necesarios para su solución. Las personas generalmente no están familiarizadas con el
dominio de conocimiento y para resolverlo utilizan estrategias grales de solución (análisis medioss-
fin). Los mal definidos requieren del sujeto que construya la información necesaria para alcanzar la
solución. Para resolver estos (los de la vida diaria) se recurre al conocimiento y experiencia
(solución de probl por analogía) . Según Simon, 1973 los procesos generales para resolverlos son
los mismos y lo característico del proceso de solución de los abiertos es estructurar lo desestructu-
rado, para que terminen siendo cerrados o bien definidos.
En los problemas de inducción estructural se identifica el patrón de relaciones que existe entre
elementos que lo conforman. Hay que descubrir las relaciones entre las partes individuales para
luego poder generar una representación integrada ( analogías identifican aspectos estructurales
compartidos entre dos situaciones que extrapolan la solución, por ejemplo la analogía verbal es su
presentación de 4 términos: hombre es a mujer como caballo es a yegua – A:B como C:D)
En los problemas de reordenación la solución se obtiene por nueva disposición de los elementos
en función de algún criterio. Ejemplos como rompecabezas, anagramas o la criptoaritmética.
Greeno propuso: DONALD Donde presentaba tres nombres y los números comprendidos del
+ G ERALD 0 al 9. Consistía en sustituir letras por números de modo que el
ROBERT
M.Goretti González 5
el resultado fuera correcto. Se suele indicar que la letra D corresponde al nº 5.
Solución es: Modificaron la tipología anterior en función de: 1) acción congnitiva y 2)
526485
+ 197485 representación cognitiva.
723970
Tanto la acción como la representación cognitiva son necesarias y complementarias en cualquier
teoría del pensamiento humano. La acción cognitiva comprende el conocer de las acciones que se
pueden realizar y el conocimiento estratégico para establecer la meta y planificar sobre ello. La
representación cognitiva se refiere a la representación de los objetos comprendidos en la situa-
ción, la meta del problema, operaciones y estrategias que se pueden utilizar así como a las
restricciones que existan. Teniendo esto en cuenta, Greeno y Simon, 1988 analizaron los
problemas en tres categorías:
1. problemas bien especificados: procedimiento y metas bien definidos.Comprenden una
situación inicial, un conjunto de operaciones para pasar de un estado a otro, y un estado
meta. La tarea es encontrar una secuencia de acciones con la aplicación de las operaciones
permitidas. Comprende además los problemas de transformación de la tipología vista antes
y añade unos subtipos:
- Problemas nuevos, dirigidos por metas de los que no se tiene conocimiento o ex-
periencia (Torre de Hanoi)
- Problemas familiares, con metas específicas y conocimientos específicos (pr.mates)
- Problemas que especifican un procedimiento en lugar de una meta (ejercicios de
mates en los que se pide encontrar expresiones algebraicas)
- Problemas de representación, en los que los sujetos tienen experiencia
(interpretar uno de física).
3. problemas de inducción: tratan de encontrar un ppo gral coherente con los objetos o
contenido del problem. Categoría que permanece igual que en la tipología anterior,
analizando mayor número de problemas inductivos (inducción categórica, extrapolación de
secuencias, inducción de estructuras relacionales y el diagnóstico).
M.Goretti González 6
estructura ordenada de relaciones expresadas en las premisas.
Una prouesta más globlal es la de Jonassen - 2000, que considera que el análisis de los problemas
ha de tener en cuenta las dimensiones:
1. características de la naturaleza del problema,
2. características del contexto en que se presenta o representa,
3. las diferencias individuales para resolverlo.
Tabla 8.2 Dimensiones explicativas de la habilidad para resolver problemas (adaptado de Jonassen, 2000)
NATURALEZA DEL PROBLEMA REPRESENTACIÓN DIFERENCIAS INDIVIDUALES
Jonassen señala que la naturaleza de los problemas varía en función de su grado de:
1. estructuración (sobre todo de estos en educación): presentan estado inicial bien definido,
un estado meta conocido (define la naturaleza de la solución) , y conjunto de operadores
que permiten resolver el problema. Pero los de la vida cotidiana y en el ámbito profesional,
no suelen estar bien estructurados (elementos desconocidos, soluciones múltiples o
ninguna, o incluso solución influida por otras variables alternativas) y esto implica no
conocer los procedimientos necesarios para la solución, por lo que se recurre a las creen-
cias u opiniones particulares.
3. abstracción : Los bien estructurados son más abstractos por no estar en un contexto con-
creto y no tener contenidos específicos de dominio de conocimiento. Se resuelven con los
procedimientos generales, los métodos débiles. Los métodos fuertes suelen estar mal
estructurados, situados en contexto concreto y dependientes de contenido específico.
M.Goretti González 7
Lehman, Lempert y Nisbett, 1988 encontraron que el tipo de formación universitaria determinaba
el rendimiento en diferentes tipos de problemas:
– los de psicología y medicina resolvían mejor los probl.metodológicos, estadísticos y de
razonamiento condicional que los de derecho y química.
– Los resultados manifiestan que si la solución de problemas se encuentra en contexto
determinado y es dependiente del contenido, se desarrollarán procedimientos tb espe-
cíficos y concretos.
Sin embargo, pueden los bien estructurados situarse en contexto y dotarse de contenido
(formulado como una historieta) y los mal estructurados, presentarse de forma abstracta
(dilemas).
Con respecto a la representación de los problemas hay que destacar la importancia del contexto,
formato y modalidad. Los probl.cotidianos y profesionales se encuentran inmersos en contextos
propios (al diseñar un vídeo juego para salir al mercado de ventas con éxito, la representación de
éste en el ámbito profesional será distinta de la que se tenga en el profesional. Otras variables in-
fluyentes son las posibles presiones del tiempo impuesto para resolver el problema, imposiciones
reguladoras de contextos (sociales, religiosos, políticos, culturales,...) y las distintas interacciones
sociales que pudieran ser según el grupo o ambiente (ambiente competitivo vs colaborativo)
Además señalar el abanico de dif.individuales que pueden mediar. Hay que destacar las
dimensiones afectivas y conativas ( algunos estudios muestran que las actitudes y las creencias que
se tienen sobre el problema y su ámbito de conocimiento , conjuntamente con el nivel de auto-
confianza influyen significativamente sobre el rendimiento y la perseverancia para encontrar la
solución).
Newell y Simon, 1972 propusieron una metáfora espacial que describe el proceso de solución
como un procedimiento de búsqueda a través de un espacio delimitado por unos estados y unas
secuencias de acciones que conforman los caminos o trayectos metafóricos hacia la solución.
El espacio es la representación que el solucionador hace del problema y está constituida por 4
elementos:
1. descripción del estado inicial,
2. descripción del estado meta,
3. conjunto de operadores o acciones que permiten pasar de un estado a otro,
4. restricciones impuestas sobre los diferentes trayectos que conducen a la meta.
El espacio del problema comprendería el conjunto de todos los estados potencialmente alcanza-
bles mediante la aplicación de los operadores disponibles. Las personas tenemos una memoria de
M.Goretti González 8
trabajo limitada que hace inviable un proceso de búsqued exhaustivo (jugada de ajedrez puede
comprender como sesenta movimientos con media de treinta alternativos legales en cada paso)
Esto es implosión combinatoria, donde se da el hecho de que el tamaño del espacio de búsqueda
aumenta exponencialmente a medida que se profundiza en el mismo proceso de búsqueda. Por
tanto las personas utilizan unos métodos de búsqueda heurística. Ello permite reducir el conjunto
total de alternativas a un número más manejable, agrupando a las alternativas que se aproximen a
la solución (jugador de ajedrez anticipa entre 3 y 4 jugadas, y uno experto lo hará con 3 ó 4 pero de
las mejores jugadas). Sin embargo, ello no garantiza que se llegue a la solución óptima. En la
búsqueda se apuesta por aquellos trayectos que mejor puedan conducir a una solución, por alcan-
zar soluciones satisfactorias pero no la mejor. Newell y Simon 1972, propusieron un nº reducido
de métodos heurístico de carácter gral denominados métodos débiles por no usar información
específica sobre el dominio del problema.
Este heurístico es similar al método de ensayo y error selectivo. Las personas eligen en cada paso
la ruta que parece llevarles directamente a meta. Es útil encontrar una solución mínimamente
satisfactoria (máximo local), sin garantía de que sea la mejor opción posible (máximo global)
dentro del espacio del problema. La desventaja es la dirección pues siempre es hacia meta.
Es una estrategia sencilla y útil con ciertos inconvenientes. El solucionador puede quedarse atra-
pado en un punto máximo local con una solución satisfactoria, pero distinta del estado de meta.
MÁXIMO GLOBAL
2 estados iniciales diferentes, A y B (Heurístico
“subir la cuesta”
MÁXIMO
LOCAL
ESTADO
INICIAL ESTADO INICIAL
A B
M.Goretti González 9
conduce más rápidamente a lograr la meta que el 23. Kotovsky, Hayes y Simon (1985)
encontraron que los sujetos utilizaban en primer lugar el método de la reducción de diferencias
para resolver la Torre de Hanoi, y cuando fracasaban entonces aplicaban el heurístico “análisis
medios-fin”.
Este heurístico reduce la diferencia entre el estado inicial y el estado meta. La diferencia principal
entre este y el de “subir la cuesta” consiste en descomponer el est.meta en varios estados subme-
tas. La búsqueda hacia atrás, parte del estado meta y mediante la identificación de los operadores
se pretende ir generando los diferentes estados que logran terminar el estado inicial. Es de los mé-
todos más conocidos fruto de la combinación de la búsqueda hacia delante y hacia atrás.
La reducción de diferenciaas entre el inicial y meta, se logra con las submetas o estados interme-
dios que cada vez se aproximan más al meta. Aplicando los operadores se reducen las diferencias
hasta que desaparezcan. Si no se logra reducirla se genera un nuevo estado submeta para aplicar el
operador y así poder ir reduciendolas. Por ejemplo, nuestro estado inicial es que estamos en un fin
de semana en casa aburridos y con ganas de salir al campo (est.meta) Uno de los operadores que
reducirá diferencias sería “coger el coche para acercarnos al campo”. Si el coche está en el taller,
generaremos un nuevo estado submeta (amigo con coche) para aplicar el operador. Si este opera-
dor falla (no está en casa o no quiere) buscaríamos otro (viajar en tren ¡dónde lo haya, claro!)
- Si A = B se alcanza la meta.
> Estado A y B - COMPARAR - Si A no igual B, se detecta diferen-
cia 1, y se genera submeta.
- Si no existe abandona.
> Diferencia D1 - BUSCAR OPERADOR - Si existe, se genera una submeta
para aplicar el operador.
- Si no se cumplen, detecta D2
- APLICAR OPERADOR - Si hay éxito, se genera nuevo
> Estado A
estado A1
El heurístico análisis medios-fin reúne características importantes para este proceso de solución de
problemas:
1º La búsqueda se encuentra explícitamente guiada por el conocimiento de la meta.
2º El estado inicial puede conducir a otros estados submetas que descomponen el problema en
partes más pequeñas y más fáciles de alcanzar.
3º El método puede aplicarse recursivamente hasta conseguirlo.
M.Goretti González 10
La Torre de Hanoi genera primeras submetas cuando se libera el disco mayor del primer pivote.
Para alcanzarla se traslada el disco pequeño al tercer pivote. Luego se mueve el disco mediano al
segundo pivote y se alcanza la primera submeta. Liberado el disco grande debemos moverlo al
tercer pivote. Podemos anticipar que liberar el tercer pivote coloccando el disco pequeño encima
del disco grande sería un error. La anticipación de las consecuencias negativas corrige el trayecto y
permite colocar el disco pequeño encima del mediado en segundo pivote. La tercera meta es
mover el disco grande del 1er pivote al tercero.
El análisis del espacio del problema es una descripción abstracta que dificilmente puede ser repre-
sentada e implementada en distintos modelos computacionales. Sin embargo, se encuentra
vinculada al modelo formal “Sistema de Producción” (Newell,1973) Está constituido por reglas
con condiciones y acciones (si cumple condición, ejecuta acción).
Los sistemas de producción fueron diseñados para modelar el proceso de solución de problemas,
pero se han extendido a otros ámbitos de aplicación y han sido propuestos como modelo de
funcionamiento cognitivo en gral. El razonamiento condicional se encuentra representado como un
sistema de producción. Diversos modelos cognitivos alternativos basados en éstos, comparten un
lenguaje teórico común que fomenta la comunicación entre las diversas disciplinas.
Los problemas bien definidos o cerrados como la Torre de Hanoi, no son representativos de la
mayoría de los problemas. Sin embargo, facilitan la investigación sobre el proceso de solución
porque:
– el análisis de la tarea es riguroso. El sujeto conoce las reglas y procedimiento pues estos son
dados por el enunciado. Permite obtener un diagrama en el que se identifican todas las rutas
posi- bles. Se cuenta con una descripción formal que permite estudiar la generación de la
solución e identificar cómo se aproxima el sujeto a ese estado meta por los sucesivos
movimientos entre los diferentes estados del espacio del problema. Se podría estudiar cómo
mejora el rendimiento con el ejercicio y cómo se puede ser “experto”.
– Estos problemas no requieren conocimientos específicos y esto permite una mínima interven-
ción de los conocimientos previos del sujeto.
– La estructura bien definida permite generar problemas semejantes para así poder estudiar el
proceso de transferencia del aprendizaje bajo distintas circunstancias.
Según Newell y Simon 1972, las personas representan el ambiente de la tarea como espacio cons-
tituido por posibles estaados en los que se realizará la búsqueda de la solución. El ambiente es una
descripción externa del problema, y el espacio es la representación interna que hace el sujeto de
dicho ambiente. En la generación del espacio del problema se debe considerar la interacción entre
las fuentes de información externas e internas. Las externas se encuentran definidas por el am-
M.Goretti González 11
biente de la tarea y las internas por conocimientos que tiene el sujeto sobre situaciones similares
y sobre la propia información que se va acumulando durante el propio proceso de solución.
En los estudios sobre fuentes de información externa se han utilizado versiones isomórficas de los
problemas bajo el supuesto de que si la estructura del espacio para los procedimientos de bús-
queda heurística es idéntica, cualquier diferencia observada en el rendimiento se deberá a diferen-
cias en la representación de los enunciados. Versiones diferentes a la Torre de Hanoi son los pro-
blemas de Los Monstruos y se presentan en dos versiones: 1) Los monstruos se pasan los globos, y
2) Los monstruos cambian el tamaño de los globos que sostienen.
3 mostruos sostenían 3 globos de cristal. Tanto los mostruos como los globos tiene tres tamaños diferentes,
pqño, mediano y grande. El monstruo pqño sostenía el globo grande, el mediano el el globo pequeño y el
mostruo grde, el globo mediano. Puesto que es una situación sin sentido de simetría, procedieron a
intercambiárse los de modo que luego tenga cada mostruo uno proporcional al tamaño. Se tenían que respe-
tar las normas:
– solamente se puede mover un globo cada vez.
– Si un monstruo tiene dos globos, sólo se puede mover el más grande de los dos.
– No se puede mover un globo a un monstruo que sostiene uno mayor.
– ¿qué secuencia se seguirá para resolverlo?
En el isomórfico de movimiento, los globos pasan de un monstruo a otro como en los discos en los
pivotes del problema de la Torre de Hanoi. En el problema isomórfico de cambio los globos perma-
necen con el monstruo, quien puede cambiar el tamaño de los globos. Ahora se han cambiado los
papeles que desempeñan los pivotes y los discos: el globo es como el pivote y el monstruo como
disco. Tanto en la Torre de Hanoi como en el problema isomórfico de movimiento, las imposiciones
recaen sobre el tamaño de las unidades que pueden moverse (discos y globos) ubicadas en un
mismo sitio (pivotes y monstruos) En el de cambio, las imposiciones sobre el cambio del tamaño
del globo recaen sobre el tamaño de los monstruos (discos) que sujetan globos (pivotes).
M.Goretti González 12
Los resultados pusieron de manifiesto que los problemas isomórficos presentaban diferentes nive-
les de dificultad a pesar de compartir la misma estructura del espacio del problema. Se correspon-
dían con las distintas imposiciones y modalidades de presentación. Se encontró que el problema
más difícil era la versión isomórfica de cambio presentada por escrito y el problema más fácil había
sido el clásico de la Torre. La explicación se centra en los distintos niveles de carga de memoria de
trabajo que eran necesarios para la solución. Kaplan y Simon 1990 estudiaron la influencia del
ambiente en la tarea con el “tablero de damas mutilado”. Está asociado al insight descrito por la
Gestalt y plantea:
Tablero de damas de 64 cuadrados. Pueden cubrirse con 32 piezas de dominó de forma que cada pieza cubra
dos cuadrados. Si se eliminan dos en los extremos ¿se podrían cubrir los 62 restantes con 31 piezas de domi-
nó?
Cuando los sujetos se enfrentan a éste, emplean mucho tiempo intentando encontrar un patrón
que permita colocar las 31 piezas sobre el tablero mutilado sin éxito. El espacio del problema es
grande y el enunciado no impone restricciones sobre el heurístico de búsqueda por lo que al final
terminan abandonando el problema. Es imprescindible cubrir el tablero de damas mutilado con 31
piezas. En este los cuadrados adyacentes son siempre de dos colores alternos (rojos y negros) y
que al colocar una pieza de dominó se cubrirá una cuadrado rojo y otro negro. Al eliminar dos cua-
drados del mismo color (negro) quedan 30 negros y 32 rojos.
Kaplan y Simon se plantearon estudiar la facilitación en la resolución de este problema por medio
de la presentación de distintos indicios del concepto de paridad (comparar) que pudieran restrin-
gir la representación del espacio del problema. Presentaron:
1. tablero don todos los cuadrados en blanco,
2. tablero con cuadrados en dos colores,
3. tablero en blanco con palabrs de los colores escritas dentro de los cuadrados [negro][rojo]
4. tablero en blannco con palabras escritas [pan] y [mantequilla].
Los resultados manifestaron que tardan menos en responder que no se podía resolver los enfren-
tados al tablero con las palabras “pan” y “mantequilla”. Estas transmitían el concepto de paridad
necesario para obtener la solución. Le seguía el grupo con el tablero de las palabras escritas de los
dos colores, el de dos colores y el de los cuadros en blanco.
La Teoría del Control Progresivo sostiene que los sujetos utilizan el heurístico de subir la cuesta
para resolver problemas asociados al insight , resolviéndose cuando se relajan las imposiciones
sobre el espacio del problema. Esta Tª explica cómo se alcanza un puno muerto en el proceso,
cuáles son las condiciones necesarias para que surja el insight y por qué este es tan poco frecuen-
te.
M.Goretti González 13
En estas investigaciones se utilizó el problema de los 9 puntos. Según los autores, el estado meta
no se encuentra bien definido en la mayoría de los problemas asociados al insight y los sujetos
seleccionan un criterio de progreso satisfactorio hacia unas metas parciales que se infieren de la
descripción del problema o de estado interno generado en el proceso en sí. La reestructuración del
espacio del problema puede ocurrir, por la influencia de fuentes externas como por la propia
información generada internamente.
Los sujetos no logran resolverlo debido al gran nº de movimientos posibles que parecen ajustarse
al criterio de un cuadrado. Se llega a un punto muerto cuando el heurístico de búsqueda ya no
puede más estados que cumplan el criterio de progreso satisfactorio. Este fracaso permite relajar
las imposiciones del espacio del problema para buscar otros estados. El sujeto puede volver a una
solución anterior tentativa en la que utilizó una línea para unir los puntos fuera de los límites ima-
ginarios del cuadrado. El insight es poco frecuente pues se ha dee ajustar al criterio de llegar a la
cuarta línea. Es necesario anticipar mentalmente el trazado para darse cuenta del fracaso del crite-
rio satisfactorio y reestructurar el problema sin los límites imaginarios del cuadrado.
La teoría del cambio representacional se centra en la información interna como obstáculo para
una buena representación del espacio del problema. La que se hace inicialmente puede ser inade-
cuada porque el conocimiento previo y las experiencias anteriores activan la construcción del
problema infructuoso. Para reestructurarlo nuevamente existen los mecanismos:
1. relajación de las imposiciones: decremento en la activación de algún elemento de conoci-
miento que restringe la aplicación de los operadores comprendidos en el espacio del pro-
blema (v.g. Fijación funcional observada en el problema de las cajas de Duncker – función
contenedora de la cajita de cerillas opera como soporte de la vela.)
2. disgregación de las agrupaciones con significado del problema: implica ruptura de las co-
nexiones establecidas por los componentes de una unidad con significado (v.g. El efecto
einstellung en el problema de las jarras de Luchins). Ahora la unidad que hace falta
disgregar son los procedimientos aprendidos que conducen a una representación
inapropiada. Ello permitirá bloquear la aplicación mecánica y reestructurar el espacio del
problema de modo que se puedan encontrar los procedimientos que resuelven los
problemas críticos.
El estudio de la naturaleza del “experto” se enfoca desde una perspectiva absoluta o relativista. La
perspectiva absoluta se centra en la identificación, descripción y evaluación de la pericia. Es nece-
sario contar con una definición operativa de experto y con instrumentos de medida que puedan
M.Goretti González 14
cuantificarlo. La perspectiva relativista aborda el estudio del experto en comparación con el nova-
to. La pericia se sitúa en un continuo con distintos grados de conocimientos y años de experiencia
en los que se pueden ubicar los sujetos. Los estudios del solucionador experto han adoptado ésta
bajo el supuesto de que las capacidades y procesos básicos de expertos y novatos son semejantes
y que las diferencias entre ambos se deben a los conocimientos adquiridos en el ejercicio de una
actividad determinada.
1. Los EXPERTOS generan lo mejor de forma más rápida. De Groot 1946 abordó el estudio de
las diferencias en conocimiento y experiencia en el juego de ajedrez. Utilizó protocolos ver-
bales en amplia muestra con distintos niveles de maestría. Ello permitió identificar las dife-
rencias entre jugadores según iban tomando decisiones sobre sus movimientos. Los resul-
tados mostraron que diferencia en el comportamiento de un jugador experto era la rapidez
con la que podía considerar las mejoras jugadas sin necesidad de búsqueda exhaustiva
(captan rápidamente la estructura de las posiciones de las piezas, exploraban los posibles
movimientos, evaluaban las consecuencias de estos movimientos y elegían las mejores ju-
gadas).
Chase y Simon,1973 encontraron que el experto de ajedrez identificaba configuraciones del
tablero asociadas con los mejores atrones de jugadas. Expertos y novatos recordaban
aprox.el mismo nº de piezas y sus posiciones en el tablero cuando estas piezas se situaban
al azar. El rendimiento de los expertos era significativamente superior cuando las piezas se
encontraban en una configuración de posibles jugadas. Organización establecida por
agrupaciones (chunks) de unidades con significado.
2. Detectan y reconocen mejor aspectos de la información que pasan desapercibidos para los
novatos discriminando entre lo relevante y lo que no. Chi, Feltovich y Glaser , 1981 mostró
que estudiantes de cursos avanzados representaban un problema basándose en el ppo
abstracto subyacente y los novatos en elementos superficiales (los bomberos expertos
representan el incendio dinámicamente, considerando condiciones antecedentes al fuego,
al cómo será su evolución más probable, ... los novatos se percatan de características de la
llama, color,...)
3. Analizan durante más tiempo. Gestionan de diferente forma los recursos limitados del
procesamiento. Los expertos dedican más tiempo al análisis del problema (En radiología se
encontró que los expertos empleaban más en fase preliminar al diagnóstico) Esto les
permite resolver el problema de forma más rápida y correcta.
4. Seleccionan las mejores estrategias. Los procesos básicos son similares en ambos grupos
pero los expertos eligen el mejor procedimiento (V.g. Los profesores de física resuelven pro-
blemas trabajando desde el estado inicial hacia la meta, mientras que los estudiantes lo
hacen hacia atrás, comenzando en el estado meta). También se ha encontrado que en diag-
nóstico médico rutinario los profesionales se basan en los datos y los novatos lo hacen
desde la hipótesis. En los expertos la búsqueda heurística está condicionada por
conocimiento estructurado y específico del dominio.
5. Desarrollan sus actividades con menor esfuerzo . Con la práctica se produce automatiza-
ción progresiva del rendimiento, reduciéndose la carga de recursos de procesamiento. De
inicio lento y secuencial, consume recursos, y luego es todo lo contrario y menos
deliberado. (Los jugadores expertos de ajedrez son capaces de jugar no solo una sino varias
partidas a la vez de forma mental). Esto hace que se liberen recursos para otros procesos.
M.Goretti González 15
6. Tienen mejor autocontrol. Muestran auto-control del estado de comprensión y del proceso
de solución (los expertos evaluaban mejor la dificultad de problemas de física y además
estimaban mejor el nº de piezas de ajedrez recordadas y el nº de veces que necesitan ver
una posición en el tablero para poder recordarla).
7. Aprovechan mejor las oportunidades que tienen para incrementar sus fuentes de
información y los recursos disponibles. De Groot 1946 encontró que los jugadores expertos
seguían aprendiendo al descubrir jugadas nuevas evaluando consecuencias de los movi-
mientos hipotéticos de una jugada. La práctica deliberada permite corregir los puntos
débiles e incrementar la pericia.
Los enfoques más tradicionales sobre el rendimiento experto dicen que se adquiere destreza por la
formación y experiencia. Limitado por sus propias capacidades y habilidades innatas. Entienden
que cualquier persona que se implique activamente en su profesión puede alcanzar el nivel de ex-
perto cuando aumentan los años de experiencia.
El desarrollo de este rendimiento se describe como secuencia de retos con distintos niveles de
dificultad que el sujeto va dominando y superando a lo largo de los años. Estos niveles de
maestría son como situaciones de solución de problemas diferentes que deben resolverse para
conseguir el siguiente nivel. De inicio serán las tareas sencillas las que den resultado, y
aumentando con la experiencia y formación, se darán soluciones a tareas más complejas hasta al-
canzar nivel experto.
Alcanzar una destreza habitual de la vida cotidiana (conducir...) implica paso por tres fases:
– Fase cognitiva: se aprende estructura de la actividad (reglas y procedimientos) recibiéndose
re- troalimentación bastante clara de los errores. Los novatos gradualmente aprenderán a
evitar errores y se aproximarán a sus expectativas en la siguiente fase.
– Fase asociativa: se logra nivel funcional estable y satisfactorio. Con más entrenamiento se
alcanza la última.
– Fase automática: rendimiento estable y óptimo con un mínimo esfuerzo.
Los sujetos consiguen alcanzar este estado automático porque se implican en la comprensión y re-
presentación de la estructura de la actividad a desarrollar para pasar a continuación a las dos fases
siguientes que persiguen la mejora y automatización. Actividades recreativas (juegos o deportes)
presentan una estructura sencilla que permite reconocer patrones y configuraciones fácilmente.
Bajo este supuesto, por la instrucción y los años de experiencia, la perspectiva tradicional
encuentra difícil explicar por qué existen diferencias tan marcadas entre las personas con
capacidades semejantes y con una misma formación y antigüedad, y por qué el nivel de excelencia
tan sólo lo consiguen unos cuantos. Hatano e Inagaki 1986 distinguen entre expertos rutinarios y
expertos adaptativos.
– Experto rutinario: es eficaz destacado en rapidez, exactitud y automaticidad, falta de
flexibilidad y capacidad de adaptación ante situaciones nuevas.
– El experto adaptativo: es capaz de utilizar el conocimiento flexible y creativamente, con una
comprensión más profunda de los ppos y del marco conceptual de su destreza. Muestran pre-
M.Goretti González 16
disposición a seguir aprendiendo desarrollando destreza. Los nuevos problemas son desafíos a
superar.
El adaptativo aspira a alcanzar nivel de excelencia que supere la fase de automatización, desarrolla
destreza que le permita apoyar un aprendizaje continuado. Por tanto, requiere experiencia como
práctica deliberada para poder contrarrestar la fase de automatizacióon y así adquirir control y ha-
bilidad en la monitorización del propio rendimiento. Reestructuran, reorganizan y refinan su repre-
sentación de conocimientos y procedimientos. Los expertos no saben más que los novatos, sólo lo
saben de forma diferente.
M.Goretti González 17
Los metacomponentes contribuyen en la explicación de las diferencias individuales en inteligencia
y creatividad. Sternberg identifica siete expuestos en la tabla anterior. Los implicados en la
identificación, definición y representación son especialmente críticos para analizar las DDII en inte-
ligencia y creatividad en los problemas abiertos o mal definidos. Los aspectos tradicionalmente
asociados con el pensamiento divergente o creativo se podrían vincular con estas primeras etapas
del proceso de solución y los aspectos del pensamiento convergente o analítico con las etapas
posteriores.
Problema de la FORTALEZA
En un pequeño país gobernaba un dictador desde su fortaleza. Estaba situada en el centro y se encontraba
rodeada de granjas y poblados. Un general rebelde ha jurado tomar la fortaleza para derrocar al dictador.
Sabía que con un ataque conjunto con los soldados lo podía conseguir. Quería hacer un ataque directo, pero
se enteró que el dictador había puesto minas en cada uno de los caminos. Estaban colocadas de modo que
podían pasar sobre ellas pequeños grupos de hombres sin peligro, puesto que el dictador necesitaba que sus
tropas y trabajadores entraran y salieran de la fortaleza. Cualquier grupo numeroso podría hacer estallar las
minas y cortaría el camino y destruiría vidas y poblados cercanos. Al general se le ocurrió un plan sencillo,
dividió al ejercito en pequeños grupos y los mandó por caminos diferentes. Cuando estuvieron preparados,
dió señal por el wasap y cada grupo avanzó por una ruta distinta. El ejercito completo llegó a la fortaleza a la
vez, el general tomo la fortaleza y derrotó al dictador.
Transcurrido un tiempo (minutos o semana) pasa la segunda sesión en la que los sujetos deben
M.Goretti González 18
resolver el problema de la Radiación de Duncker, 1945. El grupo control pasa por esta sesión.
Los resultados como en los de Duncker, encontraron que el problema de la radiación resultaba di-
fícil de resolver: 10% del grupo control, encontraron solución. 30% del grupo experimental lo logra-
ron mostrando haber establecido la analogía. Sin embargo es un incremento muy pequeño. Si a
los que no lo habían resuelto se les daba pistas, el 75% de estos, lo resolvían, por tanto, la pista
forzó el proceso de solución. Se puede entender a este razonamiento analógico como complejo,
aunque se entienda como procedimiento de búsqueda heurística, pero entre dos representaciones
Los dominios distintos (militar y médico) comparten una estructura y solución semejantes. Consta
de relaciones verticales o cadenas causales, y de correspondencias horizontales. Los componentes
del estado inicial se relacionan causalmente con el plan de solución donde la meta se convierte en
resultado, los recursos lo posibilitan y las limitaciones impiden la aplicación de otros planes
alternativos.
La dificultad para resolver este problema podría ser el acceso y recuperación del problema
análogo. El mayor obstáculo para establecer la analogía puede ser por los dominios distintos. Esta
disparidad entre ambos (militar, médico) explicaría que los sujetos no estuvieran predispuestos a
buscar solución para un problema médico en aquello que conocen sobre estrategias militares. La
mayoría recurría a analogías médicas y pocos a la militar. La complejidad y el desafío de la investi-
gación es el explicar cómo se tiene acceso a ese conocimiento almacenado tan distinto al
problema a resolver.
Los problemas de transferencia y aplicación pueden encontrar dificultad en la adaptación del co-
nocimiento del problema anterior al problema nuevo. En la Transferencia se ponen en correspon-
dencia ambos espacios del problema dando lugar a distintas extrapolaciones (las minas y el poder
destructivo de un rayo de alta intensidad resulta menos obvia). En la adaptación pueden surgir
M.Goretti González 19
problemas con ligeras modificaciones (se tiene que inferir la reducción de la intensidad del rayo
por su correspondencia con la división de tropas). Se asume que se debe dar comprensión a la re-
presentación almacenada para que se pueda transferir y adaptarse para resolver el problema
meta.
En un esquema convergente
Meta -> utilizar fuerza para legar a objetivo.
Recursos -> fuerza suficientemente grande
Operadores -> reducir intensidad de la fuerza, mover fuente de la fuerza, aplicar fuerza
Restricciones -> no se puede aplicar con seguridad la fuerza por una sola vía.
PLAN DE SOLUCIÓN : aplicar fuerza de baja intensidad en varias vías y de forma simultánea.
Resultado: objetivo alcanzado por aplicación de la fuerza.
La solución de problemas por analogía da lugar a transferencia positiva y negativa. Problemas simi-
lares aparentemente, pueden resolverse de formas diferentes y otros distintos de la misma forma.
Una de las disposiciones más aceptadas es la diferenciación entre semejanza superficial y
estructural (Gentner,1983) :
M.Goretti González 20
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013
INTRODUCCIÓN
El pensamiento en contexto se presenta en dos líneas de trabajo: una que estudia el pensamiento
cotidiano, siendo informal y como argumentación. Y otra que estudia el pensamiento en la
práctica, investiga procesos inferenciales, de cálculo y de resolución de problemas en entornos
cotidianos condicionados por la cultura. Algunos autores consideraban que la psicología había des-
cuidado el estudio de este tipo de pensamiento.
Limon 2005 explica que no existe unidad conceptual y metodológica dentro de este campo de
estudio, y sí una gran variedad de conceptos que se usan para aludir al pensamiento informal
(cotidiano, no formal o práctico) y los diferentes fenómenos que se incluyen dentro de éstos:
argumentación, solución de problemas poco estructurados o la toma de decisiones en
incertidumbre,entre otros. Respecto a la metodología se aprecia gran amplitud de procedimientos
fuera de la experimentación en laboratorio.
Dentro del primer grupo de trabajos, tenemos el razonamiento informal : es el cotidiano de la vida
diaria que no sigue las formas estandarizadas de la lógica deductiva. El pensamiento cotidiano es
la construcción de modelos situacionales que permiten representar y comprender los problemas
de la vida, donde se dan además sesgos y argumentaciones. La argumentación es la actividad cog-
nitiva y discursiva que se realiza cuando se da un diálogo entre dos o más personas dándose opi-
niones, se rebaten, ponderan, se justifican, se piden pruebas, se las juzga a éstas,...
El razonamiento informal está presente en escenarios como los electorales: ¿qué programa
político me parece más convincente? Las propuestas de los candidatos ¿ofrecen razones y
evidencias que las sostengan? En otras situaciones son las que se dan en los juicios cuando los ju-
rados tienen que organizar y sopesar pruebas, testimonios,... y luego tomar una decisión. También
se generan y evalúan argumentos: un político defiende su programa frente a otro, ¿es capaz de
generar aseveraciones claras? ¿Puede incorporar las críticas del adversario a sus propios argumen-
tos y así enriquecerlos? En estos ejemplos el pensamiento supone contemplar las razones de otros,
contraponer y clarificar el propio punto de vista, sacar conclusiones y tomar decisiones. Hay otras
situaciones cotidianas donde el pensar se realiza en los contextos en los que se ejecutan tareas
M.Goretti González 1
prácticas como calcular precios de venta, organizar mercancías para su venta,... en este caso el
pensamiento se fundamenta alrededor de herramientas culturales (sistemas de enumeración,
procedimientos para calcular,...)
Ambas líneas se han reunido en este texto por las razones siguientes:
– Motivo que se vincula con el carácter no-formal del pensamiento informal y las consecuencias
de este cuando se define la racionalidad humana y el valor de los modelos normativos como
modos de evaluación de esa racionalidad. Es un pensamiento que se desarrolla en situaciones
abiertas poco estructuradas (Sternberg,2011) Pero ¿qué tipo de pensamiento es el informal? Si
no se amolda a los cánones de la lógica, entonces ¿se trata de un pensamiento irracional?
Subsiste la idea clásica adoptada en la psico del pensamiento tradicional por la cual se entiende
a la lógica de- ductiva como modelo ideal y normativo del pensamiento. Este enfoque ha
buscado la correspondencia (o falta de ella) entre los modos de pensamieto de las personas y
el modelo lógico deductivo.
Los estudios sobre el pensamiento en contexto muestran una aproximación descriptiva en su
estudio pues se centran en investigar cómo las personas razonan, argumentan y resuelven
problemas en situaciones poco estructuradas. Estas posiciones revivan la polémica sobre la ra-
cionalidad humana y el lugar de los modelos normativos lógicos como modelo de racionalidad.
No significa que los estudios en este pensamiento no se inspiren en modelos ideales o no re-
flexionen sobre el papel de estos.
– En los estudios que asumen una perspectiva retórica, informal y argumentativa, el modelo
ideal de discusión racional lo constituye la imagen de la balanza (metáfora del filósofo Leibniz –
s.XVII ) la cual indica que una creencia racional es aquella que obtenemos sopesando las creen-
cias en los “platillos de la razón”, lo que se traduciría en dar razones a favor y en contra de las
aseveraciones, evidencias, justificaciones,... sin atender a factores extra-lógicos (preferencias,
prejuicios, presiones del entorno) Esta imagen ideal contrasta con los resultados encontrados
por la investigación psicológica. Este desajuste entre modelo ideal y los resultados no suelen in-
terpretarse como déficit en el desempeño de los sujetos pues el interés está puesto en
describir cómo pensamos.
En la tradición socio-cultural la reflexión sobre el papel de los modelos normativos y la raciona-
lidad se plantea de otro modo: se adopta una perspectiva temporal o histórica (tb
historiogenética) en el estudio de los procesos cognitivos. Este estudio debe incluir el cómo se
ha originado dentro de un contexto socio-cultural específico, mediante qué prácticas y qué he-
rramientas, cómo ha ido evolucionando a lo largo de la historia,... Este tipo de estudios ha sido
desarrollado por Netz,1999 el cual mostró que los procedimientos deductivos surgieron en el
siglo V a.C. como producto de las prácticas cognitivas y simbólicas realizadas por los matemáti-
cos griegos. Situar el origen social y cultural de la deducción permite a los psicológos socio-cul-
turales (Gabucio,2002) entenderla como un modo de pensamiento específico, contextualizado
histórica y situacionalmente. Lo que a la vez, llevaría a proponer que no puede considerarse
como un proceso natural, universal y a-histórico. Por tanto la deducción no podría ser el mode-
lo ideal sobre el cual contrastar todas las formas de razonamiento, sino más bien es un modo
específico y concreto de razonamiento que toma sentido en el contexto de ciertas prácticas in-
telectuales .
M.Goretti González 2
dio de este campo. Se ha tenido que utilizar técnicas y metodologías capaz de estudiar
situaciones que sean lo más cercanas y parecidas a las que las personas realizan cotidianamen-
te con estructuras, materiales, instrucciones e interacciones similares (validez ecológica).
El adjetivo informal llama la atención sobre los aspectos no formales (¡no me digas!, je,je,je) que se
presentan en el razonamiento. Wason y Johnson-Laird habían descrito sobre ello y el efecto del
contenido en tareas de razonamiento condicional señalando los aspectos extra-lógicos y su influen-
cia. Los estudios sobre este razonamiento sostienen que es limitado entender el razonamiento en
función de su mayor o menor adecuación a los modelos normativos, pues ello no considera la gran
diversidad del pensamiento humano. Este razonamiento informal intenta superar las limitaciones
de la lógica formal apostando por factores lingüísticos, contextuales, pragmáticos e incluso episté-
micos para llegar a una inferencia, argumentación o toma de decisión. Así es por lo que éste
adopta formas retóricas especiales donde se justifican y exponen razones a favor y/o en contra de
alguna conclusión o se delibera sobre algún tema controvertido.
Voss, Perkins y Segal 1991, definen al pensamiento informal en función de los tipos de situación
en los que ocurre y según sus características. Puede darse en situaciones cotidianas, cuando se ha
de elegir a quién votar, cuando se sopesa dónde ir de vacaciones,... También está presente en el
diagnóstico médico, argumentos legales, ralaciones internacionales. Según sus características
incluye procesos de justificación de creencias, de explicación de observaciones y de deliberación,
incorporando argumentos a los mismos.
Diferenciación entre argumentos o razonamiento informal y deductivos:
2º Forma de razonamiento. Uno deductivo consta de dos premisas y una conclusión, definida su
relación por reglas formales que garantizan su validez. Pueden incluso tomar una forma simbólica,
vacía de contenido o información sobre el mundo.
En los informales se agrega o quita premisas, acompañadas del cumplimiento de algunos requisi-
tos de solidez y consistencia que den soporte y coherencia a la conclusión obtenida. Esta solidez y
consistencia se sigue de:
a) evaluar si las razones son aceptables o verdaderas,
b) evaluar en qué medida las razones apoyan a la conclusión,
c) analizar en qué medida se han tenido en cuenta argumentos contrarios a la conclusión.
Por tanto el contenido de este razonamiento es indisocialble de la forma y del contexto de inter-
cambio, diálogo y/o discusión en que ocurre.
3º Puntos de vista sobre un asunto. En el informal, se pueden tener varios puntos de vista siendo
incluso entre ellos incompatibles, pero todos plausibles según las evidencias y razones que lo apo-
yen. No se trata de razonamiento lineal (de premisas --> a conclusión) sino más bien de esquema
ramificado donde se incorporan nuevos argumentos.
Contrasta con el razonamiento deductivo donde una sola perspectiva se presenta de antemano en
M.Goretti González 3
las premisas. Por eso se dan limitaciones en su forma lógica, lo que hace que se resuelvan lineal-
mente.
Tabla 9.1 Diferencias entre razonamiento informal y razonamiento deductivo.
Razonamiento informal Razonamiento deductivo
Retórica Lógica
Forma del razonamiento: agregar o sustraer premisas Premisas dadas
según el conocimiento del razonador.
El argumento siempre tiene un contenido. “Vacío” de contenido o contenido formal, abstracto y
Importancia del contenido sobre el que se razona. artificial.
Requisitos de solidez y consistencia argumental. La forma del razonamiento deductivo garantiza su
validez.
Considera múltiples perspectivas sobre un mismo tema Sostiene un único punto de vista.
Es habitual encontrar numerosos argumentos para pers- Un argumento fuerte y válido hace que se desestimen,
pectivas contradictorias sobre un caso sin que esto im- no se quieran o busquen otros porque solo en el caso de
plique conclusiones inconsistentes. falacias se obtienen argumentos contradictorios.
La información es incompleta, se puede completar con La información está presente en las premisas
información del sujeto o de otras fuentes.
El contexto influye en cómo se argumenta. No influye el contexto
En el razonamiento informal la estructura suele ser El desarrollo del razonamiento deductivo se hace a
ramificada, donde cada rama tiene muchos pequeños través de pasos, como en prueba matemática
pasos.
Perkins y cols. han estudiado cómo razonamos cotidianamente, qué sesgos aparecen al razonar, la
relación con la inteligencia general y los modos de mejorar los aspectos disposicionales y habilida-
des de pensamiento cotidiano. Para este autor, el pensamiento cotidiano elabora modelos de
situación (modelos situacionales). Estas situaciones pueden ser reales o hipotéticas, pero casi
siempre se presentan abiertas, múltiples y dilemáticas. Tenemos el ejemplo del “Problema de
Perkins”:
Preguntaban si el aumento de presupuesto en la educación pública llevaría a una mejora en
el servicio. Frente a este asunto, las personas elaboraban modelos situacionales imaginan-
do uno o más escenarios empleando su conocimiento causal, intencional y de sentido
común. Las evaluaban y tomaban una o varias posiciones frente a ella.
Los escenarios construidos aparecen vinculados a argumentos, estos basados en razones y eviden-
cias, orientados a apoyar el modelo construido, favoreciendo el modelo del razonador o siendo
contrario a éstos, aportando puntos de vista diferentes. Los contra-argumentos pueden provenir
del interlocutor y del propio razonador (entra particularmente en un proceso de deliberación o
evaluación de arg.contrapuestos).
Un buen razonador podría elaborar un mapa más o menos complejo sobre el asunto sopesando
razones a favor y en contra. En el ejemplo: pueden darse razones que apoyan la idea de que más
M.Goretti González 4
dinero ayuda a mejorar la educación pública y razones que creen que ese efecto no se producirá o
que la educación se puede mejorar a través de otros programas. Es evidente que los escenarios
construidos podrían estar sesgados por el punto de vista del sujeto o incompletos si el razonador
carece de conocimientos sobre el asunto.
Para comprender los errores y sesgos Perkins aplicó un procedimiento en tres fases:
1ª Se les pedía a los sujetos que dieran su opinión espontánea sobre un tema (Si aumentar
el presupuesto de la educación pública mejoraría su calidad) Debían emitir el grado de
confianza que tenían en su opinión y grado de interés en el asunto.
2ª Recogidas las opiniones , se les instruía a poder completarlas y escribirlas.
3ª Los investigadores tenían el objetivo de apoyar explícitamente la producción de
argumentos. Daban orientaciones metacognitivas como señalar la necesidad de completar
opiniones parciales, dar razones a favor y en contra, y de hacer una evaluación imparcial de
argumentos propios y ajenos. Se completó con pruebas de inteligencia verbal para ver si
correlacionaban con el pensamiento cotidiano.
Los resultados indicaron el cómo se lleva a cabo el pensamiento cotidiano, y los sesgos que apare-
cen. Construimos casi siempre escenarios incompletos y sesgados, caracterizados sobre todo por
el sesgo del punto de vista propio, constituyéndose más como la norma que como la excepción.
Se encontró además que los participantes tenían grandes dificultades para producir argumentos
complejos y equilibrados en contextos cotidianos.
Estos sesgos pueden diferenciarse de los que ocurren en el pensamiento formal pues un escenario
construido desde un solo punto de vista estará sesgado siempre, ya que las perspectivas diferentes
resultan relevantes y necesarias para moldear adecuadamente la situación. En cambio es
irrelevante e innecesario en el razonamiento formal: las premisas contienen toda la información
necesaria para obtener la conclusión. Un argumento bien construido lógicamente con un punto de
vista constituye una demostración desde el punto de vista formal. Perkins asegura que los sesgos y
la construcción de escenarios incompletos o fragmentarios en los razonamientos cotidianos son
debilidades (no debilidades formales).
Una de las hipótesis de Perkins y su grupo, es que la dificultad para producir escenarios completos
y argumentalmente equilibrados, podría relacionarse con la motivación (escaso interés de alguno
de los temas: índole social, económico, político,...) Sin embargo, los participantes se habían
considerado medianamente interesados. Cuando se analizó la relación etre interés y desempeño
se observó que no existía correlación significativa entre una y otra variable. Otros resultados
indican que si las personas muestran un interés previo al tema, considerado este controvertido,
desarrollan un modelo situacional más elaborado. La influencia de la motivación sobre la calidad
de los razonamientos cotidianos sigue estando abierto a estudio y debate.
M.Goretti González 5
Otra hipótesis es la que señala la posible relación entre inteligencia y razonamiento cotidiano.
Perkins obtiene un resultado interesante para derivarla a la educación, clínica,... Se muestra que
aquellos sujetos que puntúan más alto en inteligencia producen más cantidad de argumentos “de
su lado” y más completos. Sin embargo no se obtienen correlaciones entre inteligencia y
producción de argumentos “del otro lado”. Por tanto, esto evidencia que los recursos cognitivos los
empleamos en buscar más argumentos que apoyen nuestras ideas que el querer explorarlas
profunda y equitativamente. Digo yo que seguiremos creyendo en la diversidad...porque mira que algunas nos
comemos el coco explorando y profundizando, je,je,je
En algunos de los trabajos de Perkins y cols. se propone reforzar las habilidades metacognitivas
(reflexión sobre el propio pensar) y los aspectos disposicionales mas generales (hábitos de pensa-
miento y disposición del sujeto a deliberar y reflexionar cuando cree que la situación lo estima).
Perkins 1991 desarrolló un estudio donde se daban indicaciones precisas a los participantes para
que generaran varias razones posibles y que atendieran a diversas perspectivas.
– Los resultados indicaron un aumento de las razones “del otro lado” con un cremiento del 150%,
por lo que se considera que si se reciben orientaciones adecuadas, se es capaz de atender a los
di- versos matices de los problemas y de modelar las situaciones de un modo más completo. En
cam- bio cuando se estudió comparativamente programas para la enseñanza del pensamiento
los resultados no fueron evidentes.
– El autor seleccionó varias modalidades de enseñanza (debates en clases de instituto, programa
para desarrollar habilidades grales de pensamiento en clase de Arte, curso en Escuela de
Educación donde se daba razonamiento exploratorio y curso de Escuela de Leyes) y a todos se
les orientaba para que atendieran a la multiplicidad de perspectivas. Solo los dos primeros
mostraron mejoras en el razonamiento cotidiano.
La clave para el éxito parece estar en que los programas promuevan habilidades metacognitivas
específicas para razonar. Un estudio pedía a los participantes que dieran todas las razones que se
les ocurriera a favor y/o en contra de un determinado problema, luego añadían comentándoles
que tenían que pensar razonees para sostener la conclusión contraria aún sin estar de acuerdo.
Como respuesta a este andamiaje metacognitivo, aumentó en un 700% los argumentos “del otro
lado” y un 109% los de “mi lado”, inhibiendo la aparición de sesgos y de argumentos incompletos.
En otro estudio se comprobó que estas habilidades podían incorporarse de modo efectivo en las
estrategias estables de los sujetos a través de “formación”. Una vez pasado por esa experiencia
formativa podían recurrir a estrategias metacognitivas sin la guía externa del experto.
M.Goretti González 6
previas y construye un modelo con el cual sintoniza. Los problemas pensados desde una
epistemología crítica se entienden como dilemáticos (múltiples perspectivas relativas,
provisionales y no absolutas). El razonador contrasta su conocimiento recurriendo a diversas fuen-
tes y experiencias cuando busca activamente las inconsistencias de su punto de vista. A la vez se
acompaña de afectos positivos hacia la objetividad y el “libre juego” de razones.
En trabajos más recientes, Perkins, ha relacionado el “pensar bien” con los aspectos disposiciona-
les del pensamiento. Propone un enfoque triádico formado por:
Los tres elementos de la tríada se articulan en el proceso de pensamiento pero pueden ser distin-
guidos analítica y empíricamente. La distinción entre agudeza intelectual e inclinación permite
comprender situaciones en las que un pensador percibe que una situación requiere pensamiento
creativo y sin embargo, renuncia a hacerlo.
Según Ritchhart 2002, los maestros que crean disposiciones en sus estudiantes son aquellos que
utilizan la cultura de la clase para favorecer el pensamiento. Éste es un hábito que se pone en prác-
tica en múltiples ocasiones. Identificó algunos elementos de estas prácticas:
– oportunidades que daban a estudiantes para elegir y autoevaluar su pensamiento,
– aliento a la autonomía,
– independencia intelectual y tiempo para pensar.
Kuhn critica a la psicología del pensamiento clásica que estudia los aspectos lógicos del razona-
miento descuidando componentes retóricos y argumentativos. Señala que muchas investigaciones
se centran en conocer qué piensan los sujetos sobre problemas sociales o económicos (v.g. Paro)
descuidando el cómo se desarrolla esa actividad de pensamiento. Ella investiga cómo realizamos el
proceso de argumentación, cómo se contempla el punto de vista propio y ajeno,... y como estas
M.Goretti González 7
habilidades se relacionan con la metacognición y creencias epistemológicas.
La autora afirma que la argumentación forma parte de un proceso discursivo basado en el diálogo.
Persigue dos objetivos:
a) detectar los argumentos dados por un oponente y usarlos a favor de la propia
argumentación, y
b) determinar la posición del oponente para descubrir vacíos o errores que puedan ser
aprovechados para contra-argumentar.
Como Perkins, 2001 considera que a los razonadores jóvenes les resulta muy difícil prestar aten-
ción a los argumentos opuestos. Se centran en los que refuerzan y apoyan la propia posición, por
tanto, los argumentadores noveles descuidan el otro aspecto de la argumentación: prestar aten-
ción a las razones del oponente y utilizar estrategias para influir en ellas.
– Resultados:
> Cambios cualitativos observados en los argumentos del pre – test y del post – test.
- de opinión formada a no formada.
- de no argumentar a hacerlo.
- de argumentos no funcionales y no justificados a argumentos funcionales.
- de los de “un solo lado” a de “ambos”.
- presentación de evidencias, y
- la introducción de aspectos metacognitivos.
Se crearon 4 categorías: 1º todos los cambios en una dirección progresiva (arg.funcionales,
justificaciones, razones y/o aspectos cognitivos), 2º todos los cambios regresivos (no se
introdujeron mejoras), 3º cambios tanto progres como regresivos, 4º no hubo cambios.
M.Goretti González 8
> Cambios cuantitativos entre el pre- test y el post-test.
Incremento o disminución de la cantidad de arg dados en el pretest y el post- test. Los grupos
experimentales mostraron más cantidad de cambios. Los producidos eran: de neutrales a
moderados y de polarizados a moderados. En gral, los sujetos creían haber cambiado mucho
más de lo que realmente lo habían hecho.
- Otra diferencia de la V edad es que los adultos además se mostraron más hábiles en el mane-
jo simultáneo de múltiples alternativas a favor y en contra; y los adolescentes muestran poca
eficacia en ello y no progresan igual que los adultos con la intervención experimental.
Diferencia basada en la demanda cognitiva que implica pensar a la vez en diferentes opciones,
se igual los resultados cuando la forma es simple y solo se dan dos razones.
Kuhn y col. 1997 encuentra que las habilidades de argumentación mejoran por el intercambio
activo y prolongado entre varios. Estos cambios muestran sin embargo, no ser acusados revelando
gran estabilidad de las opiniones entre el pre-test y el post-test. Muchos no cambian de idea y si lo
hacen, es porque suavizan sus posiciones extremas a moderadas.
Este intercambio aporta nuevos argumentos e implica a los participantes a esforzarse por articular
mejor sus argumentos. Alicia “justificaba” la pena de muerte (acto punitivo por crimen cometido).
Le preguntan los otros por esa justificación como concepto, y es ella la que define criterios ante su
respuesta, mencionándolos como nuevos elementos que amplían su respuesta.
Los argumentos simples evolucionan a complejos: María -”Si nosotros tuviéramos que apretar la
palanca de la silla eléctrica, nos lo pensaríamos dos veces”. No es un argumento en sí, pero revela
la opinión de María . En el post – test ella se reafirma: Con la pena se comete el mismo crimen que
se está castigando”. Entre ella y los interlocutores en las sucesivas discusiones, el mensaje inicial
de María se va enriqueciendo. Los adolescentes además parecían tomar conciencia metacognitiva
durante los intercambios: Teresa: -”Estoy pensando esto, pero al mismo tiempo dudo porque hay
M.Goretti González 9
varias razones por las cuales también estoy en contra”.
La metacognición implica una reflexión acerca de la propia actividad de pensar y de conocer (Vg. se
justifican los cambios de perspectiva o deliberaciones sobre algún aspecto). La actividad metacog-
nitiva se relaciona con las creencias epistemológicas. Éstas creencias se refieren a las que sostie-
nen lo que es el conocimiento y cómo se construye. Si una persona cree que el conocimiento es
absoluto, el juego argumental y el pensamiento crítico es innecesario. En cambio si cree que la
realidad no es directamente conocible tendrá una concepción evaluativa del conocimiento. Las
creencias epistemológicas están sometidas a un proceso de desarrollo de simple – absolutista – a
complejo – evaluativo. Proceso este que se relaciona con el desarrollo cognitivo y con el área de
conocimiento sobre el que se reflexiona. (Parece más sencillo llegar a creencias evaluativas sobre
el conocimiento del mundo social que del mundo físico)
Kuhn entiende el “pensar” como el desarrollo de contextos retóricos y argumentativos que exigen
la consideración conjunta de varios puntos de vista, propios y del otro. Expone que lo que
diferencia a los buenos pensadores de los no tan buenos, es la habilidad para percibir la
importancia de considerar el punto de vista del oponente.
2. PENSAMIENTO EN LA PRÁCTICA
La psicología cultural entiende también que el pensamiento se apoya en y es producto del uso que
las personas hacen de las herramientas culturales materiales y simbólicas (lápices, ordenadores,...)
presentes en los contextos de práctica e interacción. La relación entre los procesos cognitivos y las
herramientas culturales tiene una dimensión histórica o temporal. A lo largo de la historia surgen
diferentes herramientas que permitieron la explicitación y los diferentes modos de pensar. Un
caso, según Gabucio (2008) es el origen de la deducción. Fueron los matemáticos griegos quienes
desarrollaron en el siglo V a.C un tipo de notación (diagramas) y de lenguajes matemáticos, al
tiempo que realizaban prácticas muy específicas, como el pensamiento en voz alta. Esta combina-
ción de recursos simbólicos con procedimientos especializados dio lugar a la aparición de prácticas
cognitivas singulares.
M.Goretti González 10
miento.
Gabucio 2008 apuntaba que los seres humanos hemos aprendido a deducir gracias a los modelos
normativos, siendo estos herramientas culturales que participan en la regulación del pensamiento,
pero sin representar un ideal adecuado para todas las situaciones y contextos.
Lev Vygostki y Alexander Luria inauguraron una novedosa forma de entender y estudiar la activi-
dad psicológica. Inspirados en la filosofía materialista marxista entendieron que toda actividad
psicológica se realiza con la mediación de los productos de la cultura: lenguaje, escritura, sistemas
notacionales. Propusieron el estudio de los diversos planos de la génesis funcional psicológica:
filogénesis, historiogénesis, ontogénesis y microgénesis.
Interesados por estudiarlo realizaron en Uzbekistán “laboratorio natural” para comprobar las
hipótesis socio-culturales. Se trataba de comunidades rurales con economía de subsistencia
gralmente analfabetas y con formas de organización social prácticamente feudales que habían sido
incluidas en programas de formación, alfabetización y de colectivización de la tierra y de los modos
de producción de la revolución soviética. El estudio fue muy amplio pues incluyó los procesos de
percepción, abstracción y generalización, deducción y conclusión, razonamiento y resolución de
problemas, imaginación y finalmente, autoanálisis y autoconciencia.
Pusieron a prueba una serie de hipótesis: entre ellas una por la cual vinculaban estas variaciones
con formas diferenciales de generalización y abstracción, base para los procesos de formación de
conceptos. Se estudió tres grupos:
a) sujetos analfabetos que conservaban sus modos tradicionales de organización económica y
social,
b) sujetos con escaso nivel de instrucción y que comenzaban a participar en experiencias de
colectivización económica, y
c) sujetos con una mayor escolarización y alfabetización que participaban en experiencias
económicas colectivas.
Se ofrecía a los participantes una representación de cuatro objetos: 3 de la misma categoría.
Tenían que decir qué objetos eran “parecidos”; “se pueden juntar en grupo”; “nombrar con una
palabra en común” y cuál “no sirve”; “no puede ser nombrado con palabra igual a los otros”.
Los objetos escogidos podían formar parte de una categoría o formar parte de una situación
M.Goretti González 11
práctica: martillo, sierra, leño, hacha habría dos posibilidades de clasificación (herramientas, o
bien por la asimilación a una situación práctica de “cosas para cortar y serrar la leña”).
El primer resultado que observaron es que en muchas ocasiones las instrucciones que daban a
reunir los objetos análogos eran entendidas y usadas por los sujetos como reunir los objetos
adecuados para una finalidad concreta. Cambiaron teórica por práctica.
La tarea de agrupar objetos según un mismo indicio era realizada muy frecuentemente como una
operación de asociación de los objetos partiendo de su introducción en una determinada situación
práctica. El martillo no era portadora de características abstractas que pudieran servir de base para
la agrupación. Cuando esto se contraargumentaba e indicaba que el” leño” debía ir aparte porque
no estaba hecho del mismo material que el martillo, sierra o hacha, o que éstas eran herramientas
y leño no, los sujetos contestaban que ésos no eran aspectos esenciales y que quien lo pensara no
comprendía nada.
Los investigadores encontraron que los analfabetos operaban reproduciendo la situación práctica.
Los sujetos que tenían poca escolaridad realizaban la tarea utilizando ambas tendencias de genera-
lización: práctica y teórica, (partían de situaciones inducidas por el experimentador a situaciones
imaginarias). Y finalmente, para los que habían terminado algún curso escolar, la clasificación
según una categoría teórica fue accesible y predominante.
Entonces, los resultados evidencian que en el primer grupo, el principio práctico predomina de
forma absoluta entre los sujetos que viven en zonas alejadas de los centros urbanos, son
analfabetos y conservan formas feudales de organización social y económica. En el segundo grupo,
(algún curso de escolarización y participaban en trabajo social en economías colectivas) se daba un
cierto escalón de transición, donde actúa el principio de clasificación categorial junto con el situa-
cional. En el tercer grupo, los sujetos identifican el criterio que les permite organizar los concep-
tos de la serie bajo etiqueta más general. Esos criterios pueden ser funcionales o cualquier otro
que indique semejanza, y se derivan de las exigencias de organización de la alfabetización y las
formas colectivas del trabajo.
La explicación de los autores es que el pensamiento no ha cambiado desde dentro sino que se
transforma en la medida en que cambian también las formas de producción que imponen nuevas
formas de organización social. Las organizaciones taxonómicas son relevantes en el contexto
escolar, donde prima el saber abstracto y descontextualizado. El pensamiento va cambiando junto
con y en relación mutua con el contexto.
2.2. El estudio del pensamiento en la práctica desde la psicología cultural. Algunas precisiones
metodológicas.
A partir de los estudios anteriores se abrió campo de estudio del pensamiento en tareas cotidianas
con gran interés por caracterizar y describir los contextos en los que estas actividades se
desarrollan y los procesos psicológicos intervinientes. La mayoría de estas investigaciones han
recurrido a métodos como la observación sistemática de situaciones cotidianas, la observación
participante, la recogida de datos a través de entrevistas en profundidad, caracterización de
entornos de actividad,... con el fin de investigar de forma ecológicamente válidas.
Para Bronfenbrener las investigaciones psicológicas ecológicamente válidas deben atender al
M.Goretti González 12
menos a tres aspectos:
– mantener la integridad de las situaciones reales,
– deben ser fieles a los contextos culturales y sociales más amplios de los que provienen los
sujetos,
– deben mantener cierta consistencia entre la definición de la situación hecha por los participan-
tes y la realizada por los investigadores, así como con los resultados y las manipulaciones ex-
perimentales: correspondencia entre el punto de vista de los sujetos y las definiciones
conceptuales implícitas y explícitas de los investigadores.
Para la psicología cultural una investig psicológica no puede hacer inferencias sobre actividaddes
cognitivas cotidianas basándose en la utilización de situaciones experimentales escasamente signi-
ficativas para las personas y poco vinculadas con los contextos. Muchas de las investigaciones
siguientes responden a metodología que incluye estudios de campo, experimentales y cuasi-expe-
rimentales y estudios experimentales con tareas cognitivas estándares.
Sylvia Scribner destaca que el marco de práctica de la cognición más relevante en la vida adulta es
el trabajo (niños-escolar). Ella ha elegido los ambientes laborales para estudiar el pensamiento y la
memoria en prácticas rutinarias, y explica que su enfoque busca “descubrir las propiedades funcio-
nales del pensamiento en acción observando los fenómenos reales en condiciones naturales.
Observar las prácticas de la cognición que se llevan a cabo en el trabajo, es entender que cada
puesto representa una práctica y que las tareas específicas son acciones orientadas a objetivos, y
todo ello enmarcado en un sistema de producción que le da formas y límites específicos.
1º Los pre-cargadores recibían pedidos en impresos u órdenes de salida. Tarea sencilla pero debía
realizarse con prisa y precisión. Requería una manipulación de información simbólica por la dis-
crepancia existente entre las unidades de medida en que se expresaban los pedidos (cuarto litro,
medio litro, litro,...) y las unidades manejadas dentro de la fábrica: 4 litros, 8 medios o 16 cuartos
de litro. La conversión se hacía automáticamente pero como resultado el precargador recibía
órdenes en las que debía preparar una caja más tantas unidades o bien una caja menos algunas.
Parecía interesante estudiar las estrategias que aplicaban frente a estas órdenes mixtas. Los inves-
tigadores observaron atentamente las órdenes, la disposición de la mercancía cuando iniciaba el
trabajo, la organización de las cajas durante la preparación y por último, los pedidos ya preparados.
Mostraban variedad de estrategias para el mismo pedido: soluciones literales o bien,
interpretaban la orden según la disponibilidad de la mercancía (claves contextuales dadas por la
M.Goretti González 13
presencia de cajas medio llenas o vaciar). Estas estrategias que implicaban transformaciones sobre
la información contenida en la orden se denominaba estrategias no literales.
Los investigadores postularon que la transformación de los datos del pedido con cierto esfuerzo
mental se relacionaba con el ahorro de esfuerzo físico, medido por las unidades de producto que
debían trasladar. Estrategias óptimas eran las que suponían una transformación de los datos para
menor esfuerzo físico. Los precargadores utilizaron 30 veces estrategias literales, de las cuales 25
eran estrategias óptimas y utilizaron 23 veces no literales, todas éstas óptimas.
Luego se pasó a la fase experimental, donde se compararon las estrategias aplicadas a cien proble-
mas que simulaban a los de la fábrica, por parte de los precargadores expertos y los grupos
novatos. Se recreó ambiente material y se incluyeron las órdenes de pedido, cajas llenas, vacías y
parciales. Como resultados:
– 1º Los precargadores eligieron estrategias no literales óptimas el 70% de las veces.
– 2º El factor experiencia en el trabajo de la fábrica distinguió desempeño de los trabajadores de
la planta frente a los novatos unos y otros. Los conductores y otros de la planta no quedaron
muy atrás de los precargadores. Los oficinistas ajenos a la fábrica usaron estrategias no literales
óptimas sólo en la mitad de los problemas. Los estudiantes aplicaron soluciones literales, lo
que les llevó a hacer un gran esfuerzo físico, y en estos dos últimos se empleo más técnicas de
conteo
– 3º Los precargadores apenas contaban y aplicaban en su conjunto estrategias más holísticas
con un gran peso de la configuración perceptiva. Esa facilitación de la preparación se observaba
en la fase de pre-movimiento, cuando tenían que decidir cómo hacer el pedido basándose en
las cajas que tenían y con ello, qué estrategia iban a usar. El tiempo invertido en tomar
decisiones fue menor entre los precargadores que entre los novatos, pues los primeros se apo-
yaban en la información perceptiva y los segundo contaban y usaban técnicas enumerativas
más lentas.
Scribner y cols. estudiaron a los conductores que transportaban y ponían el precio a los pedidos
que servían. Debían cumplir con su trabajo en jornadas que comenzaban temprano y hacerlo con
cierta eficacia para no dejar ningún pedido sin entregar. Además eran responsables de cobrar la
mercancía. Poner los precios a los recibos de entrega era un trabajo simbólico y abstracto. Calcula-
ban precio por la cantidad de cada producto a entregar y del total de la entrega. Aún así, la planta
les daba una lista de precios expresada en unidades por lo que el cálculo resultaba directo y senci-
llo.
Los conductores habían inventado algunas formas más sencillas para realizar las cuentas basándo-
se en la caja como unidad. 4L = 8 ½ L = 16 ¼ L La caja de leche se convertía en medidor simbólico,
y se usaba a modo similar a como lo hacían los precargadores. Estos usaban las cajas como un
mediador perceptivo que facilitaba las sumas y las restas en la preparación de los pedidos y los
conductores como mediador simbólico. Por ejemplo, el sr.B había entregado 32 cuartos de leche
con chocolate y en vez de multiplicar el precio por cantidad, usaba la “chuleta” donde tenía precio
de caja. Scribner 2002, comentaba sobre un veterano que usaba hasta 25 estrategias de cálculo
diferentes por cajas y unidades para resolver los problemas de cálculo.
M.Goretti González 14
conductores tenían los precios por caja. Cuando se llevó a cabo la tarea en laboratorio se observó
que los conductores usaban tanto la estrategia del precio de caja como la del precio unitario. Los
estudiantes se aferraban a lo del precio literal por unidad y cuando adoptaban la estrategia por
caja la usaban en todos los casos suponiendo un gran esfuerzo de cálculo.
Los estudios cognitivos del trabajo comienzan a perfilarse y sus conclusiones son parciales . Aún así
es importante estudiarlos en estos contextos, pues contribuyen a la configuración de formas de
pensamiento flexibles y creativas.
Carraher, Carraher y Schliemann 1991 estudiaron cómo los niños brasileños que vendían cocos, y
otras frutas de forma ambulante, utilizaban las matemáticas en la calle y en la escuela. Entrevista-
ron y observaron a niños de entre 9 y 15 años que asistían irregularmente a la escuela, mientras
vendían mercancías. Dividieron el estudio en 2 etapas:
– 1ª etapa, se dirigían a los niños mientras vendían y actuaban, haciéndoles preguntas sobre las
transacciones comerciales mientras estas ocurrían real o simuladas. Recuerda el método al
clínico-crítico piagetiano en el cual el examinador plantea una situación, explora las respuestas
infantiles espontáneas, pide justificación de las mismas y ocasionalmente cotraargumenta:
examen informal.
El cliente -entrevistador pidió 10 cocos y la cuenta. Lo calculó “Tres son 105, más tres son 210
(pausa) faltan cuatro. Es ... (pausa) 315... parece que es 350”. Este cálculo puede representarse
de varias maneras, donde 35 x 10 es el más habitual desde el punto de vista escolar. Se había
resuelto mediante subproblemas, demostrando así su competencia para utilizar otro proceder
diferente al escolar.
– En examen formal se ofrecieron problemas en forma de operaciones aritméticas y se
presentaron problemas de tipo escolar: María compró x plátanos, cada plátano costaba tantos
cruzeiros ¿cuánto dinero gastó? Se respondieron 63 preguntas de matemáticas en ex.informal y
99 en el formal.
M.Goretti González 15
Los resultados indicaron una influencia decisiva del contexto en la solución de problemas
matemáticos. Los niños y adolescentes respondieron correctamente al 98,2% de los cálculos y
problemas informales, mientras que sólo lo hicieron el 36,8% de los cálculos y el 73,7% de los pro-
blemas formales. A los niños vendedores les resultaba más fácil resolver problemas escolares que
aislados formados por una secuencia de pasos arbitrarios de contenido simbólico. Estos algoritmos
que se enseñaban en la escuela podían presentar obstáculos en el razonamiento.
Existen múltiples procedimientos para resolver correctamente los problemas planteados, aunque
éstos no coincidan con los enseñados en la escuela. Se destacó la descomposición del problema,
por al cual el sujeto juntaba las respuestas de subproblemas más sencillos y componiendo la solu-
ción. Lo interesante es que esos chunking de resultados se basaban en formas culturales
previamente establecidas como podía ser el vender tres cocos a un precio determinado.
Los autores concluyeron que los usos de las matemáticas en la calle y en la escuela no eran los
mismos. Las diferencias se notaban en los objetivos de las tareas, en las herramientas utilizadas y
en las restricciones mostradas. En la calle los objetivos eran hacer cálculo correcto para no per-
der dinero. En la escuela se les pedía que utilizaran símbolos y procedimientos que debían aplicar-
se a problemas escolares carentes de significado vital. En cuanto a las herramientas culturales y
cognitivas , en la venta callejera se utilizaba la oralidad y cálculos mentales en lugar de escritura de
representación matemática (ambientes formales). Las restricciones de la venta callejera estaban
presentes en el uso del dinero “de verdad, en el cuidado de la tarea y velocidad, en la invención y
el uso de procedimientos; en la escuela restringidas por el uso de símbolos, cumplimiento de pr
estandarizados, cultuura escolar,...
Se muestra enorme interrelación que existe entre la cognición, texto social, cultural, económico,...
Los autores ponen de manifiesto la funcionalidad que adoptan estos procesos diferencialmente
implantados en contextos formales o informales.
Saxe se interesó por el estudio del pensamiento matemático en contexto. Él asume que los cam-
bios cognitivos se producen en el interjuego de la actividad individual y colectiva. Los cambios
cognitivos se dan en las actuaciones concretas de un individuo, quien utiliza unas herramientas
culturales que están presentes históricamente en su cultura y medio material. Estas herramientas
forman parte de actividades regladas por la actuación del grupo (uso del dinero) lo que supone un
marco que las restringe pero que puede ser rebasado en la actuación concreta de un sujeto y/o
grupo cultural, por meido de la innovación y cambio de los usos canónicos.
Saxe estudia la génesis y los procesos de cambio que se dan en prácticas matemáticas entendidas,
al mismo tiempo, como individuales y sociales. El autor estudió la actividad realizada por los niños
y adolescentes de entre 10 y 12 años que vendían dulces en las calles. Quiere la comprensión
matemática surgida a lo largo de todo el circuito de compra-venta de dulces. Buscaba en primer
lugar caracterizar las prácticas de la venta ambulante y las operaciones requeridas para ello; y
comparar las matemáticas utilizadas por los no vendedores urbanos y rurales.
M.Goretti González 16
– Fase de compra: el niño adquiría los dulces al mayor enn cajas de 30 a 100 unidades.
– Fase de preparación para vender: el vendedor modificaba el precio pagado al mayor y
transformaba en precio de venta.
– Fase de venta: el vendedor vendía sus bienes a los consumidores.
– Fase de preparación para la compra: volver a proveerse de mercancías eligiendo la tienda al
mayor que ofreciera mejor precio.
Según el autor, este ciclo muestra diferentes objetivos matemáticos que se inscriben en una
variedad de procesos (macrosociales, manejo de inflación, microsociales,...) Cuando se realizó el
estudio la inflación en Brasil era del 25% y los vendedores no tenían estabilidad en el precio de
compra al mayor, por tanto estaban obligados a manejar valores numéricos inflados, de muchas
cifras y con billetes que continuamente perdían valor y cambiaban de denominación.
Los procesos sociales (microsociales) sse referían a los modos en que los vendedores desarrollaban
convenciones que facilitaban su tarea (ofrecer cierta cantidad de unidades a un precio establecido)
Esto reducía la complejidad de la venta pero obligaba a comparar proporciones en dulces y ganan-
cias. Los de más edad ofrecían sus dulces en más de una proporción: 2 chocolates por 500 y 5 por
1000.
La primera conclusión a la que llega Saxe 2002 es que las operaciones matemáticas requeridas en
la venta callejera de dulces son la representación de valores numéricos grandes, el cálculo
aritmético con esos valores y la comparación de proporciones.
Saxe entrevistó a niños que apenas tenían instrucción escolar y que formaban trees grupos:
vendedores de 10 a 12 años, niños no vendedores con la misma edad y comunidad, y niños no
vendedores de comunidad rural. Se les presentó problemas de representación de números,
aritméticos y de comparación de proporciones. Solo los vendedores se topaban a diario con bille-
tes de varios valores y con problemas de proporciones, por lo que se esperaba encontrar
diferencias entre estos grupos en la matemática que majenaban.
Todos los niños entrevistados mostraron un conocimiento numérico correcto siempre y cuando pu-
M.Goretti González 17
dieran apoyarse en aspectos figurativos y númericos de los billetes, pero no leyeron correctamente
las cifras cuando se presentaban simplemente escritas. Sí fueron capaces de reconocer monedas y
billetes de menor y mayor valor estableciendo relaciones ordinales y cardinales entre ellos.
Los niños vendedores realizaron mejor tareas aritméticas sencillas como sumar un fajo de 12 bille-
tes a 8600 cruzeiros o restar una cantidad menor a otra mayor. La estrategia utilizada era reorgani-
zar los billetes.
Los problemas de proporciones eran poco habituales en la matemática cotidiana de los niños
rurales, bastante habitual en los urbanos no vendedores y muy habituales en los niños vendedo-
res. Tenían que determinar en cuál de dos proporciones obtendrían más ganancias y debían justifi-
car sus respuestas.
Los vendedores calcularon y justificaron mejor, típicamente calculaban un término común que les
permitía establecer una comparación y así calcular correctamente la proporción y la ganancia.
La actividad cognitiva de resolver problemas está guiada por unos objetivos concretos, vinculados
a cada una de las fases de compra-venta. Esa actividad, aparece dentro de una práctica social
concreta como es la venta callejera, reglada previamente por la vida social, la cultura, la econo-
mía,...
Saxe realizó estudio en la comunidad de Oksapmin investigando los usos de sistemas notacionales
Matemáticos y el cálculo en
dos períodos, uno de ellos
comprendido entre 1978-80 y
el otro en 2001.
exclusivamente un sistema para contar basado en 27 partes del cuerpo cada una ccon una dife-
rente denominación y gestos para referirse a ella. Una de las dificultades es que la parte corporal
que representa al 21 recibe el mismo nombre que la 29, lo cual el contexto de uso y gesto que se
utilice son fundamentales para comprenderlo. Este sistema se conservó sin cambios hasta media-
dos de los 60 cuando las comunidades comenzaron a tener más intercambios económicos con
otras comunidades. Otro elemento fue la creciente escolarización. En el 2001 los niños y jóvenes
estaban casi todos escolarizaods mientras que los adultos habían recibido unos pocos cursos. En la
M.Goretti González 18
década de los 60 se introducía el dinero en las comunidades repercutiendo en la forma en que los
Oksapmin cuentan y usan actualmente el dinero. (Usan números Pidgin). En los 80, Saxe documen-
tó cómo el sistema de conteo Oksapmin, basado en el cuerpo, era utilizado en transacciones
comerciales en las primeras tiendas abiertas en la comunidad y enla resolución de problemas
matemáticos. Los cambios con los que debían lidiar los Oksapmin eran:
– paso del uso de una numeración tradicional del cuerpo a la numeración Pidgin, similar a la del
inglés (uno,dos,tres,...)
– uso de la moneda kina, que relacionaban con la antigua libra y los chelines.
En ese escenario de diferentes instrumentos culturales y de formas de práctica provocadas por los
cambios económicos y culturales, Saxe y Esmonde 2004 realizaron dos estudios encaminados a
caracterizar el uso de sistemas de conteo y del dinero, que hacían un grupo de personas Oksapmin
de diferentes edades y niveles de escolarización cuando realizaban compras pequeñas.
Los resultados obtenidos en el primer estudio fueron un uso exclusivo del sistema tradicional en
los ancianos y un uso variado de sistemas de conteo en los otros grupos (oksapmin,pidgin y mixto).
El segundo estudio buscaba indagar aún más en algunos aspectos de las transacciones comerciales
para ver su práctica diferencial por parte de los diferentes grupos estudiados. Seleccionados
algunos casos de venta en cada una de las tiendas, se entrevistó al vendedor pocas horas después
de haber realizado la transacción, hablándose de 4 situaciones que variaban en dos condiciones:
compradores ancianos o adultos mayores y si tenían o no el cambio exacto para pagar 2x2. En
ambas condiciones contaba el comprador con 5 kinas o bien en billetes y monedas o un solo billete
de 5 kina.
Los vendedores decían que los ancianos solían comprar producto a producto mientras que los
adultos mayores compraban los dos o más que necesitaban de una sola vez. Tanto si tenían el
cambio justo como si tenían que recibir cambio.
Los vendedores calculaban el precio y el cambio de forma conjunta con los adultos. Al recibir el
cambio lo solían contar y antes de comprar establecían lo que iban a pagar por su compra. En los
ancianos compraban de forma secuencial. Cuando no tenían el dinero exacto y necesitaban dos
cosas aplicaban dos estrategias: compraban uno, pagaban y con el cambio compraban el otro; o
preguntaban cuánto recibirían por el cambio en la compra del primer producto y entonces sabían
si podían comprar más o no (¡pues esto me suena a mí de hacerlo pequeña para saber cuántas chuches me podía
comprar...je,je,je!)
Saxe y Esmonde 2004, afirman que los vendedores se han convertido en verdaderos
administrado- res o agentes que facilitan y median en las prácticas de compra. Anticipan y
simplifican las compras sobre todo de las de los ancianos. En los intercambios en las tiendas,
ambos, empleados vendedores y compradores, hacen uso de diferentes sistemas notacionales de
artefactos físicos y diferentes lenguajes de representación como recursos para llevar adelante las
transacciones (se da laboratorio natural). Estos estudios muestran que el pensamiento en la
práctica está situado en un escenario cultural y social, lleno de restricciones y de posibilidades. La
actividad concreta de pensar se realiza junto con otros y está profundamente interrelacionada con
las herramientas culturales, prácticas sociales, reglas, sistemas notacionales,...
M.Goretti González 19