Está en la página 1de 154

PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013

TEMA 2 – INDUCCIÓN DEL RAZONAMIENTO

1. INTRODUCCIÓN

El razonamiento es uno de los procesos cognitivos básicos por medio del cual utilizamos y
aplicamos el conocimiento. Si no hiciéramos inferencias tendríamos que depender de un
conocimiento específico y puntual para cada una de las situaciones a las que hiciéramos frente.
Por ejemplo: un compañero nos dice que su hijo de 8 años es más alto que su sobrino de nueve,
pero más bajo que su hija de siete. De ello podemos inferir:
– su hijo e hija son más altos que su sobrino,
– su hija de 7 años es la más alta de los tres, (inferencia deductiva) Puede ser válido o no.
– su sobrino de nueve años es el más bajo de los tres,
– su sobrino es el mayor en edad,
– sus hijos y su sobrino son primos,
– su sobrino es muy bajito, (ejemplo de inferencia inductiva) Es probable o no.
– sus hijos son muy altos.

Podemos decir que el razonamiento permite “pasar de una información a otra”, dado que a partir
del conocimiento de uno o más resultados que se encuentren relacionados podemos derivar o
alcanzar una conclusión. Siguiendo con el ejemplo podemos ver cómo de unos enunciados se
deriva a la conclusión y como en otros casos se ha ido más allá de lo expresado en los enunciados.

Las investigaciones psicológicas sobre el proceso de razonamiento han diseñado sus tareas
experimentales de acuerdo con la formalización y el concepto de validez del análisis lógico. Los
enunciados a partir de los cuales razonamos son las premisas y el enunciado que se deriva de los
otros se denomina conclusión, formando el conjunto de éstos lo que denominamos argumentos.
Tenemos que tener claro que las conclusiones se siguen necesariamente de las premisas mientras
que en uno inductivo las premisas sugieren o apoyan la conclusión.

2. LÓGICA Y RAZONAMIENTO.

El razonamiento deductivo se ha descrito como un procedimiento dirigido “hacia abajo” en el sen-


tido de que a partir de lo general se llega a lo particular y el razonamiento inductivo como porcesa-
miento “hacia arriba” en el que se llega a lo gral a partir de lo particular. Esta metáfora direccional
en la que el razonamiento asciende o desciende por una especie de “escalera teórica” ha sido
empleada por Platón, Aristóteles y en múltiples tratados de lógica (Tiles, 1987)

Skyrms 1986, indica que uno de los erroes más extendidos es la diferenciación entre deducción e
inducción como aquellos argumentos que proceden de lo general a lo específico para el caso de la
deducción y de lo específico a lo general para el caso de la inducción. La diferencia no se determina
por la generalidad o particularidad de sus premisas y conclusiones sino por las definiciones de
validez deductiva y de fuerza inductiva. Un argumento es válido sólo sii es imposible que su
conclusión sea falsa mientras que sus premisas son verdaderas y que un argumento inductivo es
fuerte sólo si es improbable que su conclusión sea falsa cuando sus premisas son verdaderas. En el

M.Goretti González 1
razonamiento deductivo la verdad de las premisas garantiza la verdad de las conclusiones,
mientras que en el razonamiento inductivo las conclusiones son más o menos problables
dependiendo del grado en que se encuentren apoyadas por las premisas.

2.1. El razonamiento deductivo

El estudio de la deducción se centra en el análisis de los principios del razonamiento que son inde-
pendientes del contenido sobre el que se razona y que permiten alcanzar un razonamiento
formalmente válido. Desde sus inicios en la filosofía griega, la lógica perseguía la identificación de
unas leyes de razonamiento que fueran universales y por ello se centro en el análisis de la forma y
la estructura de los argumentos. Desde Aristóteles, la deducción era el estudio de las conexiones
entre proposiciones. Las proposiciones son enunciados en los que se afirma o niega algo y en los
que se establece una relación entre sujeto y predicado. El análisis de la deducción se centraba en
el establecimiento de conexiones encadenadas de un silogismo o grupo de silogismos por medio
de la copola “es” El argumento establece una nueva conexión entre las proposiciones a través de
un término medio que las relaciona:“Todos los A son B, Todos los B son C, luego Todos los A son C”
B es el término medio que ha permitido la conexión.

Frege a finales de siglo diecinueve, considera que las proposiciones pueden tratarse como
funciones matemáticas, desarrollando un marco de análisis más potente y flexible que la silogística
aristotélica. Es a principios del siglo veinte, cuando Whitehead y Russell , desarrollan el cálculo de
predicados y amplían el análisis de las proposiciones a otras formas relacionales que no eran la
copola “es”. Esta lógica matemática emplea símbolos por analogía con las matemáticas, logrando
así el cálculo con notación simbólica y posibilitando la operación sin la contaminación de los conte-
nidos. La deducción se entiende como el proceso mediante el cual unos enunciados se derivan de
otros de un modo puramente formal y esta derivación se realiza por la aplicación de las reglas de
deducción.

Las proposiciones se representan por letras (p,q,r,s) y los operadores (enlace) por unos simbolos
que determinan la forma de una proposición lógica. La representación simbólica de las proposicio-
nes son variables y la representación de los operadores son constantes y se corresponden con los
términos “y”, “o”, “no”, “sí,... entonces” y “si... y solo si”.
Tabla 2.1. Los términos de enlace u operadores conectan entre
Notación simbólica del cálculo proposicional dos proposiciones excepto en el témino “no” que
Tipo de Proposiciones Operador lógico actúaa sobre una. Si se han de utilizar más de un ope-
- Conjunción (y) Λ rador lógico se utilizan paréntesis para indicar el ope-
rador que domina.
- Disyunción (o) v
Algunos ejemplos:
- Negación (no) ¬ 1) “Si estoy enferma entonces estoy en la cama y veo
- Condicional (si... entonces) → la televisión”. P → (q Λ r)
2) “Si estoy enferma entonces estoy en la cama y a la
- Bi condicional (si y solo si) ↔
vez veo la televisión”. ( P →q ) Λ r
De no haber paréntesis, el operador menos fuerte es la negación, seguido de disyunción y
conjunción con la misma potencia, y por último el condicional que es el más fuerte.

→ > fuerte > cnj = disyunc > negación

M.Goretti González 2
Tabla 2.2. Reglas de Inferencia (Suppes y Hill, 1968)
1. Regla de SIMPLIFICACIÓN (S) pΛq pΛq Si las premisas son ciertas, entonces se
puede concluir “p” y se puede concluir “q”
p q
2. Regla de ADJUNCIÓN (A) p p Si ambas premisas son ciertas se pueden
q q juntar en la conclusión y el orden es
pΛq qΛp indiferente.
3. DOBLE NEGACIÓN (DN) P ¬¬ p (no no p) Doble negación:
Manuel sabe esquiar permite pasar de una premisa única a la
luego, no ocurre que Manuel no sabe esquiar ¬¬p p conclusión con la doble negación.
4. LEY DE LA ADICIÓN (LA) Aclarar que el significado de la disyunción
P q en lógica es incluyente en el sentido de que
por lo menos un miembro de la disyunción
pvq p v q es cierto y pueden serlo ambos.
Si una premisa es cierta, entonces la
disyunción de esta y otra cualquiera
también lo es.
5. LEYES CONMUTATIVAS pΛq p v q El orden de las premisas en una conjunción
y en una disyunción no altera su signifi-
qΛp q v p cado.
6. MODUS PONENDO PONENS (PP)
p→q En el condicional la proposición (p) se denomina antecedente y la (q)
p consecuente. Si hay dos premisas unidas por el condicional y se
q verifica el antecedente, entonces se puede concluir el consecuente.
7. MODUS TOLLENDO TOLLENS (TT) p→q Si hay dos premisas unidas por el
¬q condicional y se niega el consecuente,
entonces se puede concluir con la negación
¬p del antecedente.
8. MODUS TOLLENDO PONENS (TP) pvq pvq Si hay dos premisas unidas por la
¬q ¬p disyunción y se niega una de ellas,
p q entonces se puede concluir la otra premisa
9. LEY DEL SILOGISMO HIPOTÉTICO (SH) Si hay dos premisas condicionales y el antecedente de la segunda
p→q coincide con el consecuente de la primera, entonces se puede concluir
q→r con otra proposición condicional cuyo antecedente coincide con el de
p→r la primera y el consecuente con el consecuente de la segunda.
10. LEY DEL SILOGISMO DISYUNTIVO Si hay una premisa disyuntiva y 2 premisas condicionales cuyos
(SD) p vq pv q antecedentes coincidan con los miembros de la disyunción, entonces
p→r p→s se puede concluir con una disyunción cuyos miembros son los dos
q→s q→r consecuentes de las premisas condicionales.
r v s s v r
11. LEY DE LAS PROPOSICIONES Ley que ilustra como se pueden deducir dos proposiciones
BICONDICIONALES (LB) condicionales de una proposición bicondicional. Si hay una premisa
bicondicional, entonces se puede concluir que el antecedente implica
p↔q p↔q p→q el consecuente y que el consecuente implica el antecedente o la
q→p p↔q conjunción de ambos condicionales. Concluir bicondicional a partir de
p → q q → p p ↔q (p → q) Λ(q →p) una premisa en la que el antecedente implica el consecuente y otra
premisa en la que el consecuente implica al antecedente.
12. Regla de PREMISAS Una premisa se puede introducir en cualquier punto de la deducción

M.Goretti González 3
A continuación, dos ejemplos sencillos en el procedimiento de una deducción formal:
“Si sales a jugar, te pones las zapatillas de deporte. Si llevas las zapatillas de deporte, te pones el
chandal. Luego, si sales a jugar te pones el chándal”.

– La premisa primera “Si sales a jugar, entonces te pones las zapatillas de deporte” se simboliza
como A →B
– La segunda premisa “Si llevas las zapatillas de deporte, entonces te pones el chándal” se
simboliza como B→C
– La conclusión “Si sales a jugar te pones el chandal” se simboliza como A → C
– La deducción sería la siguiente:
(1) A →B P (1er paso Premisa)
(2) B→ C P (2º paso Premisa)
(3) A→ C SH 1,2 (3er paso silogismo hipotético) p → q
q→r
p →r

Segundo ejemplo:
“Si eres socio de un club de fútbol, no tienes que comprar las entradas para los partidos.
W → ¬O
Manuel va al partido del domingo y es socio del club de fútbol.
G Λ W
En consecuencia, no tiene que comprar la entrada”
¬O
– La primera premisa “Si eres socio de un club de fútbol, entonces no tienes que comprar las entradas
para los partidos” se simboliza como W → ¬O
– La segunda premisa “Manuel va al partido del domingo y es socio del club de fútbol” se simboliza como
G Λ W
– La conclusión “no tiene que comprar la entrada” se simboliza como ¬ O
– La deducción sería:
(1) W → ¬O P Los dos primeros pasos son las premisas y en el tercero se deduce W por
(2) G Λ W P la regla de simplificación en el paso 2.
(3) W S 2 (simplificación)
(4) ¬ O PP 1,3 El 4º paso, la conclusión, se deducee aplicando el modus
ponens a los pasos 1 y 3.

Se puede saber si un razonamiento deductivo es válido cuando a partir de premisas que son verdaderas se
sigue una conclusión verdadera por la aplicación de las reglas de inferencia anteriormente indicadas, pero
este conjunto de reglas no agota el nº de inferencias válidas. Para tratar cada caso de inferencia proposicio-
nal existe un método general (Tablas de verdad, Método semántico o de Teorías de modelos)

Tabla 2.3. Tablas de Verdad para los Operadores Lógicos


NEGACIÓN CONJUNCIÓN DISYUNCIÓN CONDICIONAL ** BICONDICIONAL
p ¬ p p q p Λ q p q p v q p q p → q p q p ↔ q
V F V V V V V V V V V V V V
F V V F F V F V V F F V F F
F V F F V V F V V F V F
F F F F F F F F V F F V

M.Goretti González 4
Se establecen todas las combinaciones posibles de los valores de verdad de las proposiciones, tanto
premisas como conclusiones y se busca alguna combinación en la que las premisas sean verdaderas y la
conclusión falsa. Si no la hay, el razonamiento válido se encontraría en la línea en la que las premisas y la
conclusión sean todas verdaderas. Ejemplo de inferencia válida de modus tollendo tollens:
p→q Las proposiciones son (p) y (q), las premisas (p → q) , y la (¬ q) y la conclusión (¬p)
¬q Se construye la tabla de verdad comenzando por asignar los valores a las proposiciones: p y q
siempre con dos valores de verdad ( V o F) La tabla es 2 x 2, y se corresponde con el nº de
¬p combinaciones posibles de los valores de verdad. El nº de posibles combinaciones de los valo-
res de verdad dependerá del nº de proposiciones (n) siendo la regla 2n

MODUS TOLLENDO TOLLENS


p q p→q ¬q ¬p
V V V F F
V F F V F
F V V F V
F F V V V

Hay que buscar la línea donde dos premisas son verdaderas y la conclusión da “falsa” para comprobar si el
argumento no es válido. De no ser así, como en nuestro ejemplo, será VÁLIDO.

Seguimos con un argumento inválido (Falacia de afirmar el consecuente):


p→q
q
luego,
p La tabla de verdad será la siguiente:

FALACIA DE LA AFIRMACIÓN DEL CONSECUENTE


Tenemos en la
p q p→q q p
primera línea
V V V V V
V V V pero
V F F F V
F V V V F
existe un caso
F F V F F donde se falsa

Este argumento no es válido y es un error bastante frecuente del razonamiento humano. (ojo*)

Para examinar la forma lógica de la propia proposición, se utiliza el cálculo de predicados donde se
analiza la estructura interna descomponiendo una proposión en términos (se nombra un único
objeto) y predicados (aquello que se dice de los términos). Se suelen utilizar las letras F,G, H,...
(predicados) y letras x,y,z para los términos, colocándose el predicado delante del término que va
entre paréntesis. “Jaime es un estudiante” Jaime es el término (x) y “es un estudiante” es el
predicado, simbolizandose como “F(x)”.

En el cálculo de predicados también se distingue entre términos generales o específicos. La cuan-


tificación de la generalidad puede ser UNIVERSAL (todo, cualquiera, para cada x, cada x, para todo
x) o EXISTENCIAL (algún, algunos, algunas) donde existe al menos un objeto al que se le puede
aplicar el predicado. Cuantificador universal (A invertida, con las patas pa´rriba) y para el existencial es
la E invertida (Э). Una vez formalizadas las proposiciones, el razonamiento en el cálculo de
predicados consiste en eliminar los cuantificadores para aplicar las reglas de inferencia sobre las

M.Goretti González 5
proposiciones y volver a introducir los cuantificadores cuando sean necesarios. La regla de
especificación universal permite sustituir el cuantificador por cualquier término, dado que ssi la
proposición es cierta para todo, lo es para cualquier término específico.
Todos los médicos son hombres prudentes
Luis es médico
Por tanto, Luis es un hombre prudente.
La deducción:
(1) ( V x) [F(x) → G(x)] P
(2) F(/) P
(3) F(/) → G(/) especificar / para x
(4) G (/) PP 2,3 Modus ponendo ponens

2.2. El razonamiento inductivo

En la inducción hablamos de fuerza del argumento y esto no es una cuestión de grado. Este aspec-
to se enmarca en el concepto de probabilidad que depende del apoyo empírico que aportan las
premisas para alcanzar la conclusión. Esto se ha planteado, desde su formulación, como “el
problema de la inducción” por David Hume, 1740. El problema de la inducción es que asume la
regularidad de los fenómenos observados con el fin de poder explicar hechos ya conocidos o
intentar predecir hechos aún por conocer. No llega a verificarse porque no existe garantía de que
después de un nº x de observaciones la conclusión sea más precisa, puesto que se desconoce el
tamaño del universo de acontecimientos a observación.

Un argumento inductivo es fuerte: improbable que su conclusión sea falsa si sus premisas son
verdaderas. La fuerza va a depender del grado de improbabilidad. Y este grado de fuerza inductiva
está determinado por la relación de apoyo que se estables entre premisas y conclusiones. La pro-
babilidad de las premisas y conclusiones se conoce como probabilidad epistémica porque depen-
de de nuestro conocimiento y puede variar de una persona a otra y a lo largo del tiempo en la
misma persona. Existe el riesgo de alcanzar una conclusión falsa, pero ofrecen la enorme ventaja
de permitir descubrir y predecir nueva información en función de la información conocida.

La lógica inductiva estudia las pruebas para medir la probabilidad inductiva de los argumentos y
estudia las reglas para construir argumentos inductivos fuertes. Sin embargo, no existe acuerdo
sobre la forma de medir la fuerza inductiva de un argumento, ni aceptación consensuada de las re-
glas y ni siquiera una definición precisa sobre la probabilidad inductiva.

Otra cuestión es la justificación de la inducción. Este problema se centra en determinar por qué se
consideran válidos los juicios sobre casos futuros o desconocidos. Una solución es mostrar que la
validez del razonamiento inductivo se basa en la ley de uniformidad de la naturaleza por la que se
puede suponer que el futuro será semejante al pasado, pero esto no es cierto. Francis Bacon 1620,
rechazó la aplicación de un principio general y propuso unas tablas de investigación en las que la
inducción procedía por exclusión y desestimación. Por tanto, podemos comprobar que la
inducción es una tarea mucho mas compleja que la deducción. Si se asume que la naturaleza es
uniforme, entonces el problema está en determinar cuáles son las regularidades que se pueden
proyectar a situaciones futuras. Para poder identificar las regularidades que son proyectables hace
falta determinar cuáles son los aspectos de la naturaleza que se suponen son uniformes. Esta

M.Goretti González 6
encrucijada se conoce como “el nuevo acertijo de la inducción” y el problema de la construcción
de una lógica inductiva todavía no está resuelto.

El análisis de las causas y de los efectos es un aspecto importante tanto del razonamiento
científico como del cotidiano. Si se conocen las causas se tiene control sobre los efectos, de forma
que se puede producir la causa para obtener el efecto deseado o se elimina la causa para prevenir
el efecto no deseado. David Hume propuso un conjunto de reglas para determinar la relación cau-
sal y estas nociones fueron desarrolladas por John Stuart MILL (1843) Son procedimientos para de-
terminar si una causa es suficiente o es necesaria para producir un determinado efecto, siempre
que se tenga información sobre la presencia o la ausencia de otras causas y sobre la presencia o
ausencia del efecto en estas situaciones.

Las causas son las condiciones que producen un efecto y que pueden ser suficientes, necesarias o
suficientes y necesarias. Por ejemplo:
La presencia de oxígeno es una condición necesaria para la combustión, pero no es
suficiente.
Si se quiere producir un efecto, hay que buscar las condiciones que son suficientes (el oxígeno no
serviría para producir el efecto de combustión)
Cuando se busca prevenir el efecto, entonces basta con identificar las condiciones necesarias. (Si
se quiere prevenir la combustión, se puede eliminar el oxígeno).

6 principios por los que se rigen las condiciones necesarias y suficientes (Skyrms, 1986):
– 1. Si A es una condición suficiente para B, entonces B es una condición necesaria para A.
Si una buena nota es condición suficiente para el aprendizaje, entonces el aprendizaje es
condición necesario para una buena nota. (Bueno, mejor me callo. No me enfades, no me enfades,... que lo
hecho por la optativa de 4º me tiene mosca)
– 2. Si C es una condición necesaria para D, entonces D es una condición suficiente para C.
Si el oxígeno es condición necesaria para la combustión, entonces la combustión es condición
suficiente para el oxígeno.
– 3. Si A es una condición suficiente para B, entonces la ausencia de B es suficiente para la
ausencia de A.
Si una buena nota es suficiente para el aprendizaje, entonces la ausencia de aprendizaje es
condición suficiente para la ausencia de una buena nota. (¡aceptable!)
– 4. Si C es una condición necesaria para D, entonces la ausencia de D es condición necesaria
para la ausencia de C.
Si el oxígeno es condición necesaria para la combustión, entonces la ausencia de combustión
es una condición necesaria para la ausencia de oxígeno.
– 5. Si A es una condición suficiente para B, entonces la ausencia de A es una condición
necesaria para la ausencia de B.
Si una buena nota es condición suficiente para el aprendizaje, entonces la ausencia de una
buena nota es condición necesaria para la ausencia de aprendizaje. Pues como que no...
– 6. Si C es una condición necesaria para D, entonces la ausencia de C es una condición
suficiente para la ausencia de D.
Si el oxígeno es condición necesaria para la combustión, entonces la ausencia de oxígeno es
condición suficiente para la ausencia de combustión.

M.Goretti González 7
Si A es sufi para B, entonces B es necesaria para A Estas 2 van a la inversa.
Si C es necesaria para D, entonces D es sufi para C “” “”

Si A es sufi para B, entonces ausente B es sufi para ausente A Entran las ausencias en juego
Si C es necesaria para D, entonces ausente D es necesaria para C “” “” “”

Si A es sufi para B, entonces ausente A es necesaria para ausente B


Si C es necesaria para D, entonces ausente C es sufi para ausente D

1. Si A es sufi para B, entonces B es necesaria para A


3. Si A es sufi para B, entonces ausente B es sufi para ausente A
5. Si A es sufi para B, entonces ausente A es necesaria para ausente B

2. Si C es necesaria para D, entonces D es sufi para C


4. Si C es necesaria para D, entonces ausente D es necesaria para C
6. Si C es necesaria para D, entonces ausente C es sufi para ausente D

Los métodos de Mill son unos procedimientos para descubrir y comprobar las condiciones que son
suficientes y/o necesarias para la ocurrencia de un efecto. John Stuart Mill, propone cinco métodos
para guiar la búsqueda científica de las regularidades: consiste en clasificar en unas tablas las ob-
servaciones sobre la presencia y ausencia de las supuestas condiciones para la ocurrencia de un
fenómeno con el fin de eliminar aquellas circunstancias que no varían regularmente con el fenó-
meno observado.

La propiedad o efecto que se analiza se llama propiedad condicionada (E) y las propiedades que
son condiciones necesarias o suficientes de una propiedad condicionada son propiedades
condicionantes.

– El método directo de concordancia identifica las condiciones NECESARIAS y requiere la


búsqueda de la ocurrencia de la propiedad condicionada en un abanico de circunstancias. Se
requiere la construcción de una tabla en la que se recoge un número x de ocurrencias en las
que las propiedades condicionantes pueden estar presentes o ausentes cuando se produce la
propiedad condicionada. Teniendo este número variado de circunstancias diferentes en las
que ocurra el fenómeno se irán eliminando aquellas pr.condicionantes que se encuentren
ausentes cuando el fenómeno se encuentre presente. Así se identificará la propiedad condi-
cionante que es condición necesaria del fenómeno observado.
El principio de eliminación enuncia que “cualquier propiedad que se encuentre ausente
cuando el efecto está presente no puede ser una condición necesaria”.

MÉTODO DIRECTO DE CONCORDANCIA DE MILL (SKYRMS, 1986)


“Cualquier propiedad que se encuentre ausente cuando el efecto está presente no puede ser una condición
necesaria”
POSIBLES PROPIEDADES CONDICIONANTES PROPIEDAD CONDICIONADA
A B C D E

Ocurrencia 1 P P P A P
Ocurrencia 2 P A P P P
Ocurrencia 3 A P P A P

La propiedad condicionante C es la condición necesaria, dado que D se elimina en la primera


ocurrencia, la B en la segunda y la propiedad A se elimina en la tercera ocurrencia.

M.Goretti González 8
– El método Inverso de concordancia se utiliza para identificar las condiciones SUFICIENTES. Se
busca en número determinado de ocurrencias las propiedades condicionantes que se
encuentran AUSENTES cuando la propiedad condicionada también lo está, y se trata de ir eli-
minando aquellas propiedades condicionantes que se encuentren presentes cuando el
fenómeno está ausente.
El principio de eliminación es: “una propiedad que se encuentre presente cuando el efecto
está ausente no puede ser una condición suficiente”. Seguidamente vemos que la propiedad D
es la condición SUFICIENTE, puesto que la A se ha eliminado en primera ocurrencia, B en la 2ª y
C en la tercera.

MÉTODO INVERSO DE CONCORDANCIA DE MILL (SKYRMS, 1986)


“Una propiedad que se encuentre presente cuando el efecto está ausente no puede ser una condición suficiente”
POSIBLES PROPIEDADES CONDICIONANTES PROPIEDAD CONDICIONADA
A B C D E

Ocurrencia 1 P A A A A
Ocurrencia 2 A P A A A
Ocurrencia 3 P A P A A

– El método de Diferencia se utiliza para identificar las condiciones SUFICIENTES pero cuando
las propiedades condicionantes se encuentren PRESENTES en una ocurrencias determinada
(señalada por *) . En el ejemplo 1 la propiedad condicionante D es la condición suficiente. Pero
en el ejemplo 2, en la ocurrencia determinada * no se puede identificar una única condición
suficiente (en A,C y D son 3 P) y por tanto se procede a la observación de más ocurrencias de
acuerdo con el principio de eliminación del método inverso de concordancia. Requiere la ob-
servación de dos ocurrencias mínimo: una en la que el fenómeno investigado esté presente y
otra en la que falte. La propiedad B sólo se elimina en ocurrencia particular *, y en la 1 y según
método inverso de concordancia sse elimina la propiedad A y en la ocurrencia 2 la prop. D
De esta forma, la C se identifica como condición suficiente.

MÉTODO DIFERENCIA * DE MILL (SKYRMS, 1986)


Ejemplo 1 ----- POSIBLES PROPIEDADES CONDICIONANTES PROPIEDAD CONDICIONADA
A B C D E

Ocurrencia * A A A P P
Ejemplo 2 -----
A B C D E
Ocurrencia * P A P P P
Ocurrencia 1 P A A A Por método A
Ocurrencia 2 A A A P INVERSO A

– El método combinado identifica las condiciones tanto SUFICIENTES como NECESARIAS. El


doble Método de Concordancia combina el Directo y el Inverso de Concordancia; y el Método
Conjunto combina el Método Directo y el de Diferencia.
En la tabla siguiente se aprecia cómo la propiedad condicionante C es la condición tanto
SUFICIENTES como NECESARIA. En la ocurrencia 1 se han eliminado las propiedades B y D, en
la ocurrencia 2 la propiedad A, en la ocurrencia 3 las propiedades B y D y en la 4 la A.

M.Goretti González 9
DOBLE MÉTODO DE CONCORDANCIA (Concordancia DIRECTA e INVERSA) DE MILL (SKYRMS, 1986)
POSIBLES PROPIEDADES CONDICIONANTES PROPIEDAD CONDICIONADA
A B C D E

Ocurrencia 1 P A P A Di recto P
Ocurrencia 2 A P P P Di recto P
Ocurrencia 3 A P A P Invers o A
Invers o
Ocurrencia 4 P A A A A

– El método Conjunto La propiedad condicionante C es la condición NECESARIA y SUFICIENTE. En


la ocurrencia particular se eliminan las propiedades B y D, y la propiedad A se elimina tanto en
la primera ocurrencia como en la segunda.
Tener en cuenta que solo hay dos principios de eliminación:
1. una condición necesaria del efecto no puede estar ausente cuando el efecto está presente, y
2. una condición suficiente del efecto no puede estar presente cuando el efecto está ausente.

MÉTODO CONJUNTO que COMBINA EL MÉTODO DIRECTO Y EL MÉTODO DE DIFERENCIA DE MILL


(SKYRMS, 1986)
POSIBLES PROPIEDADES CONDICIONANTES PROPIEDAD CONDICIONADA
A B C D E

Ocurrencia * P A P A P
Ocurrencia 1 P A A A A
Ocurrencia 2 A P P P P

Ejemplo práctico: supongamos que en el hotel hay un huésped con intoxicación y queremos averi-
guar cuál ha sido el alimento que pudo ocasionar dicha intoxicación. Se utilizará el método
INVERSO de Concordancia y reducir así la búsqueda a dos platos a dos platos principales y a dos
postres (éste identifica la condicioón suficiente -causa- mediante la búsqueda en diferentes casos
de la ausencia tanto de las propiedades condicionantes -posibles causas- como de la propiedad
condicionada – efecto) El principio de eliminación que subyace en este método es: una propiedad
que se encuentre presente cuando el fenómeno está ausente no puede ser una condición
suficiente del fenómeno.
Método INVERSO de la Concordancia Se selecionan al azar los huéspedes
con los alimentos que se sirvieron en el hotel que comieron en el hotel y que no
Pcondte Pcondte Pcondte Pcondte Propiedad presenten síntomas. Se diseña una
condicionada tabla y se les pregunta lo que han co-
pescado carne natillas flan intoxicación mido, podemos ir eliminando las co-
Huesped 1 no si no si no midas que no son condición suficiente
Huesped 2 no si si si no para la intoxicación.
El huesped 1 nos informa de que po-
Huesped 3 no si si no no
demos eliminar la carne y flan pues
Huesped 4 no no no si no fue lo que comió. El huesped 2 nos da
el dato de que se puede eliminar las natillas pues las probó pero no está intoxicado, y los huéspe-
des 3 y 4 no nos dan más información que la que sabemos ya. Lo que encontramos es que todos
no comieron pescado y es el único alimento seleccionado al azar que éstos no han comido. Pode-
mos identificar al pescado como condición SUFICIENTE de la intoxicación. En caso de no encontrar

M.Goretti González 10
la condición suficiente, entonces tendríamos que ampliar la lista de alimentos y seguir de detecti-
ves.

Las inferencias inductivas se encuentran presentes en la categorización, en la comprobación de hi-


pótesis, en la generalización y especialización, en el razonamiento causal, en la detección de con-
tingencias, en el razonamiento probabilístico, en la solución de problemas, en la toma de decisio-
nes, en el razonamiento analógico y en el aprendizaje.

Las investigaciones psicológicas se han interesado en describir y explicar estos procesos inferencia-
les basándose en la lógica. Sin embargo, los resultados experimentales obtenidos en las distintas
tareas de razonamiento deductivo e inductivo han puesto de manifiesto que existen unos sesgos o
errores sistemáticos.

3. ERRORES Y SESGOS EN EL RAZONAMIENTO

Cuando hablamos de errores y sesgos en el razonamiento asumimos de alguna forma el criterio


normativo del buen razonador. En el razonamiento deductivo lo habitual es comparar el rendi-
miento humano con la teoría de la lógica formal. La validez garantiza que no exista un estado
posible de acontecimientos en los que siendo verdaderas las premisas la conclusión sea falsa. En el
razonamiento inductivo, el modelo normativo habitual es el Teorema de Bayes que permite obte-
ner la probabilidad de una conclusión ante el conjunto de posibles conclusiones alternativas. Sin
embargo el razonamiento se desvía de forma sistemática de estas predicciones.

Los errores de razonamiento se clasifican en formales e informales:


1. Errores formales son aquellos que violan alguna de las reglas de inferencia. (En el
condicional se infiere equivocadamente el antecedente por la falacia de la afirmación del
consecuente).
2. Errores informales no dependen del argumento, sino del contenido. Los errores son debi-
dos al uso o interpretación inadecuada del contenido del argumento ( se rechaza un argu-
mento formalmente válido por no estar de acuerdo con el contenido de la conclusión)

Los sesgos o falacias de razonamiento se refieren a unas tendencias que son sistemáticas en el
proceso de razonamiento. Estos hacen que los sujetos comentan errores al considerar factores que
son irrelevantes para inferir. Según Evans 1989, los sesgos de razonamiento se pueden clasificar
en:
1. sesgo en la selección de la información,
2. sesgo de confirmación y
3. sesgos de contenido y contexto.

Estos se encuentran a menudo estrechamente relacionados, resultando difícil su identificación.


Ello se pone de manifiesto:
– cuando admitimos que el sistema de procesamiento se ve obligado a seleccionar la
información y en este proceso pueden existir determinados sesgos, y
– cuando sobre esta información sesgada puede influir el contenido y el contexto del problema
de razonamiento y la tendencia hacia la confirmación de la información presentada o de
nuestras propias expectativas.

M.Goretti González 11
Por factores externos entendemos aquellos aspectos de la información que son irrelevantes para
el razonamiento y que se encuentran vinculados con el impacto que ejerce la propia presentación
de esta información.
Por factores internos se refiere a las propias restricciones o limitaciones estructurales del sistema,
a la tendencia que muestra el sistema a tener en cuenta su conocimiento particular o su sistema
de creencias en gral, y a la tendencia hacia la confirmación, interactuando con el propio conoci-
miento y el sistema de creencias.

3.1. Factores externos

Si los humanos somos análogos (imaginando, claro) a un sistema de procesamiento de la informa-


ción tenemos determinadas limitaciones cognitivas, tales como capacidad de memoria y recursos
de procesamiento limitado (vamos lento o rápido). Enfrentados a una situación concreta se
encuentra con una gran cantidad de información que no tiene capacidad para procesarla en su to-
talidad. Nos vemos obligados a seleccionar aquello que sea relevante para resolver la situación. El
sistema humano alcanza unos niveles de eficacia muy buenos si lo comparamos con una máquina
de procesamiento pues ésta tiene capacidad mucho mayor. Sin embargo la selección también nos
puede conducir a errores y si éstos son sistemáticos serán sesgos.

Cuando se dice que una información es saliente se está haciendo referencia a determiandos
aspectos que sobresalen sobre los demás creando impacto sobre el sujeto (aunque no sean impor-
tantes). Por ejemplo, los anuncios publicitarios captan la atención de los consumidores haciendo
uso de lo prominente de la información cuando se presentan por medio de un modelo publicitario
o autoridad reconocida, pero que nada tiene que ver con las características del producto.

También es habitual recurrir a los números o a la tradición para presentar el producto o una pos-
tura. El mero hecho de que la mayoría consuma o asuma una postura, porque tradicionalmente se
ha consumido, influye sobre los sujetos, sin que éstos consideren la validez o fuerza de los argu-
mentos. Este impacto ejercido por la información irrelevante para el proceso de razonamiento
puede estar determinado por el interés emocional que tiene, por la concreción de los datos, por el
carácter vívido de la información, por la proximidad temporal y espacial entre los aspectos
irrelevantes de la información y el argumento o por su familiaridad.

También nos encontramos influidos por la fuente de la que provenga la información. El error de
razonamiento conocido como “argumentum ad hominem” (argumentación contra el hombre) pone
de manifiesto la importancia que se concede a la fuente de información independientemente de lo
que sostenga. Se acepta o rechaza determinada información en función de los méritos que
otorgamos a la fuente (Líderes carismáticos que ejercen influencia haciendo adeptos) Se simpatiza
con la persona o institución que la sostiene.

Es frecuente recurrir a una autoridad en la materia para defender una postura sin más evidencia
que la persona en cuestión o acreditar o desacreditar la información de una fuente por la simple
asociación con otra – en algunas ocasiones sin evidencia objetiva suficiente puede ser apropiado
confiar en esa fuente -. Sin embargo un argumento defendido por una fuente de información con
una credibilidad baja no hace que el argumento sea inválido y tampoco a la inversa.

Existen errores sistemáticos debido a la propia estructura sintáctica del problema. Por ejemplo, en

M.Goretti González 12
los problemas de silogismos categóricos se ha encontrado el efecto atmósfera y el sesgo de la
figura del silogismo. El efecto atmósfera manifiesta que la cantidad – universal o particular - o la
polaridad – afirmativa o negativa- de las premisas influyen sobre las condiciones que dan los suje-
tos. En relación con el efecto de la figura se ha encontrado que el grado de dificultad y el tipo de
conclusión dependen de la posición del término medio en cada una de las premisas.

En el sesgo de emparejamiento se observa que las respuestas de los sujetos coinciden con los
enunciados del problema de la tarea de selección de Wason (¡mi queridísimo Wason!). Se presentan 4
tarjetas que contienen el antecedente del condicional por una cara y el consecuente por la otra. La
presentación de la tarea va acompañada de un enunciado condicional en forma de regla y se pi-de
a los sujetos que giren la tarjeta o tarjetas necesarias para confirmar o falsar esa regla. Por
ejemplo, “si hay un cuadrado azul a la izquierda, entonces hay un círculo rojo a la derecha” y se pi-
de a los sujetos que comprueben si el condicional es verdadero o falso. La mayoría eligen las tarje-
tas que exhiben los dos términos del enunciado: cuadrado azul y círculo rojo.

Wason interpretó estos resultados como un sesgo hacia la confirmación de aquello que venía ex-
presado por la regla. Evans y Lynch – 1973, sostienen que este sesgo está basado en el
emparejamiento y cuestionan que ésta sea una tendencia hacia la confirmación basándose en sus
resultados con la negación de los términos. El mismo problema con términos negativos sería “Si
hay un cuadrado azul a la izquierda, entonces no hay un círculo rojo a la derecha” - negación del
consecuente – o “Si no hay un cuadrado azul a la izquierda, entonces hay un círculo rojo a la
derecha” - negación del antecedente. En este caso se observa que los sujetos eligen los términos
mencionados en la regla y no persiguen la confirmación de la misma. En el caso de la negación del
consecuente, la elección de los sujetos coincide con la falsación, y en el caso de la negación del
antecedente siguen eligiendo los mismo términos mencionados pero su elección no coincide con
las reglas de la lógica. Este sesgo de emparejamiento pone de manifiesto la relevancia que adquie-
ren los términos expresados en el condicional y las dificultades que tienen los sujetos con la nega-
ción lógica y lingüística, mostrando preferencia hacia el procesamiento de información positiva.

3.2. Factores internos

Tenemos que considerar primeramente la restricción estructural del propio sistema de procesa-
miento de la información. Existe la limitación asociada con la cantidad de información con la que
puede trabajar el sistema. Cuando esta información es abundante, el sistema se sobrecarga y la po-
sibilidad de error es mayor.

La selección adecuada de la información dependerá de que ésta se encuentre disponible. La dis-


ponibilidad hace referencia a la facilidad con la que se recupera determinada información. Esta
disponibilidad o accesibilidad de la información fue descrita por Tversky y Kahneman,1973 para
los juicios en los que se pide la estimación de frecuencias. En el proceso de organización y recupe-
ración de la información almacenada existen restricciones cognitivas que pueden dar lugar a los
sesgos. Por ejemplo, la facilidad de recuperación en función de cómo se ha organizado la informa-
ción, la familiaridad, las expectativas de los sujetos o la primacía o cercanía de la información pre-
sentada.

Tversky y Kahneman 1982, expusieron diferentes experimentos. En uno se pedía a los sujetos que
emitieran juicio sobre la frecuencia de las palabras en inglés que empezaban por “k” y las palabras

M.Goretti González 13
que tenían esta letra en tercera posición. Los sujetos valoraban como más frecuentes las palabras
que empezaban con ella que las otras, aunque en realidad en inglés son más frecuentes las que la
llevan dentro. Este resultado se debe a que nos es más fácil recuperar palabras por su letra inicial
que por las letras en otras posiciones.

En otro experimento, presentaron dos listas con la misma cantidad de nombres de personas
famosas y anónimas. Cuando se preguntaba sobre la frecuencia de los nombres, se encontró que
juzgaban como más frecuentes la de los nombres de los famosos. Estos nombres eran más fáciles
de recordar y al poder recuperar mayor número, consideraban que eran los más frecuentes.
También se ha encontrado que cuando se presenta una hipótesis irrelevante se induce a su
consideración. Por ejemplo, se describe un patrón de síntomas asociados al diagnóstico y a
continuación se presenta un caso en el que este patrón es irrelevante, los sujetos se dejarán influir
por las expectativas que ha generado la información presentada previamente (Chapman y
Chapman, 1967)

Hay casos en dnde la información relevante no se puede recuperar fácilmente y por ello se comen-
ten errores. Pero si se dispone de ella, tampoco es garantía que se seleccione. El problema clásico
de Kahneman y Tversky, 1972, sobre “el problema de los taxis” evidencia lo dicho. Se pide a los su-
jetos cuál de las dos compañías de taxis pudo haber estad involucrada en un accidente antes la
situación:
En una gran ciudad hay dos compañías de taxis con distintos colores: taxis azules y taxis verdes. Un 85% son
taxis azules y un 15% son taxix verdes. Hubo un accidente y el taxi se dio a la fuga. Un testigo asegura que el
coche era un taxi verde. En una prueba de memoria se encuentra que el testigo puede recordar
correctamente el color de los coches en un 80% de los casos y que se equivoca en el 20%

La mayoría de los sujetos consideraban que el responsable del accidente había sido un taxi verde.
Sin embargo con los datos presentados la probabilidad es mayor para el taxi azul:
0,85 x 0,20 = 0,17 azul. Existe un 85% de estos, por el 20% que pudiera ser si se ha equivocado el
amigo, nos daría 17%
0,80 x 0,15 = 0,12 verde. En este caso el 80% de las veces no se equivoca pero solo hay un 15% de
taxis verdes, y así sería probable que el 12% de posibilidades fuera el taxi verde.
A pesar de haber presentado la información relevante, los sujetos se fían más del testigo que de
los datos.

Se topa también con la relevancia. No solo debe estar disponible la información sino ser relevante
para la situación. El rendimiento mejora en las tareas cuando establecen relaciones causales. Por
ejemplo, si se dijera que el número de taxis es igual y que el 85% de los taxis que tienen accidentes
son azules, entonces los sujetos se fijan en las probabilidades a priori a la hora de dar sus respues-
tas.

Los errores de razonamiento también pueden deberse por el conocimiento propio o de sus creen-
cias, haciendo que se razone a favor de ellas. Se le da más importancia a la evidencia que vaya en
consonancia con nuestras creencias y se suele ignorar o minimizar aquello que las contradice. Exis-
te la tendencia también a buscar explicaciones y aceptarlas muy fácilmente cuando éstas están en
consonancia con nuestras creencias, sin la consideración objetiva de los datos que las apoyan (con-
clusiones precipitadas) ¡pero mira cómo somos...!

El sesgo conocido como de confirmación manifiesta la tendencia hacia la búsqueda de información

M.Goretti González 14
que sea consistente con nuestro sistema de creencias, expectativas o hipótesis y a descartar
aquella información que pueda falsarlas. En el razonamiento probabilístico se encuentra cuando
los sujetos tienen que evaluar el diagnóstico de una enfermedad en función de los resultados
positivos de una prueba. Los sujetos se basan en la diagnosticidad de la prueba para la primera
enfermedad hipotética, sin considerar cuál es la probabilidad de que los resultados también sean
positivos para el diagnóstico de otras enfermedades alternativas.

También está este sesgo en tareas de inducción en las que el sujeto tiene que descubrir una regla.
Por ejemplo en la de “Tarea 2 4 6” donde se pide que descubra cuál es la regla de la serie. El
experimentador tiene en mente una regla general como “cualquier serie de nºs ascendentes” . Es
habitual observar que los sujetos se empeñan en ir comprobando reglas, como los múltiplos de 2.
Y ante las respuestas de los sujetos el experimentador dirá siempre “SÍ” puesto que cumplen la
regla general, peor la del sujeto no es la del experimentador. Los sujetos solo generan reglas con
series positivas de acuerdo con la regla y no generan alguna que pueda falsar sus hipótesis.

En general, se persiguen las estrategias que confirman y no la falsación e incluso se muestra la


persistencia inadecuada al seguir defendiendo el argumento en el que se cree a pesar de la eviden-
cia contraria. Evans indica que ello puede deberse a una restricción propia del sistema que se
centra en procesar información positiva y no a una tendencia hacia la confirmación. Por ello, cree
que este sesgo de confirmación pone de manifiesto las dificultades para procesar información
negativa. Muestra la predilección del sistema por lo positivo y además el que se persista sobre la
hipótesis en particular buscando activamente la información positiva ( ... y digo yo: ¿las personas que no
son tan positivas, buscarán eso mismo o ellos funcionan de otra forma?, y digo “ellos” porque yo peco de positivismo y entiendo
que estoy BIEN SESGADA, je,je,je)
No obstante, Mynatt, Doherty y Tweney, 1977, nos indican que algunos
muestran cierta sensibilidad ante la información que falsa sus hipótesis cuando ésta se presenta
expresamente.

Cuando se presentan reglas de contenido, los sujetos intentan verificar las hipótesis si se encuen-
tran en consonancia con su sistema de creencias y tienden a desconfirmarlas cuando piensan que
pueden no cumplirse en todos los casos. El contenido y el contexto de los problemas influyen
igualmente:
1. Contenido abstracto. En condicional sería “Si p, entonces q” = >> “Si A, entonces 7”
2. Contenido conocido, pero arbitrario: “Si es un artista, entonces pertenece a la sociedad de
amantes del cine” (Lleva términos de uso cotidiano, pero que no tienen relación directa con
los conocimientos o sistemas de creencias de los sujetos)
3. Contenido familiar: “Si eres psicólogo cognitivo, entonces conoces los principios de
razonamiento humano”. (Este sí mantiene una relación directa con la experiencia del
sujeto... ¡bueno, sí, algo me suena, je,je,je!)

Por contexto se entiende el marco o el escenario en el que se sitúa el problema de razonamien-


to. El contexto se hace explícito en el diseño de las tareas experimentales mediante el uso de
instrucciones o descripciones verbales o escritas que acompañan al problema.

El contenido familiar puede en casos facilitar el rendimiento y en otros sesgar sus respuestas. En
las tareas de silogismos categóricos es habitual presentar un argumento deductivo y pedir a los su-
jetos que juzguen su validez (viene determinada la validez por la estructura sintáctica no por con-
tenido) La verdad de la conclusión se juzga en función de la verdad supuesta de las premisas. Sin
embargo, cuando las conclusioens entran en conflicto con las creencias, se aceptan como válidos

M.Goretti González 15
argumentos que no lo son, pero cuyas conclusiones están en consonancia con el sistema de creen-
cias y se rechazan otros que siendo válidos muestran una conclusión discordante. Pongamos un
ejemplo, que solo detallo mínimamente pues se verá posteriormente:
Todos los A son B
Todos los C son B
luego, todos los C son A

Los sujetos aceptamos esto por la “Atmósfera universal” de las premisas. Significa que si alguna de
las premisas contienen al menos una premisa particular , la conclusión es también particular. (No
es este el caso) En el ejemplo, es el caso de UNIVERSAL donde si una de ellas contiene al menos
una premisa universal (Todos...) la conclusión que demos será probablemente universal
igualmente. Si una es negativa, la conclusión será negativa y a la inversa si es afirmativa: Todos los
A no son B; Todos los C son B; luego Todos los C no son A. (¿Y a quién se le ocurrió esto de llamarlo
atmósfera...?)

No obstante, esto mismo lo rechazaríamos si se dotara de la información que sigue:


Todos los psicólogos son seres vivos
Todos los médicos son seres vivos
Todos los médicos son psicólogos

Claramente vemos, como el contenido ha facilitado el rendimiento de los sujetos y decimos que
esta conclusión no es válida, eliminando así el sesgo que produce la propia estructura formal del
argumento. Cuando la conclusión del argumento se encuentra a favor o en contra del sistema de
creencias de los sujetos, éstos lo consideran válido o no, respectivamente. Entre el sesgo de
confirmación y el de creencias previas existe una estrecha relación, aunque es una dirección distin-
ta. El de confirmación pone de manifiesto la búsqueda de evidencia para confirmar hipótesis, el de
creencias previas, evalúa la evidencia sesgándola hacia la conclusión que sea congruente con estas
creencias.

Según el modelo del escrutinio selectivo los sujetos parecen examinar la conclusión y si ésta es
plausible, entonces tienden a aceptarla sin analizar la validez del argumento:
Todos los animales son seres vivos
Todos los perros son seres vivos
Todos los perros son animales

En este caso la conclusión es plausible y parece que entonces no nos molestamos en comprobar si
sigue de las premisas o no, aceptándola sin más.

No obstante el mero hecho de razonar sobre contenidos conocidos no produce en todos los casos
los efectos de facilitación esperados. Esto ha provocado el que los factores de contenido se asocien
al contexto, entendiéndose éste vinculado con los aspectos pragmáticos del razonamiento. Los
efectos de facilitación vendrían explicados por la vinculación que los sujetos hacen entre el proble-
ma y los objetivos o metas hacia las que encaminan el razonamiento. Por ejemplo, en el
condicional se proponen unos esquemas de razonamiento para situaciones de regulación, tales
como permisos (Cheng y Holyoak,1985)como “Si limpias tu habitación, entonces irás al cine”, el
sujeto entenderá el contexto y lo vinculará con metas u objetivos anteriores que pondrán en
marcha un conjunto de inferencias correctas.

M.Goretti González 16
La probabilidad epistémica dependerá del conocimiento sobre la naturaleza de los objetos sobre
los que se razona. Por ejemplo, se hacen generalizaciones a partir de pequeñas muestras de casos
si conocen o creen conocer la variabilidad de la muestra. Se acepta generalizar cuando dicha mues-
tra es pequeña si los objetos presentan variabilidad baja y no están dispuestos a aceptar una
basada en pocas observaciones en un dominio de mucha variabilidad. Supone que según el mayor
conocimiento se irán evitando generalizaciones falaces o falsas.

También se ha encontrado que el contenido puede inducir a sesgos cuando es representativo del
dominio, pero irrelevante estadísticamente. Los juicios por representatividad pueden inducir a ses-
gos al basarse en la similitud entre conocimiento del sujeto y aquello sobre lo que está razonando.
Es el conocido “problema de los dos hospitales” de Kahneman y Tversky, 1972 Lo expondrán en su
capítulo, pero adelanto que este ejemplo pone de manifiesto que cuanto mayor sea el número de
observaciones más probable es que el resultado se aproxime al resultado real y cuanto menor sea
es más probable obtener resultados extremos.

Para resumir, hay que indicar que los sesgos son una consecuencia directa de las restricciones o li-
mitaciones propias del sistema que, por otra parte, es un sistema eficaz y adaptado al medio en el
que se encuentra inmerso. Simon, 1989 nos indica que en pocas ocasiones el sistema de
procesamiento cuenta con la estrategia exacta para resolver el problema que tiene delante y debe
aproximarse a la solución por medio del “principio de la racionalidad restringida”. Todo ello hace
que el marco teórico del razonamiento humano, siga debatiendo sobre racionalidad o irracionali-
dad del pensamiento.

4. EL CONCEPTO DE RACIONALIDAD

Cuando la psicología se plantea estudiar experimentalmente el razonamiento consideró que la


lógica era el marco de referencia para explicarlo. Sin embargo, los resultados de las investigaciones
manifestaron que los sujetos no siempre se ajustaban al criterio del razonamiento lógico,
conduciendo ello a un resultado incómodo para la psicología, pues entonces había que aceptar
que eramos irracionales.

4.1. Competencia sintáctica restringida

Cuando se defiende la racionalidad se suele aludir a la propuesta de Chomsky (1965) entre


competencia y actuación lingüística. Se parte, por analogía con los órganos físicos como el corazón,
de que existe en el ser humano una dotación genética especialmente dispuesta para el desarrollo y
maduración de unos órganos mentales. Uno de éstos era la facultad para el lenguaje y esta se tra-
duce en un conjunto de reglas que es universal y específico de la especie humana. Este conjunto
de reglas abstractas (gramática universal) es la competencia lingüística y cuando ésta se manifiesta
externamente es actuación lingüística.

La actuación lingüística explica que el sujeto tenga la facultad para el lenguaje que se actualizará
en algo concreto como el español, inglés, alemán,... o que algunas veces se equivoque en sus lo-
cuciones sin que ello obligue a cuestionar su competencia lingüística. Así algunos defienden que
existe una competencia o capacidad racional que puede sufrir distorsiones cuando esta capacidad
se traducía a una actuación concreta.

M.Goretti González 17
Desde la perspectiva de los modelos computacionales, la psicología del pensamiento se entendería
como el estudio de las estructuras simbólicas (susceptibles éstas de interpretación en función de
conceptos de uso común) y de los procedimientos para su manipulación sirviendo la lógica como
modelo normativo.

Los resultados experimentales descubren ilusiones cognitivas o comprueban la formación en lógica


de los sujetos, asignando falacias dónde no las hay. Otros sostienen que en la explicación de los
sesgos se haya subestimado el papel de la lógica; siendo el problema principal en que las distintas
posturas teóricas se han adoptado en la explicación de los errores. Las que adoptan un enfoque
sintáctico entienden los errores como la existencia de determinadas condiciones que conducen a
error, no que no puedan razonar.

El error estaría en la comprensión de las premisas y las respuestas sesgadas pueden explicarse en
función de dicha interpretación, o bien omitiendo o añadiendo premisas al argumento. Puede ser
en la interpretación de los cuantificadores de un silogismo categórico: por ejemplo, interpretar
“algunos X son Y” como “algunos X no son Y” o a la inversa. Se sugiere igualmente que algunos su-
jetos pueden hacer conversiones de las premisas, como convertir “algunos X no son Y” en “algunos
Y no son X”; o “Todos los Y son X” en “Todos los X son Y”.

Algunos autores indican que el razona- miento depende de la comprensión de las premisas y el uso
de material familiar explicaría los efectos de facilitación observados en la actuación de los sujetos.
Revlin y Leirer 1978, basándose en el modelo de conversión, sostiene que el contenido familiar
bloquea la conversión ilícita en la codificación de las premisas.
El sesgo de creencias los explican considerando que las premisas de los argumentos válidos son
más susceptibles para la conversión que las premisas de argumentos inválidos. No obstante este
sesgo fue explicado por Henle como fracaso en la aceptación de la tarea lógica, donde los sujetos
no entienden las instrucciones o no saben lo que tienen que hacer y, por ello, hacen algo distinto
de lo pretendido a analizar.

En líneas generales, la perspectiva sintáctica asume que existen dos componentes fundamentales
en el razonamiento:
1) Un componente deductivo que comprende reglas sintácticas libres de contenido.
2) Un componente de interpretación que establece la correspondencia entre los enunciados
del lenguaje y el conjunto de reglas sintácticas.
Este conjunto de reglas sintácticas no tienen que ser equivalentes a las reglas lógicas, sino que
comprendería el repertorio de reglas de inferencia que utilicen los sujetos de forma natural. Así si
el contenido y contexto influyen al interpretar, la actuación de los sujetos se explicaría por su
adherencia a las reglas sintácticas aplicadas a dicha interpretación. El contenido determinaría la
interpretación y el control del conocimiento que ha de recuperarse de la MLP, sin que ello implique
la alteración del conjunto de reglas sintácticas del sistema. Si el tipo de contenido cambia las
respuestas, es debido a la utilización de un conjunto distinto de proposiciones, no de reglas.

La tarea de Wason ha sido base de numerosos trabajos. Solo pocos fueron capaces de responder
correctamente a la tarea, inicialmente 4%, y luego de entre 6-33%. El contenido del material pre-
sentado incide sobre el rendimiento, facilitándolo cuando es contenido concreto. No obstante, no
todos los contenidos concretos producen facilitación y algunos autores indican que si existe expe-
riencia previa se da mayormente esta facilitación.

M.Goretti González 18
Otra perspectiva alternativa enfatiza el papel de la experiencia y el contexto lingüístico en la
determinación del rendimiento y cuestiona a los marcos teóricos de las reglas desvinculadas del
contenido. Se cree por tanto que los contenidos abstractos serían los adecuados para estudiar el
sistema deductivo, pero la alta tasa de errores encontrada oscurece la viabilidad de una competen-
cia lógica.

La teoría de los esquemas de razonamiento pragmático propone que los suejtos cuentan con re-
glas de razonamiento que son específicas del dominio. Estos tienen un nivel medio de abstracción
de forma que los esquemas se aplicarían a un conjunto de acontecimientos, tales como las situa-
ciones de regulación (permiso, contratos sociales, advertencias,...) En el caso que se comentó
anteriormete de “Si limpias tu habitación, entonces irás al cine” el esquema relaciona estrecha-
mente el contenido y el contexto y se vincula con las inferencias de la lógica. Esta perspectiva
explica la racionalidad por una reglas de razonamiento apropiadas para alcanzar los objetivos que
se propone el sujeto. Sin embargo no es una teoría que pueda generalizar el razonamiento más
que a unas pocas situaciones concretas. Se requieren más estudios.

Se evidencia polémica en esto, pues supone que hay que distinguir entre estructura lógica y
contenido (no lógico) y entre comprensión y reglas sintácticas. Smedslund, 1970, 1990, nos indica
que las explicaciones del modelo son circulares pues sólo se puede deducir la naturaleza de la in-
terpretación de una regla si se asume que se razona de forma lógica y sólo se puede descubrir que
se razona lógicamente si sabemos que ha interpretado la premisa.

La teoría de la competencia lógica supone un sistema lógico hipotético, pero al igual que en las
teorías de la competencia lingüística, el modelo de competencia no constituye el que sea una
teoría que pueda verificarse de forma empírica. La tarea experimental no garantiza que los sujetos
comprendan los requisitos dela validez deductiva, ni que la comprensión de las premisas enuncia-
das coincida con la del experimentador.

4.2. Competencia semántica restringida

Estas perspectivas defienden la representación semántica de las premisas y el procedimiento de


comprobación semántica del argumento. Según Erickson 1974, los sujetos representan cada pre-
misa como una combinación de diagramas de Euler y para evaluar o producir una conclusión se
han de combinar dichas representaciones de premisas en una sola representación del silogismo.

La teoría más actual al respecto es la de los Modelos Mentales de Johnson-Laird. Esta se enmarca
dentro del enfoque que explica el razonamiento por el conocimiento tácito que tienen los sujetos
sobre los principios semánticos fundamentales que subyacen en los procesos de inferencia. La
validez se entiende como posibles interpretaciones del argumento. Los sujetos construyen
modelos mentales que constituyen la representación de las situaciones descritas por las premisas
generado combinaciones de éstas en búsqueda de contraejemplos para las posibles conclusiones.
El procedimiento básico viene explicado por esta búsqueda de contraejemplos alternativos que
puedan falsar el modelo mental en cuestión. Si estos no se encuentran entonces es válido. La
dificultad de los problemas se explica en función de la cantidad de procesamiento y los errores se
explican por las limitaciones de la memoria de trabajo al no poder considerar todas las
combinaciones posibles de las representaciones relevantes. Parece entonces que se razona por un
procedimiento semántico adecuado, pero limitado por la capacidad de la memoria de trabajo.

M.Goretti González 19
Según estos autores, la racionalidad viene reflejada en el metaprincipio semántico de validez:
“Una inferencia es válida sólo si su conclusión no puede ser falsada por un modelo de las
premisas”

Se ha considerado este enfoque semántico tan formal como el sintáctico y que la teoría de los
modelos mentales se puede entender como un modelo mental lógico en el que se describe el pro-
cedimiento formal para la búsqueda semátnica e contraejemplos.

El procedimiento semántico (método de la Tª de los modelos) analiza el significado de los operado-


res lógicos y el sintáctico (método de la Tª de la demostración) utiliza las reglas de inferencia para
delimitar este significado, pero ninguno de los dos considera el contenido del argumento.

4.3. Competencia en la satisfacción de restricciones

Los modelos conexionistas ofrecen perspectiva alternativa, donde la representación del conoci-
miento se encuentra distribuida y ponderada diferencialmente en patrones de activación que
forman parte del sistema dinámico con procesamiento en paralelo. Sigue la idea del cómputo
mental inherente a los modelos computacionales, pero sin apelar a la hipótesis de que el sistema
sea un manipulador de símbolos. Según éstos, el sistema está compuesto por redes de activación,
cada una de las cuales comprende un conjunto amplio de unidades de procesamiento, similares a
las neuronas, unidas a su vez por conexiones con pesos diferenciados. Este enfoque propone
axiomatizar el sistema físico, para luego investigar analíticamente su comportamiento en
contraposición a la axiomatización del comportamiento para luego diseñar un sistema físico por las
técnicas de la síntesis lógica. El pensamiento se concibe como comportamiento que emerge del
patrón de regularidades observadas de nuestra experiencia. El sistema en sí mismo no tiene reglas
que dirijan el funcionamiento, pero el enfoque simbólico asume que los estados mentales sí se
forman por representaciones y reglas, a lo que esta perspectiva conexionista responde con la
explicación de que solo hay activación y fuerza de conexión para explicar el comportamiento.

Bajo este enfoque se diluye la diferenciación entre contenido y reglas. En el modelo conexionista
el conocimiento del sujeto viene representado por los patrones de activación en los que el
conocimiento está distribuido y ponderado con pesos diferentes y al razonar el sistema busca el
emparejamiento que viole el menos número de restricciones o limitaciones. Al entrar información,
se activará el conocimiento relevante para la red y se generará la mejor interpretación posible que
alcance el sistema. Se busca el ajuste óptimo entre ambos patrones, y las restricciones cognitivas
se determinarán por la base de conocimientos que se encuentre representada y activada.

Oaksford y Chater apuntan la interpretación alternativa a la Tª de los Modelos Mentales, basada


en los procesos de recuperación de memoria en el marco de los modelos conexionistas. Aquí se
explicaría la búsqueda de contraejemplos, por la bondad de ajuste entre el patrón de activación
generado por el argumento y el conocimiento representado por el sistema.

Algunas propuestas consideran la co-existencia de los dos sistemas de razonamiento (Procesos


duales) En estas propuestas se contrastan los procesos rápidos, inconscientes y automáticos vs.
lentos, conscientes y controlados. Stanovich distingue Sistema1 (rápido e implícito – más antiguo y
computacionalmente más rápido y potente) y otro Sistema2 (procesamiento explícito con
respuestas que pueden satisfacer criterios normativos – moderno, lento y con mayores demandas)

M.Goretti González 20
Sloman propone razonamiento reflectante cuyo cómputo refleja estructuras de semejanza y
relaciones de contigüidad y un razonamiento deliberad (sistema de repres.simbólica basado en re-
glas) La desventaja es que depende de la experiencia anterior y del contexto. El sistema basado en
reglas requiere procesos más lentos y costosos, aunque su aplicación es más gral y no depende del
contexto. El sistema conexionista aprovecha los recursos de procesamiento al obtener sus
inferencias el conocimiento representado y que puede generalizarse a otros semejantes. El de
reglas utilizará sus recursos de procesamiento para las situaciones concretas novedosas y en las
que sea necesaria la precisión de las inferencias.

Evans y Over, proponen distinguir entre dos nociones de racionalidad. La racionalidad1 o personal
(comportamiento eficaz y fiable para la obtención de metas) y la racionalidad2 o impersonal
(comportamiento basado en una razón que se encuentra fundamentada en teoría normativa) Es
una propuesta descriptiva de razonamiento pero no una propuesta psicológica. La distinción
psicológica la hacen entre el tipo de procesamiento: implícito (conexionista en el que se
representa el conocimiento tácito dependiente de la experiencia) y explícito (limitado por la
capacidad de memoria de trabajo, por un proc.secuencial y costoso y por depender tb del sistema
implícito).

Evans también señala la distinción entre procesos heurísticos (aquellos que seleccionan lo
relevante - implícito) y analíticos (operan sobre la información seleccionada – explícito). Evans se
inclina por la Tª de los Modelos Mentales y sostiene que esta teoría puede constituir una teoría del
razonamiento en gral, tanto deductivo como inductivo, y que el metaprincipio semántico de
validez tiene mayor realidad psicológica.

Críticas al respecto:
– Se sostiene que la Tª de los Modelos Mentales no está exenta de problemas pero tanto esta
como la de la basada en reglas podrían ser valiosas para explicar el razonamiento de distintos
suejtos o del mismo en distintas situaciones.
– Se critica la distinción entre los dos tipos de Racionalidades considerando que la racionalidad2
no aporta, ni ha aportado buenos modelos de racionamiento.
– Se defiende que no hay dos tipos de racionalidad, sino un solo sistema que puede ajustarse al
modelo normativo si las circunstancias pragmáticas son adecuadas.
– Problema general es la falta de especificación de ambos sistemas:

> Sigue existiendo polémica con respecto al modelo normativo del sistema explícito (R2)
> No hay especificación del procesamiento implícito, ni criterio para establecer el grado
de eficacia que se espera ddel sistema implícito (R1)
> La limitación entre ambos sistemas es difusa: puede haber metas que el sistema
explícito se proponga alcanzar y puede haber inferencias conforme a un modelo
normativo que sean implícitas.
> No se concreta la interacción entre ambos sistemas, ni se determinan las
circunstancias que ponen a uno frente a otro.
> Seguimos con una idea CIRCULAR DE RAZONAMIENTO:
Si se considera que el sujeto resuelve correctamente la tarea de acuerdo a modelo
normativo, el razonamiento es explícito.
Será implícito si el sujeto tiene experiencia con el problema como para que se haya
automatizado lo que fue en su día explícito. --- Fin --- (Ni me lo creo....)

M.Goretti González 21
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013

TEMA 3 – INDUCCIÓN CATEGÓRICA

1. INTRODUCCIÓN

La “inducción categórica” constituye uno de los procesos básicos del funcionamiento cognitivo por
medio del cual las personas reconocen y clasifican su entorno de clases. Estas categorías se consi-
deran los cimientos o estructuras a partir de las cuales vamos a poder seguir clasificando,
interpretando, generando inferencias y comunicándonos con todos aquellos que compartan una
estructuración categórica en común.

Entre las varias funciones de la inducción categórica son fundamentales para las diferentes
perspectivas teóricas que existen sobre el tema: el ahorro cognitivo que supone la agrupación de
las experiencias particulares en clases, y la posibilidad que ofrece la pertenencia categórica de
inferir más información que la que haya sido presentadda en una situación determinada. Los
sujetos extraen aquello que puede ser común a un conjunto de objetos o situaciones. Por ejemplo,
todas nuestras experiencias con los tipos de manzana (reineta, golden, macintosh,...) agrupando
las experiencias bajo la categoría de “manzana”. La categorización dentro del paradigma de la infe-
rencia inductiva es lo que permite agrupar las experiencias particulares en una clase general.
Además permite aplicar a un nuevo ejemplar de la categoría, información conocida sobre lo que
previamente ya ha sido agrupado. Encontrándonos con un nuevo ejemplar categorizado como
manzana, podemos generarle unas expectativas sobre este objeto, sin necesidad de comprobarlo,
como por ejemplo que sea comestible y crezca en un árbol.

2. LA ESTRUCTURACIÓN CONCEPTUAL

En la inducción categórica se resalta el papel que desempeña el conocimiento que se tiene sobre
las propiedades de los ejemplares, de modo que la descripción de estas propiedades permite
averiguar cómo los ejemplares se agrupan en clases. De esta forma encontramos que las
categorías se han definido por sus propiedades y sus reglas de formación se refieren a las
relaciones que se establecen entre estas propiedades.

2.1. Enfoque de las propiedades definitorias

El enfoque tradicional en el estudio de la organización categórica considera que ésta se define por
un conjunto de propiedades que son individualmente necesarias y en su conjunto suficientes. Una
propiedad es necesaria si está presente en cada uno de los ejemplares (tener alas si es un ave), y
un conjunto de propiedades es suficiente si cada ejemplar que presente dicho conjunto pertenece
al concepto o categoría en cuestión. Un ejemplar pertenece a una categoría si presenta este con-
junto de propiedades y su pertenencia será de todo o nada.

Un ejemplo clásico es el concepto de soltero. Está formado por tres propiedades: ser varón, adulto
y no estar casado (cuando se habla de una propiedad estamos haciendo referencia a un predicado,
“ser varón”; al hablar de atributo nos referimos al término genérico de esa propiedad, “sexo” y al
hablar del valor hacemos referencia a la especificación de ese atributo, en este caso “varón”).

M.Goretti González 1
Desde este enfoque se entiende que cada una de estas propiedades es por sí sola necesaria,
aunque no suficiente Un niño no es un soltero, aunque sea varón y no esté casado. Ahora bien,
conjuntamente estas tres porpiedades indicadas , sí son suficientes par ser soltero. Estas
propiedades se llaman definitorias porque contituyen colectivamente una definición del concep-
to.

Las principales Tªs psicológicas hasta principios de los 70 compartían los supuestos del enfoque
clá-sico, pero pronto los resultados experimentales subrayaban la falta de especificación de las
propiedades definitorias de algunos conceptos. No había una definición consensuada que
agrupara al conjunto de propiedades individualmente necesarias y conjuntamente suficientes para
los conceptos “naturales”, además muchas veces no podían establecer los límites entre un concep-
to y otro tan claramente como cabría esperar; los conceptos no se ajustaban fácilmente a una
representación por definiciones. Es un enfoque demasiado restrictivo que no incluye excepciones
ni a los ejemplares con limites imprecisos.

El uso que hacían los sujetos de los conceptos también erra contrario a los principios defendidos
por el enfoque clásico. En investigaciones de Rosch- 1975, 1978, se encuentra que algunos
ejemplares e consideraban más típicos o más representativos del concepto que otros: “Petirrojo”,
era miembro más típico de categoría “ave” ,que una “Gallina”, poniendo de manifiesto que no to-
dos los ejemplares de una categoría eran iguales, aunque la igualdad era lo esperado de acuerdo
con las propiedades definitorias.

2.2. Ennfoque de las propiedades probabilísticas

Estas deficiencias del enfoque clásico (definitorias) dan lugar a nueva perspectiva sobre la reestruc-
turación conceptual “enfoque probabilístico” y asume que los conceptos no están constituidos por
propiedades definitorias, sino que las propiedades más comunes o típicas de un concepto ocurren
sólo en determinados ejemplares. El conjunto de estas propiedades se dicen PROTOTIPO y descri-
be sólo a los mejores ejemplares del concepto (petirrojo de “ave”). (¿quién lo diría?... si me hubieran
preguntado a mí, hubiese dicho “canario” de pájaro, !claro!) El prototipo es la tendencia central de las
propiedades de sus ejemplares, reflejando la estructura redundante de la categoría como un todo.
Otros enfoques probabilísticos también incluyen la varianza entre estas propiedades, o consideran
que se representan las frecuencias de estas propiedades o una combinación de las mismas.

Este enfoque ofrece uuna explicación en niveles jerárquicos:


– nivel supraordenado: grado más alto de generalidad -> fruta
– nivel medio básico: donde se ubicaría el prototipo -> manzana. En este nivel estarían el mayor
número de propiedades que comparten los ejemplares de una categoría y el menor nº de pro-
piedades de otras categorías de contraste.
– nivel subordinado: es el más concreto -> manzana reineta

Malt y Smith presentan los resultados de puntuaciones de tipicidad que se obtuvo cuando los su-
jetos evaluaban en una escala de 1 a 7 varios ejemplares de los conceptos fruta y ave, donde
manzana sería el más típico, seguido de melocotón, pera, uva, fresa,.... y el menos calabaza, dentro
de las frutas (...yo hubiera dicho “kiwi” , je,je,je y no aparece) y dentro de aves: petirrojo, pájaro azul,
gaviota,... el meno pingüino. ¿Y dónde pondríamos a los “ornitorrincos”? Los resultados de este estudio cues-
tionan la adecuación del enfoque clásico al poner de manifiesto que no todos los ejemplares eran

M.Goretti González 2
equivalentes en cuanto a su pertenencia categórica. Los datos ponen de manifiesto que los efectos
de tipicidad parecen deberse a las propiedades no necesarias, cuestionando la viabilidad del
enfoque clásico de la categorización. Algunas de las propiedades que se dieron a los sujetos en el
estudio de Malt y Smith :

– Tiene plumas, Vuela, Pequeño, Insectívoro, Canta, Arborícola

El parecido familiar es una medida directa de la frecuencia de las propiedades del concepto siendo
los ejemplares con las puntuaciones más altas en parecido familiar, los que comparten el mayor
número de propiedades con los de su categoría, y el menor con los miembros de otras. El parecido
familiar es una medida indirecta de la semejanza de un ejemplar con respecto a los otros miem-
bros de la categoría. El parecido familiar también se encuentra correlacionando con la tipicidad:
los más típicos presentan las puntuaciones más altas. El orden de los ejemplares parece deberse a
las propiedades no necesarias, pues la propiedad necesaria “tener plumas”, contribuye de la
misma forma en cada uno de los ejemplares.

La tipicidad de un ejemplar es una medida de la semejanza entre dicho ejemplar y su prototipo.


Los miembros se relacionan por su parecido familiar y no por un conjunto de propiedades
definitorias. Por parecido familiar se entiende la semejanza media de un ejemplar con respecto a
otros miembros de la categoría y la desemejanza media con respecto a los miembros de otras cate-
gorías de contraste. Así, la estructura interna del concepto no es homogénea, ya que los miem-
bros se ordenan según la graduación de tipicidad. El parecido familiar es la base de la graduación
de tipicidad y una categoría se define por el parecido familiar entre sus miembros.

Sin embargo, también tiene este enfoque críticas. Los resultados sobre los efectos de tipicidad de-
penden del criterio de semejanza, de las categorías particulares que se han elegido y de los
ejemplares que se han puesto a prueba. Dos ejemplares de dos categorías distintas, tales como
“naranja” y “pelota”, son más semejantes entre sí con respecto a la forma que dos ejemplares de
una misma categoría, como naranja, plátano o fresa.

Roth y Shoben 1983, encontraron que el prototipo puede ser muy diferente en función del
contexto. El prototipo de aves varía en función de los siguientes contextos: “El pájaro voló sobre el
mar (gabiota)” o “el cazador disparó a ese pájaro (una perdiz)”. Así aunque la propuesta de unas
propiedades prototípicas es sumamente útil y descriptiva de la categorización humana, no es
suficientemente flexible como para explicar la sensibilidad que muestran los sujetos a la variabili-
dad tanto de los ejemplares como de las propiedades constituyentes de la categoría.

Una postura conciliadoras es la de los Modelos mixtos al proponer que los sujetos cuentan con
ambos tipos de propiedades, pues en determinados casos recurren a las propiedades definitorias o
diagnósticas. Teniendo en cuenta las prototípicas que son más accesibles, éstas se utilizan para la
categorización y se recurre a las diagnósticas sólo en casos especiales, como cuando hay que arbi-
trar en categoriza dudosa. Así, se entiende al prototipo como “heurístico por medio del cual se uti-
lizan las propiedades no necesarias y se recurre a las propiedades diagnósticas sólo en casos muy
determinados.

Armstrong, Gleitman y Gleitman 1983, sostienen que las propiedades diagnósticas no tienen que
ser necesariamente definiciones (ni fijas ni inamovibles).

M.Goretti González 3
2.3. Enfoque de los ejemplares

Parece natural pensar que un concepto es una abstracción, pero se propone que un concepto está
constituido por el conjunto de sus ejemplares (Brooks,1978), y ello quiere decir que es un
conjunto de casos concretos. La tipicidad de un ejemplar se determina por su semejanza con los
otros y la categorización consiste en evaluar si un objeto presenta algún nivel crítico de semejanza
con los mejores ejemplares. Este enfoque parece contradecir la idea de ahorro cognitivo . No obs-
tante, se indica que aún en el supuesto de que el sistema puediera almacenar todos los
ejemplares, en la categorización sólo se seleccionan algunos , los más típicos. La idea central de
este enfoque es que no es necesario asumir un único prototipo con el que se comparen los ejem-
plares, sino que la categorización será en función de la semejanza entre ejemplar y todos los
miembros.

Una de las ventajas de este enfoque es que no asume una única representación del concepto. Se
pueden utilizar varias representaciones dependiendo del criterio de semejanza y de los ejemplares
representados. Ello permite explicar los resultados obtenidos con los prototipos al considerar que
esta representación mantiene el criterio de mayor semejanza dentro de un conjunto de
ejemplares, y puede dar cuenta de la sensibilidad que muestran los sujetos ante otro tipo de infor-
mación: correlaciones entre propiedades, rango de la propiedad y el contexto. Al asumir
representaciones concretas de los ejemplares, se dota a la categorización de una enorme flexibili-
dad utilizando y relacionando toda la información representada según los objetivos planteados en
cada situación.

Barsalou 1983, pone de manifiesto que la categorización también ha de ser flexible como para ex-
plicar la agrupación temporal de unas propiedades. Algunos conceptos se generan sólo en un con-
texto muy determinado. Por ejemplo, si se pide a un sujeto que enumere aquellos objetoss de su
casa que salvaría de un incendio: joyas, cuadros, documentos, ... y estos formarían temporalmen-
te una nueva categoría. Estos conceptos, “dirigidos a metas” pueden presentar efectos de
tipicidad, aunque la base de estos efectos es cualitativamente distinta. El parecido familiar no
predice la tipicidad, sino que esta se encuentra determinada por el peso de las propiedades en el
contexto.

Los resultados de estos estudios ponen de manifiesto que la inducción categórica es un proceso
muy flexible en el que es necesario explicar tanto la estabilidad como inestabilidad de las catego-
rías.

Las críticas se centran en la necesidad de contemplar las generalizaciones que se producen durante
el aprendizaje y la necesidad de especificar el criterio de coherencia interna que limite el ámbito
de la categorización.

Se han propuesto modelos mixtos en los que el enfoque de los ejemplares se complementa con
algún nivel de abstracción que se corresponde con el prototipo o modelos que dan cuenta de
cómo puede surgir la abstracción a partir de la representación de los ejemplares. El mayor proble-
ma es poder identificar cuáles son las restricciones que se imponen sobre este proceso commo
para permitir que el sistema manifieste en todo momento un comportamiento coherente a la hora
de categorizar “el mundo”.

M.Goretti González 4
3. LA COMBINACIÓN DE CONCEPTOS.
3.1. Modelo de modificación selectiva

Osherson y Smith 1981, abordaron la problemática del cómputo de la tipicidad de los conceptos
compuestos a partir de los conceptos prototípicos que lo constituyen. Los partidarios de la Tª del
prototipo asumían que ésta podía formalizarse por medio de la teoría de los conjuntos difusos y
para la explicación de la combinación conceptual se basaban en que el juicio de tipicidad sobre un
concepto compuesto no podía ser mayor que la tipicidad de sus conceptos simples. El significado
del concepto “sofá” se refiere al conjunto de todos los sofás y el concepto “cama” se refiere al
conjunto de todas las camas. El resultado de la combinación de ambos conceptos es la intersección
de ambos conjuntos.

Esta teoría permite calcular el grado de pertenencia categórica de un ejemplar por medio de la
función CA : U -> [0,1] la cual expresa el grado en un intervalo de entre 0 y 1, en que un ejemplar X
de un Universo de discurso (U) pertenece al conjunto difuso A. Para el caso de la conjunción de
dos conjuntos A y B, CA^B , se establece que el valor de la pertenencia categórica de un concepto
compuesto X es el mínimo de sus valores de pertenencia a sus dos conjuntos constituyentes:
CA^B (x) = valor mínimo de [CA (x), CB (x)] Por ejemplo, podríamos haber obtenido el valor de perte-
nencia de 0,75 en el conjunto de “sofá” y un valor de pertenencia de 0,40 en el conjunto de
“cama”. Aplicando la regla obtendríamos para el concepto compuesto un valor de pertenencia
categórica de 0,40 (valor mínimo de (0,75.0,40) = 0,40]

Sofá
SOFÁ CAMA
cama
Conjunto Conjunto
C
A^B A B

Valor de pertenencia 0,40 0,75 0,40

Osherson y Smith , encuentran que las predicciones de la teoría de los conjuntos difusos no se
cumplían en los juicios de tipicidad sobre la conjunción de conceptos y proponen un modelo que
denominan Modelo de modificación selectiva para poder explicar el proceso de combinación
conceptual dentro del marco teórico de los prototipos. Su desarrollo fue debido a querer explicar
algunos resultados sobre los juicios de tipicidad de conceptos compuestos por la combinación
sustantivo-adjetivo. Los sujetos consideraban que la tipicidad de un concepto compuesto era
mayor que la de algunos de los conceptos simples que lo constituían.
– Si se evaluaba la tipicidad de un ejemplar particular de “sangre roja” (v.g. Donar) éste era
mayor en el compuesto “sangre roja” que en “sangre” a secas. (Supongo que en sangre al igual
era más típico v.g. herida).
– En estos juicios de tipicidad eran mayores cuando los conceptos compuestos reunían
conjunciones incompatibles como “sangre azul” (los adjetivos denotan un valor poco frecuen-
te. El grado de tipicidad de un ejemplar de “sangre azul” (v.g. Príncipe) para el concepto com-
puesto “sangre azul”, v.s. concepto simple como “sangre” (Es normal... a no ser que esté pensando en el
príncipe drácula, je,je,je cuando lo ponga de ejemplar de la categoría “sangre”.) era mayor que en el caso del
ejemplar del compuesto “sangre roja” frente a “sangre”.
– Al evaluar el ejemplar (en este caso como ejemplar) “sangre roja” dentro de la categoría o
concepto “sangre azul”, la tipicidad era menor cuando se evaluaba con respecto a “sangre azul”
que cuando lo era respecto a “sangre”:

M.Goretti González 5
Sangre azul Sangre
Sangre Tipicidad menor
roja Sangre
ejemplar < roja “Sangre roja” como ejemplar de “sangre”

Estos resultados se conocen como el “efecto de la conjunción”.

El Modelo de modificación selectiva parte de una representación prototípica conforme a una es-
tructuración conceptual en la que se incluyen los atributos (v.g. Color) con pesos diagnósticos y los
valores de estos atributos (v.g. rojo, amarillo, azul,...) se encuentran ponderados con respecto a su
prominencia. El atributo color será más prominente que el atributo “líquido”. Se refiere a que si
voy a describir por ejemplo la palabra , categoría o concepto “sangre”, no pensaré inicialmente en
líquido, sino en color, para describirlo teniendo el “color” un valor diagnóstico alto que permitirá
discriminarlo frente a otros líquidos: sangre v.s. leche, agua,... cerveza.

Cada constituyente del concepto compuesto desempaña una papel distinto y asimétrico, y éste no
puede explicarse por la simple intersección de las propiedades de sus conceptos constituyentes. La
combinación entre “sofá” y “cama” no es igual en “sofá cama” que en “cama sofá”. El proceso de
modificación selectiva parte de la identificación del concepto que desempeña la función de
sustantivo como marco conceptual sobre el que se va a operar y del concepto que desempeña la
función de adjetivo como aquello que opera o modifica.

Para determinar el cómputo de tipicidad de un ejemplar se utiliza la regla de contraste de Tversky


1977, que calcula la semejanza mediante el contraste entre las propiedades comunes y no compar-
tidas entre ejemplar y prototipo. La semejanza es una función creciente de las propiedades que
son comunes al prototipo y al ejemplar, y una función decreciente de las propiedades no
compartidas entre ambos. Por ejemplo, al evaluar un ejemplar correspondiente “sangre roja”
encontramos que éste es más típico del concepto “sangre roja” que de “sangre” porque el atributo
color rojo ha incrementado su valor y prominencia en el concepto compuesto. El color cambia su
ponderación en función del valor rojo o azul, pues el compuesto compatible “sangre roja” es más
semejante al concepto simple “sangre” que comparte el valor rojo que al concepto incompatible
“sangre azul”, pero las conjunciones incompatibles como “sangre azul” parecen ser más típicas
que las conjunciones “sangre roja” porque en este caso se ha ponderado el valor azul y la diagnos-
ticidad del atributo color ha aumentado.

El modelo de modificación selectiva ofrece un procedimiento concreto y especificado para el


cálculo de la tipicidad de los conceptos compuestos y es además muy simple y limitado pues está
diseñado para conceptos compuestos con sintaxis: sustantivo-adjetivo.

Otra limitación es que trata adjetivos simples y que presumiblemente sólo afectan a una propiedad
del prototipo, pero hay adjetivos más complejos pues algunos simples como el color puede
relacionarse con otros, como color verde con el grado de acidez. Estas relaciones entre las propie-
dades forman parte del prototipo y el cambio en el valor de un atributo también modifica al resto
de los atributos relacionados.

M.Goretti González 6
3.2. Modelo de especialización conceptual

El modelo de especialización conceptual de Cohen y Murphy 1984 asume que los conceptos
simples se encuentran representados por esquemas que estructuran el conocimieento con
variables y valores. En el caso de los compuestos hay un concepto principal y otro que lo modifica,
dando especialización detallada de los valores del concepto principal. Hasta aquí el Modelo de
modificación selectiva y el modelo de especialización conceptual son semejantes. Asumen
representación asimétrica en la combinación conceptual. La diferencia entre ambos radica en que
para el modelo de especialización conceptual este proceso no es posible sin antes acceder a la
base de conocimientos que tiene el sujeto.

Antes de iniciar el proceso de categorizar se tiene que consultar la base de conocimientos para
decidir cuál variable es la más apropiada y una vez hecha la especialización se debe ampliar y
refinar el nuevo concepto con el fin de que sea coherente y completo. En el ejemplo de “sangre
azul”, podemos ver ahora cómo el valor “azul” para el atrubuto color se pondera en prominencia y
diagnósticidad y se tiene que poner en relación con el conocimiento que tenemos sobre el len-
guaje figurado (linaje noble). Se puede decir que el Modelo de modificación selectiva forma parte
del modelo de especialización conceptual pues comparten aspectos muy semejantes.

3.3 Modelo híbrido de ejemplares y teorías previas

Medin y Shoben 1988, proponen un modelo híbrido que conjuga la representación de ejemplares
y el conocimiento del mundo. Es propuesta inespecífica que contempla aspectos centrales del pro-
ceso de combinación conceptual. Los autores manifiestan a través de sus resultados
experimentales algunas de las insuficiencias del modelo de modificación selectiva y la necesidad
de una teoría de la estructuración conceptual más completa y con mayor capacidad de cómputo.

Los conceptos tienen una estructuración interna rica en el nº de relaciones que se establecen entre
sus propiedades y esto es una limitación para el modelo de modificación selectiva (asume que las
propiedades son independientes y que el cambio en una de ellas no afecta al resto.

Los resultados de Medin y Shoben pusieron de manifiesto que el cambio en el valor de una de las
propiedades del concepto provocaba también el cambio en los valores de las propiedades
relacionadas. En el caso de evaluar la tipicidad de una “cuchara de madera” y una “cuchara de
metal”, los sujetos consideraban que la “cuchara de metal” era más típica del concepto simple
“cuchara” que la “cuchara de madera”, pero la “cuchara de metal” era menos típica del concepto
“cuchara grande” que la “cuchara de madera”.
cuchara Cuchara grande

Dimensión Cuchara Cuchara


de madera Cuchara metal Cuchara
material metal madera

De acuerdo con el modelo de modificación selectiva, la diferencia entre “cuchara de metal” y “cu-
chara de madera” con respecto al concepto simple “cuchara” está en los pesos de la dimensión
tipo de material.

Con respecto al contexto, los autores encontraron que el patrón de semejanza variaba en función

M.Goretti González 7
del sustantivo sobre el que se aplicaban los adjetivos: Los mismos adjetivos, negro, gris y blanco,
aplicados a conceptos distintos, como “nube” y “pelo”, los sujetos consideraban blanco y gris más
semejantes para pelo , y negro y gris semejantes para nube. Igual que la propiedad de “ser curva”
era diferente si se trataba de un plátano que si era un boomerang. Un “plátano no curvo” era más
típico de “plátano” que un “boomerang no curvo” de “boomerang”. Por tanto parece que en la
estructuración conceptual hay algo más que el simple cómputo de pesos en las distintas
propiedades, y parece que existiera toda la información sobre las relaciones entre propiedades en
algún lugar no directo representado, pero sí que se acceda a ella según se vaya necesitando.

3.4. Modelo de especialización conceptual ampliado

Wisniewski 1997, presenta un análisis bastante exhaustivo sobre combinación conceptual


“sustantivo-sustantivo” e identifica tres tipos básicos de combinaciones. Los concepto pueden
hacerlo por:
1. Relación entre concepto base y el concepto que lo modifica (perro policía)
2. por una o más propiedades que se aplican sobre el concepto base (pez martillo)
3. por una combinación híbrida de los dos conceptos (apart-hotel, donde se da algunas pro-
piedades de hotel y apartamento o una conjunción de ambos)

Las investigaciones se han centrado en las combinaciones que se generan por la relación entre el
concepto base y el concepto modificador. Se han llegado a identificar las relaciones básicas
mediante las que se pueden combinar los conceptos y se asume que la frecuencia con la que se ha
utilizado el concepto modificador y las relaciones básicas influyen sobre la interpretación de los
nuevos conceptos combinados. Otra perspectiva asume una representación por esquemas en la
que el concepto principal adopta la relación del concepto modificador, por ejemplo “pez martillo”,
adopta la variable “forma” de martillo.

Wisniewski 1997, amplía el modelo de especialización conceptual añadiendo los procesos de


comparación y construcción para los conceptos compuestos por propiedades y combinanciones
híbridas. Estos son semejantes a los propuestos por Gentner para explicar el razonamiento analó-
gico y son necesarios para determinar las semejanzas y diferencias entre el concepto base (pez) y
el que lo modifica (martillo) e integrar la nueva información del nuevo concepto. Las propiedades
no se suman, sino que se crean produciendo un cambio conceptual.

4. EL PROCESO DE CATEGORIZACIÓN

Una buena parte de las investigaciones se apoyan directa o indirectamente en la noción de


semejanza. En las propiedades prototípicas habíamos comentado que determinados ejemplares se
consideraban más típicos o más representativos que otros, y cómo la tipicidad de un ejemplar era
una medida de la semejanza del ejemplar con su prototipo.En el enfoque de los ejemplares se
rechaza la idea de un prototipo y se defiende la categorización como cómputo de la semejanza
entre los ejemplares, en lugar de una descripción unitaria de la clase como un todo. Este presenta
la ventaja de no restringir mediante una descripción abstracta los ejemplares que se agrupan en
una categoría.

La semejanza parece ser lo que hace que una categoría pueda juntar un conjunto de ejemplares.

M.Goretti González 8
Sin embargo es un término escurridizo. Así, encontramos que muchas cosas parecen semejantes
por le solo hecho de pertenecer a la misma categoría, donde los sujetos comentan que puede
estar influida por el propio conocimiento de aquello comparado perteneciente a la misma
categoría.

Según Tversky 1977, la semejanza se define en función de las propiedades que son comunes y
distintivas en un conjunto de ejemplares, pero que se encuentran ponderadas en términos de su
saliencia. Depende de las ponderaciones de las propiedades, lo que nos permite explicar el porqué
la ballena se agrupa a mamífero, a pesar del nº de propiedades en común que posee con los peces.
El conocimiento teórico ha permitido ponderar diferencialmente unas propiedades frente a otras.
Tversky demuestra cómo las ponderaciones varían en función del contexto y de la tarea experi-
mental, dando lugar a que no existe una respuesta unívoca a la pregunta de cuán semejante es un
objeto con respecto a otro. Una propiedad es aquello que por consenso se ha validado en una
muestra de sujetos. Sin embargo, la consideración del conjunto implícito de contraste y el nivel de
especificidad elegido determinan las propiedades que se incluyan en las listas de los sujetos. Estos
no enumeran no todo lo que conocen, sino las propiedades relevantes en esa situación.

Frente a este principio general, otros enfoques proponen que es el propio conocimiento que
tienen los sujetos y sus teorías ingenuas sobre el mundo lo que restringe la construcción y
organización categórica. De esta forma se entiende que la categorización no se da aisladamente
sino que los conceptos se organizan circunscritos al conocimiento estructurado o tªs ingenuas que
tienen los sujetos y que les permite actuar coherentemente. La categorización basada en el cono-
cimiento organizado permite articular las relaciones inter e intracategorías de modo que la
estructuración conceptual no se reduzca a listas de propiedades sino que se encuentre inmersa en
un cuerpo de conocimimientos con estructura y coherencia.

Bajo este enfoque de una categorización guiada por el conocimiento podemos incluir aquellas teo-
rías que asumen una representación de la información en estructuras de conocimiento, tales como
los esquemas, los guiones, los marcos o los modelos mentales. Abelson 1981, consideraba que los
esquemas o guiones pueden equipararse a una categoría en la que también cabe el parecido
familiar entre diversos ejemplares. En contraposición al prototipo, un esquema no especifica los
valores de sus propiedades, sino que estas propiedades (variables) son genéricas y adoptan valores
en función del contexto. La idea del proceso de inducción categórica será distinta dependiendo del
tipo de estructura que se propaga para representar el conocimiento, por ejemplo, la aplicación de
reglas, la generación de modelos mentales, el emparejamiento de patrones,... Seguimos con el
detalle de dos teorías sobre la inducción categórica que explican la flexibilidad de este proceso:
– La inducción categórica como sistema de reglas distribuidas.
– La inducción categórica como sistema de activación distribuida.

4. La inducción categórica como sistema de reglas distribuidas

Al principio se comentó que de una de las fuentes más emblemáticas de la categorización es la


clasificación y organización de los ejemplares. Sin embargo, otros autores indicanque esta función
puede que sea una derivación de una función todavía más fundamental como es la generación de
inferencias relevantes para una meta. Según este enfoque, los aspectos relevantes del proceso de
categorización pueden determinarse solo si se tiene en cuenta la interacción entre las propiedades
de los ejemplares y las situaciones causales en las que ocurren. El proceso que determina cuáles

M.Goretti González 9
son los aspectos de los ejemplares que van a ponderarse, tiene que basarse en una explicación de
por qué ciertas propiedades asumen unos valores y otros no lo hacen. Así se resuelve por la
representación de la incidencia estadística de las propiedades entendiéndose que la ponderación
de las propiedades no es cuestión estática, sino dependiente del contexto y de las metas del
sistema.

Esquemas de razonamiento pragmático está enmarcado dentro del paradigma de representación


simbólica . Los supuestos son:
1. El sistema de procesamiento se concibe como un aplicador de reglas en el que las
agrupaciones de reglas consolidadas se denominan “esquemas”.
2. El procesamiento es paralelo y las reglas se encuentran distribuidas en varias estructuras de
forma que en un momento dado puedan ser complementarias o inhibitorias.
3. Las restricciones impuestas sobre el mecanismo de procesamiento con el fin de que éste
puede efectuar la ponderación se encuentran determinadas por el propio sistema y el
contexto.

Este enfoque busca la combinación de dos aspectos clave:


1) la flexibilidad del proceso de categorización, y
2) su organización.

La flexibilidad es la ejecución en paralelo de un conjunto de reglas. Aquellas que muestren ser


efectivas serán ponderadas y aquellas que no se modificarán o eliminarán.
La organización se representa por las agrupaciones de reglas interrelacionadas con condiciones o
acciones que se solapan.

Estos aspectos procedimentales son comunes a los de los sist de producción de Newell y Simon, 72
que se basan en el emparejamiento cíclico y la ejecución de reglas de condición-acción. La
actividad se puede describir en términos de un ciclo de tres pasos:
1. el emparejamiento de los hechos y reglas para determinar cuáles satisfacen las
condiciones.
2. La selección de un subconjunto de las reglas emparejadas para que sean ejecutadas y
3. la ejecución de las reglas seleccionadas para que lleven a cabo las acciones específicas.

Estas reglas estánn organizadas en función de los patrones de las condiciones y acciones dando lu-
gar a dos tipos de organización:
– La organización implícita: si la acción que es consecuencia de una regla satisface la condición
de una segunda regla, entonces la ejecución de la primera conducirá a la ejecución de la segun-
da.
– La organización explícita: la conexión entre reglas viene indicada directamente y las reglas que
se activan conjuntamente quedarán conectadas con el tiempo formando un conjunto
interrelacionado de reglas.

4.1.1. Descripción del proceso de inducción categórica

Este modelo concibe las categorías como un conjunto de reglas agrupadas que comprenden
supuestos probabilísticos sobre las propiedades que ocurren con otras propiedades y en el que se
pueden activar simultáneamente varias reglas. Se corresponden con las agrupaciones de reglas

M.Goretti González 10
explícitas o implícitas en función del contexto en el que ocurran.

Cada uno de los nodos representa la condición de una regla y los nodos intermedios representan
su acción correspondiente. El nodo C3 recibe el mayor apoyo y se disparará la acción correspon-
diente: donde el ejemplar se categorizará como “perro”.

PROPIEDADES Ti ene pel o Ti ene col a Ladra

CATEGORÍAS cocodri l o gato perro ardi l l a

C1 C2 C3 C4

acción
C3
Cuando las categorías no son mutuamente excluyentes, las reglas correspondientes pueden
activarse simultáneamente, de forma que, por ejemplo, un animal peludo con cola, puede
categorizarse como perro, gato o ardilla. Cuando son mutuamente excluyentes, pueden disparar
acciones que entran en conflicto, se establecen reglas que inhiben a las reglas conflictivas.

Además cada una de las reglas cuenta con un valor de apoyo y una ponderación. En este caso con-
creto, la información que entra en el sistema apoya de igual forma a los nodos representados. Sin
embargo, la mayor ponderación previa hace que se estime por una categorización tentativa. El
sistema no genera generalizaciones poco plausibles, pues se cuenta con un umbral de confirma-
ción que establece un criterio para la variabilidad del conjunto de propiedades que se están
considerando.

En la concepción de este modelo se entiende que estas reglas son un conjunto de expectativas que
se consideran verdaderas siempre y cuando no se contradigan por la informació presentada al sis-
tema. En ausencia de mayor información, estas expectativas por defecto proporcionan el mejor es-
quema para la situación actual. La probabilidad condicionada de una categoría, considerando la
observación de algunos de los valores de las propiedades de un ejemplar, puede representarse
implícitamente por la fuerza de un conjunto de reglas. A través de la organización explícita (por
medio de los marcadores que indican una conexión directa) se enlazan las relaciones entre las
categorías. De esta forma, la categorización no depende de una descripción monolítica, sino de
una combinación de propiedades y situaciones.

A través de estas jerarquías por defecto se pretende representar la incertidumbre sobre la que
tiene que operar el sistema: en un nivel las generalizaciones que son útiles y en otro nivel, la
información más específica de las excepciones representándose la uniformidad y la variabilidad
que existe en el ambiente. El número de ejemplares necesarios para alcanzar una generalización
será función de esta variabilidad.

El modelo mental de un objeto particular sería un conjunto de reglas derivadas de una variedad de
conceptos supraordenados más cualquier información particular disponible. Los ejemplares típicos
serán aquellos a los que se adhieren las reglas por defecto de las categorías supraordenadas, mien-
tras que los ejemplares atípicos se emparejarían con reglas excepcionales. Lo que se propone des-

M.Goretti González 11
de el modelo es una abstracción y representación del conocimiento general de las distribuciones
de las propiedades por medio de las agrupaciones de reglas. Los resultados ponen de manifiesto
que los sujetos saben mucho más de la estructura categórica que la simple formación sobre las
tendencias centrales o prototipos.

En este modelo se intenta explicar la compleja red de relaciones en función del conocimiento que
el sujeto construye en términos causales y que algunos como Murphy y Medin 1985, lo
denominan conocimiento teórico. Las teorías que se contruyen explican el mundo y en función de
ellas, éste se divide en clases. El paradigma simbólico explica la categorización fundamentándose
en el conocimiento que se contruye sobre el mundo que nos rodea y que constituye una Tª sobre
el mismo.

4.2. La inducción categórica como sistema de activación distribuida

Este es un modelo conexionista que comparte con el anterior algunos principios generales, pero el
enfoque conexionista parte de otros supuestos. Uno de estos, en contraposición al paradigma
simbólico clásico, se refiere al tipo de arquitectura del modelo. El sistema de procesamiento del
enfoque conexionista se encuentra constituido por redes de activación que comprenden un con-
junto amplio de unidades de procesamiento unidas por conexiones con pesos diferenciados. Estos
modelos describen los procesos mentales en términos de los patrones de activación en un
conjunto de unidades y no por unidades particulares. Estas unidades son entidades de
procesamiento que asumen unos valores de activación basados en la suma ponderada de lo que
entra en el sistema y de las otras unidades que están dentro del sistema. El papel que desempaña
una unidad se defiene por la fuerza de sus conexiones, tanto excitatorias como inhibitorias.

Las conexiones son el medio por el cual interacctúan las unidades. Se les conoce como modelos
PDP o de procesamiento distribuido y paralelo, queriendo destacar que el procesamiento es
resultado de las interacciones que ocurren entre un número importantee de unidades. Aunque se
podría pensar que las jerarquías por defecto son análogas a las unidades, dado que ambas guían la
entrada de información en la búsqueda de buen ajuste, no hay en estos modelos conexionistas
ningún análogo de las variables o de los valores por defecto. No existe ninguna noción sobre una
estructura interna constituida y la aparente aplicación de reglas emerge de las interacciones entre
unidades de activación.

En este tipo de modelo el conocimiento adopta la forma de una red que satisface restricciones, y
éstas vienen impuestas por el contexto. Aunque en el modelo anterior también las restricciones
contextuales desempeñaban un papel fundamental, en estos modelos no existen entidades
representacionales que se correspondan con conceptos, jerarquías por defecto o esquemas. Estas
entidades se encuentran implícitas y emergen de las interacciones de un amplio conjunto de res-
tricciones.

4.2.1. Descripción del proceso de inducción categórica


Tabla 3.3.

Algunos detalles a tener en cuenta, sería que las propiedades se encuentran distribuidas por toda
la red y la fuerza de sus conexiones hace que el patrón adquiera una configuración determinada.

M.Goretti González 12
Estas redes de activación son sistemas de procesamiento que pueden computar estadísticos sobre
sí mismas de forma que reflejen las fluctuaciones de ambiente del que se derivan sus datos. El
procesamiento ocurre por medio de la evolución de estos patrones de activación, que van
actualizando los pesos entre conexiones. Cualquier configuración inicial con elementos activos e
inactivos puede evolucionar hacia una configuración estable partiendo de unos pesos iniciales. Se
asume que cada vez que entra una estimulación en el sistema, éste se mueve hacia un estado es-
table en el que se alcanza una bondad de ajuste máxima (es un sistema reactivo guiado por los
datos).

Cuando entra información en el sistema, todas las unidades ajustan su activación con el fin de sa-
tisfacer el mayor número posible de restricciones. Se podría pensar que el sistema se encuentra
continuamente esculpiendo una superficie en función de aquello que va recibiendo y de las
interacciones con el resto de unidades.

En el enfoque conexionista, y más concretamente en los modelos que se conocen como modelos
de satisfacción de restricciones, se reemplaza el marco simbólico por un nivel subsimbólico,
denominado así por encontrarse entre las conexiones neuronales y los cómputos mentales.
Conviene recordar que los constructos del cómputo mental son datos cognitivos que se explican
por un sistema próximo en su funcionamiento al nivel neuronal.

Categoría o concepto: “exámenes”


Ejemplar con mucha tipicidad en mi caso: 1º café
2º chocolate
3º nota
... me voy a por uno de los dos primeros, je,je,je (me lo pide el contexto)

M.Goretti González 13
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013

TEMA 4 – EL RAZONAMIENTO SILOGÍSTICO: CATEGÓRICO Y TRANSITIVO

1. INTRODUCCIÓN

La psicología del razonamiento ha planteado sus investigaciones de acuerdo con las dos modalida-
des gral de inferencia: las deductivas y las inductivas. Las inferencias deductivas se siguen necesa-
riamente de una información a otra. Esta permite alcanzar una conclusión que se siga necesaria-
mente de las premisas del argumento. Cuando la psicología se planteó el estudiar el razonamien-to
humano importó el modelo lógico y las investigaciones se centraron en el análisis del rendimiento
en función del criterio de validez lógica. En las tareas que se presentan se pide a los sujetos que
evalúen si el argumento es válido o inválido, que elija de entre varias conclusiones, cuál es la que
se sigue necesariamente de las premisas o que generen su propia conclusión en función de las pre-
misas presentadas. El interés y reto de la psicología del razonamiento es explicar cómo razonan los
sujetos y por qué se equivocan.

Los errores encontrados en la realización de estas tareas de raz.deductivo ha dado lugar a distintos
enfoques teóricos que van desde aquellos que consideran irrelevantes los principios lógicos en la
explicación del razonar hasta los que defienden una lógica mental, que puede estar más o menos
suavizada por el concepto de “lógica natural”, pero en la que hay un conjunto de reglas abstractas
y en la que los erroes no demuestran el fracaso de razonar lógicamente, sino la existencia de
determinadas condiciones que conducen al error.

Según el tipo de argumento deductivo, las investigaciones se pueden agrupar en tres: razonamien-
to silogístico categórico(proposiciones con cuantificadores), razonamiento silog.transitivo
(proposiciones con relaciones internas) y el razonamiento porposicional (proposiciones con el
condicional, bicondicional, negación y disyunción).

2. RAZONAMIENTO SILOGÍSTICO CATEGÓRICO

El análisis de la deducción se centra en el establecimiento de las conexiones encadenadas por


medio de la cópula “es”. Un argumento categórico está constituido por dos premisas y una conclu-
sión en la que se establece una nueva conexión a través del término medio. La premisa que
contiene el sujeto de la conclusión es la premisa menor y la que lleva al predicado, es la mayor. En
la estructura se presenta:
Representación con contenido.
Todos los B son A. ... anda el predicado. > Primero la premisa mayor que lleva el término medio y es el
(Término medio) predicado de la conclusión.

Todos los C son B


(el sujeto) > Luego la premisa menor, que lleva el sujeto de la conclusión
relacionado con el término medio
Todos los C son A ....................... > La conclusión, con su sujeto y predicado.

Todos los hombres prudentes, evitan el tabaco. (Predicado en la premisa MAYOR)


Todos los médicos son hombres prudentes. (Sujeto en la premisa menor)
Todos los médicos evitan el tabaco. ( Conclusión)

M.Goretti González 1
También contienen enunciados de cantidad (UNIVERSAL -> todos, ninguno; PARTICULAR -> algún,
algunos) y de polaridad ( afirmativa o negativa) dando lugar a cuatro tipos de proposiciones:
universal afirmativa, universal negativa, particular afirmativa o particular negativa.

1. UNIVERSAL afirmativa (A) Todos los A son B;


2. UNIVERSAL negativa: (I) Ningún A es B; No todos los A son B;
3. particular afirmativa: (E) Algún A es B.
4. particular negativa: (O) Algunos A no son B;

También hay que tener en cuenta la posición del término medio (B) en cada una de las premisas.
Existen cuatro posiciones que dan lugar a cuatro figuras del silogismo:
FIGURA 1 FIGURA 2 FIGURA 3 FIGURA 4
B A A B B A A B
C B C B B C B C
C A C A C A C A

Es la más utilizada, la más


fácil de generar
Se dan 256 silogismos posibles de la combinación de los
¡Qué bonita flor parece! cuatro enunciados en las dos premisas y la conclusión y
en las cuatro figuras. Pero de todos ellos, solo 24 silogísmos
categóricos son válidos. Silogismos válidos con conclusiones fuertes y débiles (24):
FIGURA 1 AAA AAI AII EAE EAO EIO - Ejemplo de AAI ->
Primera premisa A (universal afirmtiva : Todos.... son ...
ej. a la Segunda premisa A (universal afirmt. : Todos.... son....
drecha
Conclusión I (Particular afirmativa) Algunos ... son ....
FIGURA 2 AEE AEO AOO EAE EAO EIO
FIGURA 3 AAI AII EAI EIO IAI OAO
FIGURA 4 AAI AEE AEO EAO EIO IAI

Hay que señalar que el nº total de silogismos válidos incluye todas las conclusiones válidas, sean
fuertes o débiles. Una débil será aquella que se obtenga como conclusión particular, cuando se
permite una conclusión universal. Por ejemplo, un AAA sería:

FIGURA 1 Modo AAA Es un silogismo válido fuerte AAA


B A Todos los hombres prudentes evitan el tabaco A como figura 1 y con conclusión A
C B Todos los médicos son hombres prudentes A Pero podríamos decir:
C A Todos los médicos evitan el tabaco A Algunos médicos evitan el tabaco. (I)

Podemos ver que la conclusión fuerte sería la universal afirmativa (A) pero existe posibilidad de
concluir con una débil, así considerada por existir la posibilidad dentro de esa figura de la AAA.
Algunos autores no hacen esta diferencia y solo consideran las conclusiones fuertes e el número de
silogismos válidos, siendo 19 los considerados:
FIGURA 1 AAA AII EAE EIO
FIGURA 2 AEE AOO EAE EIO
FIGURA 3 AAI AII EAI EIO IAI OAO
FIGURA 4 AAI AEE EAO EIO IAI

M.Goretti González 2
En un estudio que hizo Johnson -Laird y Steedman (1978) se encuentra que no siempre se
considera la segunda premisa como sujeto de la conclusión, produciéndose conclusiones en ambos
sentidos -> C A (que sería lo que se supone sería la forma de cualquier conclusión en cualquier
figura, por eso todos la tienen así en el cuadrito de arriba) y también se concluye con la forma A C
Al considerar ambos tipos de conclusiones, el nº de silogismos asciende a 512. Los resultados mos-
traron el efecto de la figura 4 y 1. Ello significa que muchos (71%) daban una conclusión A-C (fig.4)
y otro tanto, daba la conclusión de C-A (fig.1) Las conclusiones A—C se ajustan a un cambio de or-
den de las premisas y a un posible cambio de término medio. En el caso de figura 4, donde A-C es
la conclusión, lo que se hace mentalmente y sin darnos cuenta (opinión propia) es invertir el orden de
las premisas y así la figura 4 se convierte en fig.1 (¡todo esto automático, claro!)

FIGURA 4 Tenemos que entender que son formas dife-


A B Todos los médicos son hombres prudentes rentes de plantearnos los argumentos. En el
B C Todos los hombres prudentes evitan el tabaco primer caso nos presentan las premisas de
C A una manera con una figura 4, y en el segun-
Se supone que Todos los médicos evitan el tabaco A-C do caso nos las presentan como figura 1.
decimos A - C Se supone que para concluir de igual modo:
Todos los médicos evitan el tabaco
FIGURA 1 hemos invertido la premisa donde el sujeto:
B A Todos los hombres prudentes evitan el tabaco A B B C
C B Todos los médicos son hombres prudentes B C A B
C A A C A C
(lógicamente sería la Todos los médicos evitan el tabaco
forma de concluir)

Los trabajos experimentales sobre el silogismo categórico se centran en el cómo influyen los
aspectos estructurales y de contenido en el rendimiento de los sujetos. El rendimiento de los suje-
tos ha sido variable, desde 89% de respuestas correctas hasta un 8%. (¡Vamos, que nos dejamos llevar por
las apariencias! Je,je,je)

2.1. La hipótesis de la atmósfera de las premisas

La hipótesis de la atmósfera no es una teoría, sino una explicación basada en la tendencia que se
observa en los sujetos al dar sus respuestas y que parecía determinada por los aspectos
estructurales del silogismo. El trabajo de Woodworth y Sell 1935, presentó una tarea en donde se
debía evaluar la validez de los argumentos. Encontraron que se equivocaban y que ello se
explicaba por el modo de las premisas. Cuando las dos premisas eran UNIVERSALES ( A – E) afirma-
tiva o negativa, mostraban tendencia a elegir una conclusión UNIVERSAL y cuando las dos premisas
eran afirmativas (A – I) daban conclusión afirmativa. Lo llamaron “Atmósfera” pues inducía a con-
clusión del mismo tipo. Mas tarde en 1969, Begg y Denny, explicitaron los principios del efecto te-
niendo en cuenta cantidad y cualidad de las premisas:
– Cuando las premisas contienen al menos una premisa particular, entonces la conclusión es
particular, y en el caso contrario es universal, y
– Cuando contienen al menos una premisa negativa, entonces la concluión es negativa, y en el
caso contrario, afirmativa.

Lo enunciaron como “Efecto atmósfera” siendo objeto de estudio para investigaciones que que-
rían averiguar sobre identificación y análisis de los errores (...no tenían que hacer, pero ¡cómo admiro a esta
gente!)

M.Goretti González 3
Sells 1936, indicar que puede ser debido a un principio gral de prudencia por el que se supone
que las conclusiones son menos prudentes que las particulares. Aún así y siendo bastante evidente
el que no queramos etiquetar a TODOS por un por si acaso, no ha tenido demasiada aceptación,
pues parece ser que también se evidencia que aún queriendo ser prudentes, no concluimos muy
frecuentemente de forma particular-negativa (O), cuando sería lo que nos decía el amigo Sells.

La tendencia no lógica del efecto atmósfera en los resultados puede predecir un porcentaje
aceptable de respuestas. Sin embargo los propios autores, reconocieron luego que el efecto solo
explicaba la tendencia al error, pero que no era una verdadera teoría del razonamiento. También se
encontraban diferentes respuestas ante silogismos válidos y no válidos, dándose el sesgo en la res-
puesta. Tampoco predice los distintos niveles de dificultad de los silogismos categóricos, además
de indicar que siempre se dará un conclusión, cuando los resultados indican que no siempre se da
conclusión válida cuando la tarea es de producción.

2.2. Modelos basados en la interpretación de las premisas

Chapman y Chapman 1959, señalaban que el efecto atmósfera podía se más una ilusión de irracio-
nalidad pues ellos explicaban los resultados de sus estudios por la conversión ilícita de las premi-
sas y por la inferencia probabilística.
– El principio de inferencia probabilística: supone que mostramos una consistencia interna en nto
razonamiento pero con reglas erróneas. Esta nos conduce a que consideremos que las
entidades que comparten determinadas propiedades tendrían mayor probabilidad de
compartir otras relaciones. Un ejemplo:

Algunos A son B Algunos peces son carnívoros.


La conclusión relaciona C con A apoyándose en B
Algunos C son B Algunas plantas son carnívoras
(común a ambas premisas), y por lo tanto hará pro-
Algunos C son A Algunos plantas son peces
bable que C y A se encuentren relacionados.
Si le damos contenido vemos que la conclusión no se sigue necesariamente de las premisas.

– La hipótesis sobre la conversión ilícita es un error en la interpretación de la Universal afirmativa


y de la particular negativa, sin aludir al efecto atmósfera y sin hacer referencia a una regla de
inferencia falsa. El error ocurre cuando se interpreta que la premisa Universal afirmativa A,
“Todos los A son B” es equivalente a “Todos los B son A”; y que la premisa Particular negativa
O “Algunos A no son B” es equivalente a “Algunos B no son A”, pero sí es lícita para las premisas
en universal negativa y particular positiva (E – I):
(A): (E):
Todos los hombres son seres mortales Ningún hombre es un ser inmortal
no es equivalente a : equivale a:
Todos los seres mortales son hombres. Ningún ser inmortal es un hombre
(O): (I):
Algunos hombres no son deportistas Algunos hombres son deportistas
no equivale a: equivales a:
Algunos deportistas no son hombres. Algunos deportistas son hombres.

La conversiónconsiste en intercambiar los términos sujeto y predicado entre ambos enunciados


Un aspecto importante del enunciado categórico es la distribución de sus términos. El término
estará distribuido si se refiere a todos los miembros de la clase designada por dicho término:

M.Goretti González 4
Tabla 4.1 Distribución de los términos de un enunciado categórico
AFIRMATIVO AFIRMATIVO
PREDICADO PREDICADO
No distribuido distribuido
UNIVERSAL A E
SUJETO Todos los A son B Ningún A es B
distribuido Todos los hombres son mortales Ningún hombre es inmortal
(todos y cada uno de ellos) tanto sujeto como predicado están
distribuidos porque la relación se refiere a
la exclusión de hombres y de inmortales
PARTICULAR I O
SUJETO Algunos A son B Algunos A no son B
no distribuido Algunos hombres son mortales
De esta forma la cantidad del enunciado determina que el sujeto se encuentre distribuido en
los enunciados universales A – E y no en los particulares I – O; la calidad determina la distri-
bución del término predicado. En el Universal Negativo tanto el sujeto como el predicado están
distribuidos porque la relación se refiere taanto a las exclusión de todos los hombres de la clase
inmortales como a la exclusión de todos los inmortales de la clase de hombres.
La afirmación negación de la inclusión de clases determina que el predicado se encuentre dis-
tribuido en los enunciados negativos E – O y que no esté en los enunciados afirmativos A -I

El cuadro anterior ilustra por qué la conversión sólo es legítima para los E e I, pues son los únicos
que tienen los mismos valores en su distribución: sujeto y predicado distribuidos en E, y no
distribuidos en I, permitiendo realizar la conversión del enunciado y que con ello no se altere ni su
cantidad ni su calidad.

Revlis formula una propuesta más concreta basada en la conversión de todas las premisas y en el
supuesto de que se prefiere razonar con estas versiones convertidas de las premisas. Hay una pri-
mera etapa de procesamiento en la que se codifican las premisas y se convierten quedando repre-
sentadas ambas versiones. Y luego, se elabora una representación compuesta de las dos premisas
y se pasa a la codificación de la conclusión de modo semejante a la primera etapa. Por último hay
un proceso de comparación entre la representación conjunta de las premisas y la representación
de la conclusión. Si ambas con congruentes entonces se acepta el silogismo como válido. Si son
incongruentes se procedería con la comparación de las representaciones en sus versiones
originales sin conversión, hasta encontrar un argumento válido. Si no se obtiene éste, o se supera
el límite de tiempo, se procede o con modelo para la selección aleatoria de una de las alternativas
o bien con un modelo de selección de rasgos (cantidad y calidad).

El contenido temático del silogismo puede facilitar el razonamiento, por ejemplo, la conversión de
Todos los gatos son felinos en Todos los felinos son gatos, daría lugar a una premisa contraria al
conocimiento del sujeto. El razonamiento silogístico con contenido es mejorr que el abstracto
porque el contenido bloquea la conversión de las premisas en el proceso de codificación. Sin em-
bargo, los resultados experimentales son contrarios porque el efecto del contenido o de las
creencias se sigue manifestando incluso en aquellos silogismos en los que la conversión no altera la
validez del argumento.

Con respecto al efecto del contenido (sesgo de creencias) ya Wilkins 1928 había encontrado que el
contenido familiar facilitaba el rendimiento, pero que disminuía si el contenido entraba en conflic-

M.Goretti González 5
to con la estructura lógica. Ejemplos de argumentos válidos e inválidos con conclusiones creíbles e
increibles:
SILOGISMO EJEMPLO %
Ningún perro policía es vicioso
VÁLIDO CREIBLE Algunos perros muy entrenados son viciosos 89%
Algunos perros muy entrenados no son perros policías
Ningún producto nutritivo es barato
VÁLIDO INCREÍBLE Algunas vitaminas son baratas 56%
Alagunas vitaminas no son nutritivas
Ningún producto aditivo es barato
INVÁLIDO CREIBLE Algunos cigarrillos son baratos 71%
Algunos productos aditivos no son cigarrillos
Ningún millonario es muy trabajador
INVÁLIDO INCREIBLE Algunas personas ricas son muy trabajadoras 10%
Algunos millonarios no son personas ricas

En líneas generales los sujetos tienden a considerar que un argumento es válido si están de
acuerdo con su conclusión y que es falso si no lo están. Además, Evans, Barston y Pollard 1983 en-
contraron una interacción entre validez lógica y credibilidad de las conclusiones, siendo el efecto
mayor para los silogismos inválidos que para los válidos. Se obtuvo que los sujetos aceptaban más
conclusiones creibles que increibles independientemente de su validez lógica. Sin embargo, la
diferencia entre la aceptación de conclusiones inválidas creíbles y conclusiones inválidas increibles
fue mayor que la diferencia entre conclusiones válidas creíbles.

Evans y cols propusieron dos modelos para explicar cómo se realiza el proceso de evaluación de las
conclusiones:
1) modelo de escrutinio selectivo y,
2) modelo basado en una mala interpretación de la “necesidad lógica”.

1) El modelo de escrutinio selectivo sostiene que los sujetos se centran primero en la conclusión
del argumento y si ésta es coherente con su sistema de creencias, la aceptan sin más. Está basada
en los análisis de los protocolos verbales en los que se identificaban tres tipos de estrategias para
la solución de los silogismos:
– “Estrategia solo la conclusión”: solo mencionan la conclusión.
– “Estrategia de la conclusión a las premisas”: mencionan primero la conclusión y luego las prem.
– “Estrategia de las premisas a la conclusión”: mencionan antes las premisas.
Los sujetos de los dos primeros grupos 1 y 2, presentaron la mayor tendencia a responder de
acuerdo con la credibilidad de la conclusión. Hay que tener en cuenta que no explica el modelo el
efecto de la lógica sobre las propias conclusiones creíbles. Algunos autores ponen de manifiesto
que los sesgos de creencias se siguen dando, en las tareas en las que los sujetos deben generar sus
propias conclusiones y en las que, no hace falta un proceso de escrutinio de la conclusión.

2) El modelo basado en una mala interpretación del concepto de necesidad dice que los
sujetos en realidad no entienden la necesidad lógica. Un argumento deductivo es válido
sólo si es imposible que su conclusión sea falsa mientras que sus premisas son verdaderas.
Un silogismo con conclusiones posibles, pero no necesarias, se denomina un silogismo
inválido indeterminado y cuando no se sigue ninguna conclusión se denomina silogismo
inválido determinado.

M.Goretti González 6
SILOGISMO INVÁLIDO INDETERMINADO SILOGISMO INVÁLIDO DETERMINADO
Figura 2, modelo AAA Figura 4 modelo AAE
Todos los animales son seres vivos Todos los A son B Todos los cobardes son seres vivos Todos los A son B
Todos los perros son seres vivos Todos los C son B Todos los seres vivos son reactivos Todos los B son C
Todos los perros son animales Todos los C son A Ningún ser reactivo es cobarde Ningún C es A

Los sujetos responden de acuerdo con la credibilidad de las conclusiones en los silogismos
inválidos indeterminados, pero cuando es inválido determinado no se sigue ninguna conclusión y
la credibilidad no ejerce ninguna influencia. La credibilidad surte efecto sobre los silogismos
inválidos indeterminados y el efecto desaparece en los silogismos inválidos determinados. No
obstante ambos modelos dejan sin explicar el proceso de razonamiento y solo se centran en los
errores para algunos silogismos (inválidos indeterminados).

Begg y Harris sostienen que los errores de razonamiento silogísticos se encuentran en la interpre-
tación de las premisas, pero no por un proceso de conversión sino por la interpretación de los
cuantificadoressegún las convenciones lingüísticas. Los sujetos los interpretan de tres formas:
Ninguno como exclusión, algunos como intersección y todos como identidad. La interpretación de
“alguno” como “todos” y de “algunos no” como “ninguno” son propias del significado lógico pero
son inútiles psicológicamente.

Esta explicación de los errores se centra en la interpretación de las premisas según las implicaturas
conversacionales propuestas por Grice, 1975. Implicatura designa el contenido implícito de lo que
decimos y la máxima conversacional de cantidad explicaría los errores en la interpretación de los
cuantificadores particulares. Según la máxima de cantidad la conversación debe ser todo lo
informativa que requiera el diálogo, aunque nunca más de lo necesario. Esta explicaría que los
sujetos no acepten la relación de subalternancia entre un enunciado universal y uno particular:
uno universal implica su enunciado subalterno correspondiente como Todos los los hombres son
mortales implica que algunos hombres son mortales. Para las personas sería poco informativo
decir “algunos” cuando se sabe que son “todos”. Sigue el cuadro de oposición

Todos los A son B Ningún A es B


Todos los hombres son mortales Ningún hombre es mortal
(A) contrarios ( E ) Universal negativa

subalteros CONTRADICTORIOS subalteros

(I) subcontrarios ( O ) Particular negativa


Algunos hombres son mortales Algunos hombres no son mortales

Se aprecia que tanto A como E implican sus correspondientes enunciados subalternos I y O. Ambos
enunciados comparten el sujeto, el predicado y la calidad, pero difieren en la cantidad.
A y E son contrarios porque comparten el mismo sujeto y el mismo predicado pero no pueden ser
ambos verdaderos, aunque pueden ser falsos.
Entre A y O , y E e I se aprecia que son contradictorios pues tienen el mismo sujeto y el mismo pre-
dicado, pero difieren en calidad y cantidad. Uno de ellos es la negación del otro, ambos no pueden
ser verdaderos o falsos a la vez.

M.Goretti González 7
La máxima conversacional de cantidad dice que debe transmitir la mayor cantidad de información
posible y no ocultar deliberadamente parte de la información. El significado lógico de “algunos”
sería una transgresión de las máximas conversacionales cuando se sabe que “todo” también es
verdadero y este último cuantificador es que transmite mayor información.

Begg 1987, Newstead 1989 y Politzer 86,90 ponen de manifiesto que la interpretación de algunos
cuantificadores se rige por las implicaturas conversacionales y no por la lógica. Defienden la racio-
nalidad desde un modelo de convenciones lingüísticas en el que las reglas otorgan una lógica
intuitiva o natural, pero no hay datos experimentales suficientes como decir que las
interpretaciones “Griceanas” constituyan la principal fuente de errores del razonamiento
silogístico.

Los modelos de conversión también han sido criticados. Estos modelos explican el efecto atmósfe-
ra bajo el supuesto racionalista de que el razonamiento es lógicamente correcto, pero con unas re-
presentaciones invertidas de las premisas y no consideran la figura. Sin embargo, Frase y Pezzoli y
Frase 1968, encontraron un efecto análogo al efecto atmósfera con la figura del silogismo. El tipo
de figura también presentaba diferentes grados de dificultad, siendo la cuarta más fácil que la pri-
mera. Johnson- Laird y Steedman 1978 , decían que cuando los sujetos tenían que producir la con-
clusión del argumento, éstos generaban conclusiones A-C (donde la premisa mayor se
correspondía con el sujeto y predicado en la menor) con la figura 4, y C-A con la figura 1.

2.3. Modelos basados en la representación de conjuntos

El método de Euler se basa en la utilización de círculos para la representación en un plano de las


relaciones entre los conjuntos comprendidos en las premisas del argumento.

Universal afirmativa:
Todos los A son B A B A = B
Subconjunto Identidad

Universal negativa:
Ningún A es B A B

Disyunción
Particular afirmativa:
Algunos A son B

A B A A = B A B
B

Conjunción Superconjunto Identidad Subconjunto


Particular negativa:
Algunos A no son B
A B A A B
B
Conjunción Suprconjunto Disyunción

M.Goretti González 8
Un argumento es válido cuando la conclusión es verdadera en todos los diagramas que
representan todas las posibles combinaciones de las dos premisas. Es un proceso bastante costoso,
sobre todo porque el número de combinaciones posibles es gralmente mayor que el producto de
los diagramas de las dos premisas al existir más de una forma de combinarlos.

Erickson 1974, 1978 propuso una teoría del razonamiento silogístico basada en los círculos de
Euler. Los sujetos representaban cada premisa de forma análoga a la representación espacial de los
círculos. Las ditintas interpretaciones posibles de las premisas llevan asociados unos parámetros
probabilísticos que determinan u selección.
1ª En primera etapa también influirá el contenido del argumento. Para evaluar o producir una
conclusión se combinan las representaciones de las premisas en una sola representación del
silogismo.
2ª etapa de combinación: se asume que no hace el sujeto análisis exhaustivo de todas las combina-
ciones posibles de las interpretaciones de las premisas, sino que selecciona una combinación de
acuerdo con los parámetros probabilísticos.
3ª etapa, se selecciona etiqueta verbal que se correponda con la descripción de la combinación
obtenida para dar la respuesta.

Los errores en el proceso pueden ocurrir en cualquiera de las etapas y se asume que los sujetos
son proclives al efecto atmósfera. El problema principal es el número tan grande de formas distin-
tas en las que se pueden combinar los diagramas.

El modelo de la cadena transitiva de Guyote y Sternberg 1981, asume una representación


simbólica semejante a los círculos de Euler, pero libre de errores al ser una representación
exhaustiva. El peso del modelo es la especificación de los procesos de combinación y comparación
de la interpretaciones de las premisas:
– En el proceso de combinación, las interpretacione de las premisas se van integrando en
“cadenas transitivas”, que son los enlaces entre el primer y último término de las premisas a
través del término medio. Se pueden producir errores por la capacidad limitada de la M trbjo.
– En la etapa de comparación, se elige una conclusión concordante con las representaciones
combinadas y se da la respuesta que se corresponda con la conclusión seleccionada. Los
errores pueden ser debidos a falta de considerar alguna conclusión concordante con la
combinación y por el efecto atmósfera.

Una de las críticas más importantes al modelo es que asume que no hay errores en la primera eta-
pa de la representación de las premisas cuando has datos que lo cuestionan. Tampoco contemplan
los efectos de la figura y se recurre al efecto atmósfera como un sesgo de respuesta sin
explicación psicológica.

Los modelos basados en los círculos de Euler predicen que la dificultad dependerá del nº de dia-
gramas necesarios para la interpretación y combinación de las premisas, pero los datos ponen de
manifiesto que algunos de los silogismos fáciles han podido resolverse sin dificultad con muchos
diagramas y otros que son más difíciles y precisan de menos.

Newell 1981, propone otra aproximación para explicar el razonamiento silogístico por medio de la
representación espacial de los diagramas de Venn. En este método se representa el silogismos en
un solo diagrama. Estos utilizan círculos que se encuentran sobrepuestos de forma que represen-

M.Goretti González 9
ten las relaciones entre los conjuntos del silogismo. Se sombrea aquella zona en la que no hay
miembros y se representa con una X las áreas en las que existe al menos un elemento cuando el
enunciado categórico es particular (afirmativo o negativo).
Si miramos en la figura 4.5. de la página 144 de
Universal afirmativa (A) nuestro queridísimo libro nuevo se apreciará un
B Todos los A son B silogismo válido EAE:
A Ningún B es A
Todos los C son B
Ningún C es A
Universal negativa (E)
B Ningún A es B
donde se representan con los diagramas de Venn
A
los tres términos del silogismo A, B y C, exponién-
dose el espacio o universo del discurso. Las áreas
sombreadas son las vacías, donde no hay miem-
Particular afirmativa (I)
X B Algunos A son B bros de la relación expresada por los dos
A conjuntos según premisa.

Particular negativa (O)


X B Algunos A no son B
A
Se sombreará la parte vacía del universo del discurso donde no ha-
ya elementos.

Según Newell ,este modelo pretende acomodar los silogismos categóricos al marco general que di-
señaron Newell y Simon para la solución de problemas. Se entiende que el razonamiento
silogístico es un proceso de búsqueda a través del espacio del problema y que este espacio se re-
presenta de forma análoga a los diagramas de Venn. No se hacen predicciones sobre los errores, ni
se aportan datos empíricos que apoyen la viabilidad del modelo (Simon 1989, comentó que es pro-
bable que la utilización sólo ocurra en sujetos expertos y que una representación en la línea de los
modelos mentales es preferible, y más acorde con una aproximación del razonamiento silogístico.

Los modelos mentales de conjuntos fue una teoría del razonamiento silogístico en sus orígenes y
hoy constituye un marco teórico gral del razonamiento deductivo. Este comprende tres etapas:
1) etapa de interpretación y representación inicial de las premisas: utiliza su conocimiento
sobre el lenguaje y su conocimiento gral para comprender las premisas.
2) El sujeto combina las representaciones anteriores para generar una descripción lo más sen-
cilla posible de los modelos construidos a partir de las premisas. Debe enunciar algo que no
se encuentre explícito en las premisas y es la conclusión tentativa del argumento.
3) El sujeto busca modelos alternativos para poder falsar la conclusión tentativa. Si no los en-
cuentra la conclusión es válida, pero si los encuentra, regresa a la segunda etapa para
seguir probando conclusiones tentativas con contraejemplos.

En la tercera etapa se ubica el “aspecto” deductivo del razonamiento. La dificultad se explica en


términos de la cantidad de procesamientoo y los erroes vienen explicados por las limitaciones de
la Mtbjo.

M.Goretti González 10
El principio de economía propuesto por la teoría asume que el modelo mental inicial sólo
representará la cantidad de información explícita que sea necesaria para la interpretación de la
premisa. Está constituido por símbolos que representan miembros representativos del conjunto.
En la universal afirmativa Todos los A son B -> “a” es un miembro representativo del conjunto A y
“b” del conjunto B. Cuando un miembro del conjunto se encuentra representado dentro de un
corchete [a], quiere decir que el conjunto de miembros se encuentra exhaustivamente representa-
do. Por ejemplo si no hay miembros de “a” que no sean de “b” -->> [a] b
...
“b” se representa así pues no sabemos si alguno de sus miembros puede pertenecer a A

Una sola representación del modelo mental de la universal afirmativa comprende las dos
representaciones espaciales de los círculos de Euler: relación de identidad y subconjunto. Los tres
puntos (...) indican que podría haber otra clase de miembros que no se encuentran representados
en el modelo inicial, es como una anotación mental que indica la existencia de otros modelos que
están implícitos. Pueden hacerse explícitos en la que sea necesario ampliar la información
enunciada en las premisas. Por ejemplo en la representación de los miembros que no son “a” y son
“b” ( ¬a b )

En la segunda etapa del modelo se deben combinar los modelos mentales de las premisas en una
sola descripción. Se añade el modelo mental de la segunda premisa al modelo de la primera
mediante el término medio. Si fuera una universal afirmatiava: Todos los B son C, sería:
[b] c
[b] c
... y por la combinación de ambos modelos se obtendría:

[ [a] b] c Todos los A son C y Algunos C son A


[ [a] b] c
...
los miembros de “a” se representan exhaustivamente con respecto a “b” y los miembros “b” se
representan exhaustivamente con respecto a “c”. La conclusión entre “a” y “c” es Todos los A son C
y Algunos C son A. En este silogismo no se puede generar otra combinación que dé otra conclusión
que pueda falsar la conclusión tentativa y se concluye como válido. Este silogismo AA solamente
requiere un modelo mental y es el silogismo más fácil de resolver. Repetimos, que la combinación
de los modelos mentales de las premisas se complica cuando hay más modelos mentales
alternativos.
FIGURA 3 conclusión C- A FIGURA 3 conclusión A – C
Todos los B son A (A) Ningún B es C (E )
Ningún B es C (E ) Todos los B son A (A)

[b] a [b]
[b] a [b]
... c
c
combinando ambos modelos:
[a [b] ]
El modelo sugiere la conclusión:
[a [b] ]
[c] Ningún C es A
[c] sin embargo, como “a” no se encuentra exhaus-
... tivamente representado y podía haber algún “c”

M.Goretti González 11
que fuera “a” , aunque no fuera “b”, podemos generar este segundo modelo mental donde:
[a [b] ]
[a [b] ]
a [c]
[c]
... y si este segundo modelo refuta la conclusión anterior y sugiere que
“Algunos C no son A”
[a [b] ]
[a [b] ]
a [c]
a [c]
...
La teoría de los modelos mentales explica la dificultad de los silogismos y los errores por el núme-
ro de modelos mentales y por el tipo de figura. Los resultados han puesto de manifiesto que
cuanto mayor sea el nº de modelos mentales necesarios para encontrar una conclusión válida
tanto más difícil será el problema y mayor la probabilidad de error. La figura también determina la
dificultad y la probabilidad de que una conclusión sea del tipo C-A o A-C. Se debe a que las
conclusiones se leen en el modelo mental en la misma dirección enn la que se han representado.
Cuando no se encuentran en la misma dirección hace falta una operación que invierte el orden y/o
la relación espacial entre los términos para poder realizar la combinación de los modelos mentales.
NIVEL DE DIFICULTAD OPERACIONES NECESARIAS PARA LA COMBINACIÓN DE LOS MODELOS MENTALES
FIGURA 4 (má fácil) No requiere ninguna operación dado que se lee directamente la conclusión A C
A B
B C
FIGURA 1 Requiere una operación de inversión del orden de las premisas
B A
C B
FIGURA 2 Requiere operación de inversión de la relación espacial entre los términos de la
A B segunda premisa
C B
FIGURA 3 (más difícil) Requiere una operación de inversión de la relación espacial entre los términos de la
B A segunda permisa y cambiar el orden de las premisas o la inversión de la relación espa-
B C cial entre los términos de la primera premisa
El contenido o las creencias se consideran una fuente error pues pueden influir en la interpreta-
ción, en la combinación de modelos y en el proceso de aceptación o rechazo de la conclusión
tentativa. Cuando el contenido influye puede acortar el procceso de búsqueda de modelos alterna-
tivos si la conclusión tentativa es compatible con el sistema de creencias, aunque sea inválida.
Podría ocurrir que el sujeto buscara afanosamente más modelos mentales alternativos cuando la
conclusión fuera contraria a su sistema de creencias. Este efecto estaría influyendo en la búsqueda
de contraejemplos. Incluso este contenido influye en los silogismos de un solo modelo mental y
proponen que una conclusión increíble también podría actuar de filtro en el proceso de
evaluación, haciendo que la sustituyan por una conclusión creíble o que respondan que no hay
conclusión.

La teoría de los modelos mentales se basa en un procedimiento formal para la representación


semántica de los operadores lógicos que unen los contenidos expresados en las premisas. La críti-
ca fundamental se centra en que esta teoría se autodefine como semántica, pero no explica cómo
se vincula el conocimiento almacenado con la construcción de los MM en la memoria de trabajo.
No determina cómo se construyen los MM, ni el orden en la construcción de la secuencia de posi-

M.Goretti González 12
bles interpretaciones, ni se compromete con el tipo de representación de los MM, ni con el orden
de la combinación de los MM.

3. RAZONAMIENTO SILOGÍSTICO TRANSITIVO

Las investigaciones sobre el razonamiento con silogismos transitivos (lineales, problemas órdenes
lineales o de series de tres términos) estudian las inferencias que dependen de las relaciones de
transitividad. Es la propiedad de cualquier escala con la que se compara u ordenan objetos. Estos
trabajos han utilizado un silogismo constituido por dos premisas en las que se relacionan sus tres
términos en función de una propiedad transitiva y una conclusión que establece la relación entre
los dos términos no adyacentes.
Luis es mayor que Juan; Juan es mayor que Pedro; Luis es mayor que Pedro
Hay ocho estructuras básicas para representar un silogismo transitivo A > B > C y darse :
A>B;B>C
A>B;C<B
B<A;C>B
... y hasta ocho combinaciones posibles. Además se pueden introducir relaciones negativas en una
de las dos premisas o en ambas (premisas de igualdad negada). La tarea experimental más habi-
tual consiste en presentar las dos premisas del silogismo y pedir que se conteste a una pregunta
sobre la relación entre “A” y “C” o que se evalúe la validez de una conclusión. Las estructuras
básicas se pueden presentar con dos preguntas o conclusiones alternativas. También se han utiliza-
do silogismos indeterminados en los que los dos términos de la serie están situados hacia el mismo
extremo de la relación con respecto al término medio, no pudiéndose alccanzar una conclusión
válida sobre la relación entre ambos. Por ejemplo, en el siguiente silogismo los términos A y C se
encuentran situados hacia el mismo extremo B > A y C < B y no podemos inferir la relación entre
A y C, solo que son menores que B.

En el trabajo de Störring 1908, se describía cómo algunos sujetos parecían formar un diagrama
mental de las premisas, representándolas mediante imágenes mentales, mientras que otros pare-
cían resolver el problema de forma verbal.

3.1. El modelo operacional

Uno de los primeros modelos en la explicación del raz.transitivo hacía hincapié en los aspectos
operacionales implicados en su solución. Hunter 1957 decía que poder hacer una inferencia trans-
sitiva es necesario que las premisas contengan la misma relación y que el término medio sea el
predicado de la primera premisa y el sujeto de la segunda.
Luis es mayor que Juan; Juan es mayor que Pedro; Luis es mayor que Pedro.
Cuando el argumento no tiene la misma relación: Pedro es menor que Juan, o por ejemplo, Pedro
no es mayor que Juan, se deben aplicar las operaciones de conversión y de reordenación de
premisas. Mediante ello se logra que los términos medios de ambas premisas sean adyacentes. Si
la segunda premisa fuera Pedro es menor que Juan, entonces su conversión en Juan es mayor que
Pedro, logra que los términos medio se ubiquen en una disposición de contigüidad.

Hunter propuso que la aplicación de estas operaciones daban lugar a los distintos niveles de
dificultad de los problemas.

M.Goretti González 13
Los resultados experimentales no apoyaron todas las predicciones del modelo operacional. Fue
Johnson -Laird y Bara 1984, los que encontraron que en los silogismos transitivos también ocurría
el efecto de la figura, donde al igual que en el estudio con los silogismos categóricos, el tipo de fi-
gura favorecía las conclusiones A – C o C – A. El nivel de dificultad de los silogismos estaba relacio-
nado con el proceso de integración de la información en función del tipo de figura u orden de los
términos.

3.2. Modelos basados en imágenes mentales

De Soto, London y Handel 1965, sostienen que el proceso de solución requiere la combinación de
las interpretaciones de las premisas en una representación unitaria y espacial. El Modelo de la
Imagen Mental está basado en la elaboración e interpretación de una imagen del contenido de las
premisas y dificultad depende del tipo de términos relacionales empleados en ellas. La dificultad
se da por la elaboración de la representación espacial correspondiente a la serie de tres términos.
Estos indican dos principios grales:
1) Principio de la preferencia direccional: los sujetos prefieren construir los órdenes
espaciales en determinadaas direcciones. En la cultura occidental se prefiere trabajar de
izda a derecha y de arriba abajo. Las relaciones se presentan en estos ejes espaciales. El
silogismo será más fácil si la primera premisa contiene en primer lugar el término que se
sitúa más arriba o más a la izquierda. “A es mejor que B ” es más fácil que “B es peor que A”,
también es más fácil representar el silogismo: “A es mejor que B” “B es mejor que C” que “B
es mejor que C” “A es mejor que B”.

2) Principio de anclaje de los extremos: La construcción espacial será más fácil cuando se
enuncia en primer lugar uno de los dos extremos de los ejes espaciales. Las más fáciles
serán aquellas que procedan de uno de los términos extremos al término medio: “A es me-
jor que B” o “B es mejor que C”. Construimos un eje mental marcado por la preferencia
direccional en el que se colocan los tres términos de la serie.
Los resultados muestran que esta disposición espacial se ajusta a las preferencias
culturales, (escritura y lectura). Sin embargo, el pp. de anclaje de los extremos sólo parece
influir en la segunda premisa. Huttenlocher 1968, sostiene que en la comprensión de la
primera premisa se coloca un término medio en relación con el otro en la disposición
espacial que construyen los sujetos. Comprendida la segunda premisa, entonces se colo-
cará el tercer término con respecto a los dos anteriores. Los resultados experimentales
mostraron que los silogismos A es mejor que B, C es peor que B; y “B es peor que A, C es
peor que B”, eran semejantes en el nº de aciertos y tiempos empleados. En el cuadro
siguiente podemos ver que el ppo.del anclaje de los extremos sólo influye en la segunda
premisa.
MÁS FÁCILES MÁS DIFÍCIL
(primero) A es mejor que B (tercero) B es peor que A
C es peor que B B es mejor que C
(segundo) B es peor que A Como en la segunda premisa se enuncia en primer lugar
C es peor que B uno de los dos extremos de los ejes (C) son los más
fáciles.
Podemos ver que este ppo. no influye sobre la primera premisa dado que en el segundo se
presenta primero el término medio (B) al igual que en el tercer silogismo.

M.Goretti González 14
3.3. El modelo lingüístico

Clark 1969, propone que la inferencia transitiva se basa en representaciones proposicionales y


que la dificultad se debe a factores lingüísticos influyentes en la comprensión. Postula tres princi-
pios generales:
1. Principio del marcado léxico:
algunos adjetivos bipolares son asimétricos porque presuponen uno de los extremos de la
escala y otros adjetivos son neutros con respecto a la magnitud:
A es mejor que B contiene adjetivo no marcado que expresa distinto grado en que
se comparan A y B con respectoa a ser buenos. La premisa A es peor que B contiene
un adjetivo marcado que hace que los términos A y B se sitúen hacia un extremo de
la escala, siendo premisa semánticamente más compleja y más difícil de procesar
(presuponemos que ambos son malos y no que el enunciado exprese el grado de
comparación entre ellos).
2. Principio de las relaciones funcionales:
sostiene que las relaciones de predicación se almacenan y se recuperan con prioridad a la
información comparativa:
María es mejor que Ana se comprende que ambas son buenas y esto se representa
de forma comprimida como: María es mejor. Solo representamos que es mejor
pero no el grado en que lo es respecto a Ana. Tenemos también:
A es mejor que B, B es mejor que C y se representen de forma comprimida como A
es mejor, B es mejor y C es menos bueno.
Como la información del predicado es prioritaria a la información comparativa, en la
construcción de la representación proposicional se pierde el término medio (B), haciendo
que el problema sea más difícil. Cuando no se pierde el término medio, el problema es más
fácil, pueso que la relación entre A y C se puede extraer directamente de la representación.
Por ejemplo, A no es tan malo como B; B no es tan malo como C darían lugar a una repre-
sentación B es peor, C es peor, B es menos malo

3. Principio de la congruencia: la recuperación de la información es más fácil si la representa-


ción de las relaciones funcionales es congruente con la pregunta formulada. Los silogismos
serán más fáciles cuando esté formulada en la misma dirección. Por ejemplo: A es mejor
que B; B es mejor que C es más fácil cuando dicha pregunta es congruente con la relación:
¿Cuál es el mejor? que cuando no lo es, ¿Cuál es el peor?. Este principio se relaciona con la
búsqueda en la memoria y con la dificultad impuesta por el almacenamiento, mientras que
los principios aluden al proceso de comprensión.

Los modelos anteriores explican alternativas del mismo fenómeno, generando una polémica en
torno al modo de representación más adecuado de las premisas. La polémica ha dado lugar a una
ardua investigación experimental siendo la polémica difícil de resolver pues ambos hacen la misma
predicción pero por razones distintas. Por ejemplo, las predicciones del ppo.de la preferencia
direccional coinciden con las del principios del marcado léxico, peus la disposición de arriba a aba-
jo también se encuentra predicha por la facilidad de los términos comparativos no marcados.

Según Clark, la confrontación es más evidente en las premisas negativas y los datos experimentales
apoyan las predicciones del modelo lingüístico. Las premisas negativas tendrían un equivalente en
la versión afirmativa que daría lugar a las mismas predicciones en el modelo espacial y a

M.Goretti González 15
predicciones inversas en el modelo lingüistico: A no es tan malo como B, B no es tan malo como C,
serían equivalentes a : A es mejor que B, B es mejor que C. Ambos tipos de premisas darían lugar a
los mismos resultados, ya que la preferencia para la construcción de la imagen mental ess en
ambos casos de arriba hacia abajo. El modelo lingüístico, no obstante, predice que la estructura
lingüística es distinta, siendo las premisas negativas más fáciles al conservar el término medio en la
representación proposicional.

Algunos autores señalan que Clark parte del supuesto de la equivalencia entre las premisas afirma-
tiva y las negativas pero esta equivalencia puede no existir en el proceso de comprensión, pues
puede que A no es tan malo como B, no se interprete como A es mejor que B, sino como B es peor
que A y entonces la direccionalidad de abajo arriba, y el marcado léxico vuelven a coincidir en sus
predicciones. Tampoco se puede diferenciar el principio de anclaje de los extremos del modelo
espacial, y el principio de congruencia del modelo lingüístico, pues predicen resultados convergen-
tes, aunque por razones distintas.

El modelo mixto de Sternberg 1980, es un modelo conciliador que reúne aspectos tanto lingüísti-
cos como espaciales en la explicación del razonamiento con series de tres términos. El procesa-
miento de la información lingüística precede a la representación espacial y ambos tipos de repre-
sentaciones se encuentran disponibles durante la ejecución de los procesos de búsqueda y recupe-
ración de la información.

La propuesta del modelo mixto intenta integrar los aspectos del M lingüístico relacionados con los
adjetivos marcados en la etapa de codificación y los del modelo de la imagen en la construcción de
la disposición espacial en la que los términos se ordenan en la dirección no preferida. Cuando la
segunda premisa es de igualdad negada, se propone la búsqueda del término medio si la
codificación lingüística de esta premisa tiene como objeto gramatical al término medio. Localizado
este se construye una representación unitaria, situando primero la primera premisa y luego la
segunda. Si la respuesta está en la segunda premisa, la lectura de la respuesta es inmediata. Si está
en la primera, se realizará un recorrido que llevará tiempo.

Aún así, es posible que los sujetos desarrollen distintas estrategias a medida que adquieren
experiencia en la solución de los silogismos transitivos. Durante la tarea experimental, pueden
empezar por una representación de las disposiciones espaciales y a medida que van resolviendo
los problemas pueden cambiar a una representación lingüística o a la inversa. Por ejemplo, si la
pregunta se presenta ants que las premisas se adopta una estrategia lingüística y si la pregunta se
presenta después, una estrategia espacial.

3.4. La Teoría de los modelos mentales

La Tª de los Modelos Mentales (TMM) se encuentra en la línea de los modelos de la imagen


mental. Defiende una representación integrada de la información basada en la construcción de los
modelos mentales y su desacuerdo se centra en la representación proposicional de los modelos
lingüísticos basados en reglas. Johnson-Laird 1972 señala referente a la polémica entre los mode-
los de la imagen y el lingüístico que los datos experimentales son poco esclarecedores. En la Teoría
de los modelos mentales parece que los sujetos construyen un modelo mental de la situación
descrita por las premisas basándose en su conocimiento del significado de los términos
relacionales. Se representa la disposición espacial del contenido y se combinan estos modelos

M.Goretti González 16
mentales para llegar a una inferencia sobre las relaciones entre los dos términos no relacionados
explícitamente en las premisas.

Esta teoría predice que la dificultad de los problemas dependerá del número de modelos mentales
que puedan construirse. En los problemas de series de tres términos, la validez y el número de
modelos mentales no se pueden distinguir, ya que los problemas que dan lugar a un modelo
mental son también los que alcanzan una conclusión válida, mientras que no hay conclusión válida
en los problemas que dan lugar a más de un modelo. Byrne y Johnson-Laird 1989, se plantearon el
estudio de las relaciones transitivas con cinco términos en las que la dificultad de los problemas se
puede analizar en función del número de modelos mentales.

SILOGISMO ESPACIAL DE 5 TÉRMINOS


B se encuentra a la derecha de A
C se encuentra a la izquierda de B
D se encuentra delante de C
E se encuentra delante de B

¿Cuál es la relación entre D y E?

Las premisas dan lugar a dos modelos mentales y en ambos la conclusión es “D se encuentra a la
izquiera de E” o “E se encuentra a la derecha de D”
MODELO 1 MODELO 2
C A B A C B
D E D E

Los resultados apoyan las predicciones de la teoría de los modelos mentales frente a las prediccio-
nes del modelo de Hagert 1984 basado en representaciones porposicionales y la aplicación de
reglas: el número de modelos mentales y no el nº de reglas determina la dificultad de los proble-
mas.

Hay datos a favor de una representación espacial integrada en las investigaciones sobre la
memoria de trabajo y el razonamiento silogístico. En la Tª de los modelos mentales la sobrecarga
de la Mtrbjo es una de las fuentes principales de error y a la medida que aumenta el número de
modelos mentales también aumenta la dificultad de los problemas. La MT está constituida por un
procesador central apuado en un almacén fonológico y uno visoespacial. Este último está encarga-
do de retener en la MT la información visual: color; e información espacial: movimiento. Si se in-
troduce durante la realización de una tarea de silogismos lineales una segunda tarea que requiera
la utilización de esste almacén visoespacial, se esperaría encontrar un deterioro en el rendimiento
de los sujetos al producirse una interferencia en la construcción y elaboración de las disposiciones
espaciales en la MT. Los resultados experimentales han puesto de manifiesto que la introducción
de una tarea visoespacial secundaria interfería en el rendimiento de los sujetos, apoyando de esta
forma la representación de una disposición espacial en el razonamiento silogístico.

Entrevista a Humberto Maturana:


http://www.youtube.com/watch?v=GpMuubZSuy4

M.Goretti González 17
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013

TEMA 5 – EL RAZONAMIENTO CONDICIONAL

1. INTRODUCCIÓN

El razonamiento condicional se centra en las relaciones contingentes reales o hipotéticas que vie-
nen enunciadas por medio de los operadores lógicos, “Si, entonces” (implicación material) y “Si y
solo sí, entonces” (implicación inmaterial). Esta formulación presenta algunas dificultades cuando
se interpreta desde el modelo normativo lógico.

Pepe habla de su mujer Pepa, y nos comenta que:


Si Pepa va a cenar a casa de sus padres, entonces se queda a dormir.

Cabría esperar lógicamente que la próxima vez que nos diga que Pepa va a cenar a casa de sus pa-
dres pensemos que esa noche se queda a dormir Modus Ponens.
Pero si dice: Pepa durmió anoche en casa de sus padres, ¿podríamos inferir que anoche también
cenó con sus padres?
Si se infiere de esta manera, se cometería un error : la afirmación del consecuente.
Si nos hubiera dicho: Pepa ayer no cenó con sus padres y hubieramos inferido que entonces no
durmió en casa de sus padres, cometeríamos el error de la negación del antecedente.
Si sabemos que no se ha quedado a dormir podemos inferir lógicamente que no ha cenado con
ellos Modus Tollens.
Pero si el comentario hubiera sido:
“Si y solo si Pepa va a cenar a casa de sus padres, entonces se queda a dormir”

(equivalencia inmaterial), las cuatro inferencias anteriores hubieran sido válidas.


La estructura lógica de un argumento condicional está constituída por dos premisas y una conclu-
sión. La mayor contiene un enunciado que une el antecedente ( p) con el consecuente (q) por
operadores, y en la menor se puede afirmar o negar tanto el antecedente como el consecuente,
para luego obtener conclusión.
Premisa mayor: “si p, entonces q”
Premisa menor: p afirma; ¬p (no p) lo niega; q afirma; ¬q (no q) lo niega.
Conclusión válida: q por la afirmación de p (modus ponens)
no p (¬p) por la negación de q (modus tollens)
Conclusión inválida: no q (¬q) por la negación del antecedente
p por la afirmación del consecuente.

Una conclusión es deductivamente válida si se sigue necesariamente de unas premisas que se


asumen que son verdaderas o una conclusión es válida sólo si es imposible que su conclusión sea
falsa siendo sus premisas verdaderas.
Modus PONENS (MP)
Si p , entonces q Si Pepa va a cenar a casa de sus padres (p),
entonces se queda a dormir. (q)
p Pepa va a cenar a casa de sus padres (p) (afirmación)

q se queda a dormir.

M.Goretti González 1
El modus ponens es la inferencia válida más fácil, frecuente y natural. Si asumimos que anteceden-
te y consecuente son verdaderos, cabe deducir que cuando se cumple p, entonces también se
cumple q. El modus tollens es, la inferencia válida más difícil. Se suele responder indicando que no
hay conclusión. No se suele pensar que el consecuente es necesario para que ocurra el anteceden-
te, porque es difícil creer que el que no ocurra el consecuente implique que no ocurra el
antecedente. Otra forma “rara” de expresar la relación necesaria sería : “Pepa va a cenar a casa de
sus padres, solo si se queda a dormir”. Por tanto, si Pepa no duerne en casa de sus padres, no ha
ido a cenar a casa de sus padres.
Modus TOLLENS (MT)
Si p , entonces q Si Pepa va a cenar a casa de sus padres (p),
entonces se queda a dormir. (q)
¬q Pepa no se ha quedado a dormir (¬q) (negación de prmisa menor)

¬p Pepa no ha ido a cenar a casa de sus padres

Los dos errores habituales en la implicación material son concluir que no se cumple el consecuente
porque noo se ha cumplido el antecedente (falacia de la negación del antecedente) y que se cum-
ple el antecedente porque se cumple el consecuente (falacia de afirmación del consecuente) . El
antecedente es suficiente para que ocurra el consecuente pero no es necesario y tendríamos que
haber dicho “solo si Pepa va a cenar a casa de sus padres, entonces se queda a dormir”. Cuando el
antecedente es suficiente, su negación no implica que el consecuente no pueda ocurrir con otros
antecedentes.

Falacia de la NEGACIÓN DEL ANTECEDENTE (NA)


Si p , entonces q Si Pepa va a cenar a casa de sus padres (p),
entonces se queda a dormir. (q)
¬p Pepa no va a cenar a casa de sus padres (¬p) (negación)

¬q Pepa no se queda a dormir en casa de sus padres.

El consecuente es necesario para que ocurra el antecedente, y con ello el que si no ocurre
consecuente, no pueda darse antecedente, pero si ocurre no implica que se haya dado el antece-
dente.
Falacia de la AFIRMACIÓN DEL CONSECUENTE (AC)
Si p , entonces q Si Pepa va a cenar a casa de sus padres (p),
entonces se queda a dormir. (q)
q Pepa se queda a dormir (q) (afirmación)

p Pepa va a cenar a casa de sus padres.

Si se hubiera expresado con el bicondicional “si y solo si” - “Pepa va a cenar a casa de sus padres,
entonces se queda a dormir” (equivalencia material) , las cuatro inferencias anteriores hubieran
sido válidas. El bicondicional es expresión poco habitual e incómoda por lo que la falacia de la afir-
mación del consecuente y la negación del antecedente puede deberse a que las personas
interpreten la implicación material como la equivalencia material.

Aún así, las inferencias lógicamente válidas presentan un índice de dificultad. En un meta-análisis
de 65 estudios con 700 sujetos, se obtuvo que cerca del 97% evaluaban como válidas inferencias
modus ponens (más fácil), 74% las inf.modus tollens, 64% la falacia de afirmar el consecuente y el

M.Goretti González 2
56% la falacia de negar el antecedente (más difícil). Además, este intercambio entre condicional y
bicondicional no ocurre con cualquier formulación “si p, entonces q”, sino que depende de diferen-
tes funciones semánticas del condicional (implicación indicativa, causalidad, advertencia,
permiso,...)

La tarea experimental que se plantea habitualmente para el estudio de raz.condicional se ajusta a


la estructura normativa. Se presentan premisas y la tarea del sujeto puede consistir en evaluar si la
conclusión es válida o no, en seleccionar la conclusión válida entre un conjunto de alternativas o
en generar su propia conclusión. Los estudios sobre la tablas de verdad se diseñan de acuerdo con
el modelo normativo pues presenta enunciado condicional, y se pide al sujeto que evalúe las
distintas combinaciones de los valores de verdad de las proposiciones, premisas y conclusiones o
que genere él mismo estas combinaciones. En tareas de selección se presenta una regla y cuatro
tarjetas, que se corresponden cada una con la afirmación o negación del antecedente y del conse-
cuente. La tarea consiste en seleccionar las tarjetas necesarias para comprobar si la regla es verda-
dera o falsa.

2. MODELOS DE REGLAS MENTALES

Los modelos de reglas mentales parten del supuesto de que los sujetos tienen reglas de inferencias
semejantes a las reglas lógicas y que estas reglas se aplican sobre un representación proposicional
de los argumentos condicionales con el fin de obtener o probar la conclusión. No abarcan todo el
conjunto de reglas lógicas, solo las básicas y las que se utilizan de forma natural y sin esfuerzo,
como en el modus ponens.

Se parte del supuesto general de que los problemas de razonamiento serán más difíciles en
función del número de pasos comprendidos en el procedimiento de prueba y de las propias limita-
ciones de los recursos de procesamiento de la información.

2.1. Modelo de deducción natural de Braine y O´Brien

Entre la interpretación lógica de los operadores y su interpretación en el lenguaje natural no hay


correspondencia. Braine desarrolla un modelo de deducción natural (¡si él lo dice!... porque ¡vaya tela
marinera!) Propone que la regla mental básica o esquema de inferencia del condicional es el modus
ponens. Las formulaciones del condicional que no se ajustan al modus ponens son más difíciles y
reflejándose en un número mayor de errores y tiempos de solución más largos.

Esta propuesta fue ampliada y revisada en varios trabajos posteriores. En una de las últimas, la
explicación del razonamiento condicional se basa en tres componentes:
1. Entrada léxica, la cual codifica la entrada de la información lingüística del término “si” en
esquemas de inferencia independientes del contexto. Solo se interpreta su significado.
2. Componente: programa de razonamiento: con pasos a seguir desde la información
interpretada hasta la conclusión.
3. Procesos de comprensión pragmática: que junto a la entrada léxica, interpretan el condi-
cional según sea el contexto en que ocurra.

Los esquemas de inferencia para la codificación del término lingüístico “si”, son el modus ponens y
un esquema para demostrar el condicional. El MP concreta la conclusión que se puede inferir a

M.Goretti González 3
partir de la información que se tiene de las premisas. Por ejemplo:
– conclusión --> “voy al cine”.
– a partir de premisas ---> “Si llueve, entonces voy al cine” -> (si p,entonces q); y “ llueve” -> (p)

El esquema para la demostración del condicional permite evaluar la validez del argumento. Permi-
te saber si podemos afirmarlo. Permitirá demostrar que, “Si llueve, entonces voy al cine” , voy al
cine bajo el supuesto hipotético de que llueva. Esta regla introduce suposiciones en el
procedimiento de prueba siemppre y cuando éstas sean consistentes con las premisas, evitando
caer en contradicciones dentro del propio argumento. Braien y cols.1984 propusieron 18
esquemas de inferencias del razonamiento deductivo, reglas básicas y universales. (¡No tenían otra
cosa que hacer!)

Este programa está constituido por rutinas que dan lugar a razonamiento directo y estrategias que
producen el raz.indirecto.
Las rutinas son comunes a todos los sujetos y con poco esfuerzo. Buscan aplicar emparejamiento
entre los esquemas de inferencia y la forma de las proposiciones que constituyen las premisas del
argumento. En el caso del condicional, el emparejamiento ocurre entre el modus ponens y las pre-
misas “si p entonces q” y “p”. En el caso de tener que generar conclusión “q” (voy al cine), y en el
caso de que esta conclusión formara parte de una cadena de razonamiento, entonces la inferencia
se incorporará en el conjunto de premisas con las que se trabaja.

Cuando lo que se tiene es que evaluar la validez de un argumento, se comprueba si existe una
correspondencia o una contradicción entre las proposiciones del conjunto de premisas y la con-
clusión. El emparejamiento entre un esquema de inferencia y una proposición es el mismo, pero la
inferencia que se obtiene pasa a formar parte del conjunto de premisas y se comprueba su
consistencia o contradicción con la conclusión del argumento.

Premisa mayor--> Si hay una A y una B, entonces no hay una C


Premisa menor--> Es falso que no hay una A --> Falso (falso que existe (p)) = (p)
¬ (¬p) = (p)
en consecuencia,
Conclusión
Incondicional --> “Si hay una B, entonces hay una C”
> Pasos de la rutina hacia la solución:
Esquemas de inferencia para evaluar
B (suposición) 1º considerar al antecedente de la conclusión (Hay una B) la validez sería:
dentro del conjunto de premisas posibles. Y al 2º paso se aplica un esquema de
C (conclusión) consecuente, como la conclusión (Hay una C) inferencia para REFORMULAR la
A -------------------------------------------------------------------->
premisa menor : Es falso que no hay
una A ---> F (F(p)
a partir de la suposición Hay una B (q)
A ^ B Luego se infiere “Hay una A y una B ---------------------> (q) ; y hay una A (p) / p ^ q
No C Aplicando modus ponens, se obtiene--- > No hay una C Si (p) entonces (q); a partir de p/q
Inválido Se invalida al ser incompatible con la la conclusión p ; F(p) / q incompatible

Para explicar las falacias de negar antecedente como la de afirmar el consecuente, como la

M.Goretti González 4
inferencia del modus tollens se recurre al componente 3º de comprensión pragmática. Cuando
los sujetos interpretan “si p, entonces q” también añaden las inferencias invitadas o sugeridas por
el contexto -> “Si no p, entonces no q”. Interpretación que se corresponde con el bicondicional ->
“Si y solo si p, entonces q” violando la prescripción lógica.

Para explicar la inferencia lógica correcta del modus tollens se recurre a las inferencias invitadas
del bicondicional, obteniendo una conclusión válida por una interpretación equivocada. La falta de
respuesta o lo difícil del modus tollens, se explica porque esta regla no forma parte de los esque-
mas de inferencia básicos. Para una conclusión válida se tendría que utilizar la reducción al absur-
do donde: si p es verdadera, entonces q tiene que ser verdadera, pero q es falsa, luego p tiene que
ser falsa.

Cuando las rutinas de razonamiento directo fracasan, el modelo cuenta con las estrategias de
razonamiento que no son universales, dando lugar a una amplia gama de diferencias individuales
entre las estrategias utilizadas, como procesos heurísticos, o transferencia del problema a otros
procesos de razonamiento (analógico o probabilístico,...)
(Sigo admirándo a estos señores que se les ocurre ponerse a investigar estas cosas en su momento, debe ser por lo de su
inteligencia creativa, no conformista y con ganas de querer darle al coco por el aburrimiento.... ¡vaya que si le han dado! Total,
para decirme que si no utilizo las rutinas que me han sabido describir más arriba, al final es porque utilizo mi propia estrategia a
diferencia de las que pueda utilizar otro ser humano,... ¡en fin! :-)

2.2. Teoría Psycop (psicología de la prueba ) de Rips

Rips 1994 propone la Teoría Psycop. Esta fue desarrollada de su modelo computacional ANDS, el
cual explica la deducción como un proceso de prueba mental constituido por tres componentes:
1. Estructuras de memoria
2. Gestor para el control de la aplicación de reglas,
3. Reglas mentales de inferencia.

Se parte de la idea de que las reglas mentales se utilizan para la generación y comprobación de una
prueba mental en la memoria de trabajo bajo el control de un gestor encargado de la correcta
aplicación dichas reglas mentales. La dificultad sería explicada por el número y tipo de reglas
mentales y los errores por aquellos factores que impiden la aplicación de las rutinas (limitación
MT, ausencia de la regla apropiada,...)

El procedimiento de prueba constta de una jerarquía de asertos (árbol de asertos) que incluye las
premisas y proposiciones que se derivan de las mismas; y otra jerarquía de submetas (árbol de
submetas) que incluye la conclusión y las proposiciones que la garantizan. Las reglas de inferencia
van colocando estas premisas en ambas configuraciones y se prueba el argumento cuando se da
un emparejamiento entre submetas y asertos. Hay dos tipos de reglas:
1. reglas hacia delante: derivan las implicaciones desde las premisas a la conclusión, y
2. reglas hacia atrás: son para comprobar la validez del argumento y van desde conclusión a
premisas.

En algunos argumentos se requiere la utilización de un tipo de reglas (mayor nivel de dificultad) en


otros de ambos, aumentando la complejidad o bien, puede haberlos donde no hay conclusión.

Se coloca la premisa en la parte superior del árbol de asertos, y la conclusión en la parte superior

M.Goretti González 5
del árbol de submetas, pudiéndo vincularse con otras submetas cuya verdad garantiza la verdad de
la conclusión. El modelo también utiliza suposiciones para asumir que una proposición es
verdadera y así generar inferencias adiocionales. Éstas se colocan en nodos subordinados del árbol
de asertos. Ejemplo:
Si no hay una M o no hay una P en la pizarra, entonces hay una R.
No hay una M

en consecuencia, Si no hay M, entonces hay una R

ÁRBOL DE ASERTOS ÁRBOL DE SUBMETAS

Premisa inicial:
2. Si no hay una M , entonces hay una R
1. Si no hay una M o no hay una P, entonces hay una R
(conclusión)
7. Si no hay una M, entonces hay una R

Nodo subordinado

3. No hay una M 4. Hay una R


6. Hay una R 5. No hay una M

Van enumeradas según el orden de entrada en la estructura de memoria. La premisa (1) se coloca
en árbol de asertos y la conclusión (2) en el de submetas. Luego se asume que el antecedente “No
hay una M” es verdadero y se ubica en nodo subordinado (3). También una nueva submeta “R”
subordinada para probar que el consecuente es verdadero. Este se deduce del aserto 1 si se puede
probar que “No hay una m o no hay una P” es verdadero. Luego se coloca una nueva submeta para
probar “No hay una M”. Dado que coincide con el aserto 3, se puede suponer que el aserto R es
verdadero y se puede probar como válido. El modelo evaluará como inválido un argumento
cuando no haya reglas que permitan encontrar el emparejamiento entre submetas y asertos.

Este modelo explica el proceso de razonamiento condicional como la generación de una prueba en
la memoria de trabajo en la que se admiten suposiciones. No tienen que ser necesariamente
verdaderas. El árbol de asertos reúne los pasos lógicos que conducen desde las premisas a la
conclusión y el árbol de submetas guía el proceso desde la conclusión a las premisas. Las reglas son
sensibles a las metas del sistema.

Rips formula catorce reglas de inferencia hacia atrás y diez reglas hacia adelante, que se aplican en
un orden de preferencia que empieza por las sencillas (conjunto no definido que tampoco abarca a
todo el conjunto posible, pero sí puede manejar un amplio conjunto de argumentos y su plausibi-
lidad psicológica viene dada por los propios protocolos verbales de los sujetos) De este conjunto
dos son Modus Ponens: hacia adelante y hacia atrás.
La regla del MP hacia adelante permite inferir “q” si en el árbol de asertos se encuentran las pro-
posiciones “si p, entonces q” y “p”. La regla del MP hacia atrás se aplica sobre el árbol de
submetas para aquellas situaciones en las que las condiciones iniciales tienen como meta deducir
“q” y “cuentan con el aserto “ si p, entonces q” y en este caso el sistema genera laa submeta “p” y
se infiere “q” que es el consecuente de la proposición de el árbol de asertos.

El modelo no cuenta con procedimiento directo para la detección de los argumentos inválidos. Un
argumento es inválido sólo si no se pueden encontrar reglas para probarlo. El análisis de protoco-

M.Goretti González 6
los verbales muestra que los sujetos también evaluamos un argumento inválido de forma directa y
sin necesidad de realizar una búsqueda exhaustiva.

Existen al margen varias perspectivas teóricas que no están de acuerdo con el acento lógico de
estos modelos y sus críticas subrayan la falta de explicación de los efectos del contenido sobre el
proceso de razonamiento.

3. TEORÍA DE LOS MODELOS MENTALES

3.1. Modelos mentales del condicional


La Tª de los Modelos Mentales (TMM) constituye un marco teórico gral del razonamiento deduc-
tivo. Comprende tres etapas:

1ª Comprensión: el sujeto utiliza su conocimiento sobre el lenguaje y su conocimiento en gral para


construir un modelo mental.
2ª Combinación de MM construidos a partir de las premisas con el fin de generar una descripción
lo más sencilla posible de estos. Debe enunciar algo que no esté explícito en premisas y es la con-
clusión tentativa del argumento.
3ª Validación: donde se buscan modelos alternativos de las premisas que puedan falsar la
conclusión.

La Tª MM logra explicar mayor número de resultados experimentales sobre la dificultad de los


problemas en términos de la cantidad de procesamiento y de las limitaciones de la memoria de
trabajo.

El enunciado condicional dependerá de su significado lingüístico y del contexto. El modelo mental


describirá el estado de lo que viene descrito en el antecedente y la relación del consecuente con el
antecedente que se presupone en ese contexto. En el condicional “Si Juan va a Barcelona, enton-
ces viaja en avión” , el antecedente representa la posibilidad y el consecuente representa lo que es
verdad cuando ocurre el antecedente.

Una representación exhaustiva es representada por corchetes [...] “p” no puede representarse en
otra situación que no sea aquella en la que se relaciona con “q”. Sin embargo, “q” puede darse en
otros modelos mentales con o sin “p”. Los tres puntos ... representan otros modelos posibles que
no se encuentran representados, pero que pueden hacerse explícitos. Al aumentar el número de
modelos explícitos también aumenta la carga de procesamiento. Los modelos implícitos pueden
desarrollarse en modelos explícitos de dos formas distintas, interpretación del condicional
(implicación material) y como bicondicional (equivalencia material)
En el modelo mental inicial, la inferencia modus ponens es directa y, la más fácil. Además el mode-
lo mental inicial es el mismo para el condicional como para el bicondicional, lo que explica cierta
Modelo [p] q Ambigüedad encontrada en su interpre-
inicial ... (modelos implícitos) tación.
CONDICIONAL BICONDICIONAL Cuando se plantea una inferencia Modus
Modelos [p] [q] [p] [q] Tollens: Saber que Si Juan va a Barcelona
explícitos [¬p] [q] entonces viaja en avión, y saber que Juan
[¬p] [¬q] [¬p] [¬q] no viaja en avión (¬q), no se puede ob-
tener una conclusión directa del modelo inicial, y hará
falta desplegar los modelos implícitos. Podemos ver que la inferencia modus Tollens para la impli-

M.Goretti González 7
cación material requiere tres modelos explícitos y para la equivalencia material tan solo dos. Se
puede explicar también que la inferencia Modus Tollens es más fácil en el bicondicional que en el
condicional y que no existan diferencias en el modus ponens al compartir ambas interpretaciones
el mismo modelo mental inicial.

El modelo mental inicial del condicional explica por qué los sujetos paracen ajustarse a una tabla
de verdad defectiva (bicondicional) al considerar irrelevantes aquellos condicionales en los que el
antecedente es falso.
TABLA DE VERDAD DEL CONDICIONAL
p q Implicación material Condicional defectivo
VERDADERO VERDADERO VERDADERO VERDADERO
VERDADERO FALSO FALSO FALSO
FALSO VERDADERO VERDADERO IRRELEVANTE
FALSO FALSO VERDADERO IRRELEVANTE

El modelo inicial solamente representa lo que es verdadero. Esto se ajusta a los resultados
experimentales que muestran la irrelevancia psicológica de un antecedente falso porque el modelo
mental inicial es precisamente una representación exhaustiva del estado actual de cosas descritas
en el antecedente. Para cualquier otra inferencia (que no sea modus ponens) habrá que generar
los modelos mentales explícitos. El conocimiento gral. y el conocimiento de las relaciones entre
antecedente y el consecuente influyen sobre este proceso de interpretación dando lugar a la gene-
ración de los modelos explícitos.

Las falacias de afirmar consecuente y negar antecedente se explican por la generación de los
modelos mentales explícitos: Los sujetos representan exhaustivamente tanto el antecedente como
el consecuente [p], [q] y cuando se afirma el consecuente [q] se produce también la afirmación del
antecedente [p]. La falacia de la negación del antecedente ocurre menos frecuente pues requiere
de otro modelo mental explícito: [¬p] [¬q], que da lugar a la inferencia ¬q.

Una de las críticas al modelo de reglas mentales es que acomodan los efectos del contenido a un
componente para laa comprensión de los enunciados, manteniendo intacta la estructura formal de
las reglas. Considerando que una de las reglas básicas es el modus ponens, Byrne 1989 demostró
qu esta inferencia se podía suprimir o bloquear por el contenido, y así se puede descartar que esta
inferencia se haga por la aplicación de una regla que se supone básica e independiente del conte-
nido.

Byrne inspirado en los trabajos de Rumain, Connell y Braine (1983) los cuales bloqueban las fala-
cias de NA y de la AC introduciendo una premisa adicional que establecía un antecedente
alternativo para el mismo consecuente:
Si voy a jugar al tenis, entonces me pongo el chandal. Y se presenta la premisa adicional como, Si
voy a hacer footing, entonces me pongo el chandal. Cuando se introduce esta los sujetos se dan
cuenta de que la negación del antecedente no implica la negación del consecuente (pues uno se
puede poner el chandal aunque no vaya a jugar al tenis) y que la afirmación del consecuente no
implica la afirmación del antecedente pues uno no tiene que ir necesariamente a jugar al tenis por
tener el chandal puesto. Rumian y cols. quería demostrar que los sujetos no tienen reglas para
estas falacias, pero Byrne quería con ello demostrar que no había ninguna regla mental ni la del
modus ponens. En su procedimiento no se introducía un antecedente alternativo, sino otro que

M.Goretti González 8
fuera necesario para que se cumpliera el consecuente:
Si salgo a hacer footing, entonces me paso por tu casa --> Si es una hora prudente, entonces me
paso por tu casa. En este caso la premisa adicional informa que hace falta otro antecedente para
que se cumpla el consecuente. Al presentarse “Salgo a hacer footing” los sujetos no hacen la infe-
rencia modus ponens y responden que no se sabe o que no se puede. Por tanto este resultado
cuestionna que existan reglas de inferencia MP que se apliquen independientemente del conteni-
do.

Politzer y Braine 1991 señalan que lo dicho por Byrne no es adecuado. Los autores defienden que
la interpretación que harían los sujetos de las dos premisas sería “Si salgo a hacer footing y si es
una hora prudente, entonces me paso por tu casa”, pero también uno puede decidir no pasar.
Admitiendo la réplica de estos autores, la Tª de los MM es más completa ya que logra predecir y
explicar un mayor número de resultados experimentales que los modelos de reglas. Braine 1993
sugiere que se puede razonar tanto con reglas de inferencia como con modelos mentales y que los
modelos metales son compatibles con su teoría.

3.2. La modulación semántica y pragmática.

La teoría de los modelos mentales reconoce que el conocimiento y la comprensión semántica y


pragmática forman parte de la primera etapa de comprensión. Johnson-Laird y Byrne 2002,
amplían la teoría para poder explicar los diferentes significados del condicional por medio de su
modulación.

El consecuente depende de alguna forma del antecedente y esta dependencia puede tener distin-
tos significados según el contexto en que ocurra (relación de implicación, causal, temporal, permi-
sos, obligaciones,...) El signficado central del condicional se corresponde con dos condicionales
básicos: 1) la interpretación condicional (mod.mentales) y 2) la interpretación tautológica, la cual
se expresa como “si p, entonces posiblemente q”. El antecedente es una descripción de una posi-
bilidad y el consecuente es la descripción de lo que puede ocurrir es esa posibilidad. La interpreta-
ción condicional expresa que el antecedente es suficiente para que ocurra el consecuente y que el
consecuente es compatible con todas las posibilidades.
Si p, entonces Si p, entonces posiblemente q En la interpretación tauto-
lógica hay dos modelos
Modelos Iniciales p q p q mentales iniciales para re-
... (modelos implícitos) p ¬q
presentar la posible ocu-
Modelos explícitos p q p q rrencia y no ocurrencia del
¬p q p ¬q consecuente. Donde “Si
¬p ¬q ¬p q hace bueno, entonces
¬p ¬q posiblemente salga de pa-
seo”, dando pie a la ocurrencia como a la no ocurrencia. Admite la representación de ambas posi-
bilidades.

El mecanismo de modulación semántica y pragmática interviene sobre el significado de estos


condicionales básicos dando lugar a un número indeterminado de distintos tipos de interpretacio-
nes. A consecuencia de ello se puede bloquear la generación de algunos modelos mentales. Esta
modulación facilita el despliegue de los modelos explícitos. Los sujetos utilizaban sus conocimien-
tos para hacer una inferencia modus tollens. Se encontró que la conclusión “Luis no se encuentra

M.Goretti González 9
en Marbella” (¬p) se generaba facílmente a partir de “Si Luis se encuentra en marbella (p),
entonces está en España (q) y “Luis no está en España” (¬q).

En otros casos la modulación semántica y pragmática añade información sobre la relación entre
antecedente y consecuente. Al contrario que la lógica, este mecanismo puede generar un número
ideterminado de distintos tipos de interpretaciones porque cuando se interpreta un condicional en
el lenguaje natural se están considerando las posibilidades de ocurrencias y no los valores de ver-
dad de las aserciones.

4. MODELOS DE REGLAS PRAGMÁTICAS.

La tarea de selección de Wason 1966 ha sido una de las pruebas más utilizadas para la mayoría de
las investigaciones sobre los efectos del contenido y el desarrollo de las Tªs y modelos con compo-
nentes sensibles a este contenido. Es la tarea paradigmática del condicional. Se presenta contenido
abstracto y el procedimiento consistía en presentar 4 tarjetas con letras por una cara y los números
por la otra. Se acompaña de un enunciado condicional en forma de regla y se pedía a los sujetos
que dieran la vuelta a la tarjeta o tarjetas que fueran necesarias para confirmar o falsar la regla:
“Si hay una consonante por una cara , entonces hay un número impar por la otra”.

P E 7 2

Ante la tarea, la mayoría seleccionan la tarjeta que se corresponde con el antecedente, o bien
seleccionan las dos tarjetas que se corresponden con el antecedente y consecuente (P y 7) Ello no
se corresponde con el modelo normativo donde la letra P confirmaría la regla modus ponens, y el
número 2, permitiría falsarla – modus tollens.

Al dotar de contenido a la tarea se encontró que el rendimiento de los sujetos mejoraba significati-
vamente pues estos seleccionaban las tarjetas correctas para confirmar y falsar el enunciado con-
dicional.

Barcelona Cadiz avión tren

Pronto se manifestó que no era el contenido concreto frente al contenido abstracto el responsable
de este efecto de facilitación, sino que este contenido fuera conocido por los sujetos. Su
explicación estaba basada en el repertorio de conocimientos del sujeto y el rendimiento correcto
se interpretó como un proceso de memoria y no como aplicación de reglas lógicas. No obstante,
algunos problemas con contenido concreto pero no familiar seguían produciendo facilitación.
Además, el contexto en el que se formulaba la tarea permitía resolveer correctamente los
problemas y estos resultados indicaban que la presentación de la misma con contenidos familiares
no era suficiente para explicar en todos los casos la facilitación, por tanto algunas alternativas ad-
virtieron de procesos de razonamiento específicos del dominio de conocimiento y que están mar-
cados por el contexto.

4.1. Esquemas de razonamiento pragmático

Cheng y Holyoak 1985, proponen que los sujetos utilizan esquemas de razonamiento que definen
como una estructura de conocimiento constituida por un conjunto de relgas con un nivel

M.Goretti González 10
intermedio de abstracción definido por el contexto. Estos esquemas contienen reglas que son sen-
sibles a diferetes clases de metas y se entiende que las respuestas serán correctas en la medida en
que sean de mayor utilidad para la situación en la que se encuentra el sujeto. Los aspectos
pragmáticos del razonamiento, son los encargados de encaminar el proceso de inferencia y será la
experiencia ante un conjunto de situaciones con una misma clase de metas la que irá conformando
los esquemas concretos. Si se presenta problema con contenido abstracto y los sujetos tienen
conocimientos sobre el razonamiento formal se puede resolver correctamente y en caso de no te-
nerlos, recurren a otro tipo de estrategias, muchas veces desencadenantes de sesgo de razona-
miento.

El modelo identifica unos esquemas de regulación constituido por permisos y obligaciones bajo los
cuales se pueden agrupar la mayoría de los problemas con contenido temático. Estos esquemas
hacen explícitas situaciones en las que para alcanzar una meta hace falta cumplir unos requisitos.
Los componentes incluyen los conceptos de posibilidad, necesidad, acción y los requisitos que se
han de cumplir.

Esquemas de PERMISO:
– Regla 1: Si se va a realizar la acción, entonces debe satisfacerse la precondición.
Semejante al modus ponens al enunciar explícitamente que la precondición “debe” cumplirse
cuando se va a realizar la acción.
– Regla 2: Si la acción no se va a realizar, entonces no necesita satisfacerse la precondición.
Con esta se bloquea la falacia de la negación del antecedente puesto que hace explícita la
irrelevancia de que se cumpla la precondición si no se va a realizar la acción.
– Regla 3: Si se satisface la precondición, entonces puede realizarse la acción.
Se bloquea la falacia de la afirmación del consecuente al enunciar la posibilidad de que la
acción puede, aunque no debe necesariamente satisfacerse, cuando se cumpla la precondi-
ción.
– Regla 4: Si no se satisface la precondición, entonces no debe realizarse la acción.
Enuncia explícitamente el modus tollens al incluir el imperativo “no debe” realizarse la acciónsi
no se satisface la precondición.

Estas reglas no son reglas lógicas pues son sensibles al contexto y a la interpretación de los térmi-
nos “puede” y “debe”. Además no siempere hay coincidencia entre los esquemas de razonamiento
pragmático y las reglas lógicas (Los problemas con relaciones causales y de covariación pueden
evocar esquemas de razonamiento distintos a los propuestos para las situaciones con regulaciones
y se explica porque los esquemas pueden variar en función de las metas del sujeto. Cuando el con-
texto se ajusta a una situación de regulación en la que la autoridad pone condiciones para alcanzar
un determiando objetivo, los esquemas serán los de permiso y obligación, pero si el objetivo es la
predicción sobre la transición entre estados del ambiente, se evocarán los esquemas causales. Así
se puede explicar el como los sujetos interpretan como una equivalencia material las relaciones
causa efecto y covariaciones.

Los resultados de Cheng y Holyoak (1985) mostraron que los sujetos resolvían correctamente la
tarea de selección siempre y cuando tuvieran las claves contextuales para interpretar la regla como
un permiso. Los sujetos sin experiencia en el contexto acertaban en la tarea con contenido, así
como que cuando se da entrenamiento en los esquemas, aunque sean abstractos, produce efectos
facilitadores. Girotto y cols. lo corrobora con el experimento en niños que se encuentran en el

M.Goretti González 11
estadio de las operaciones concretas e incluso otros más pequeños mejoraban significativamente
su rendimiento cuando los problemas se presentaban como esquemas de permiso. Ello lleva a de-
fender que el razonamiento está basado en los esquemas en lugar del modelo de la lógica natural.

Los autores encuentran que los esquemas de permiso producían efectos facilitadores incluso
cuando éstos no eran familiares, pero sí plausibles. El contexto donde se enmarca una regla de
permiso interactúa con su contenido para la obtención de los efectos de facilitación en la tarea de
selección.

4.2. Teoría de los contratos sociales

La Tª del Intercambio Social (evolucionismo cultural) desarrollada por Cosmides 1989, propone
una interpretación alternativa de los efectos de facilitación obtenidos con la tarea de selección de
Wason. Es semejante en aspectos a la Tª de los esquemas de razonamiento pragmático: mantienen
que los sujetos utilizan reglas de inferencia apropiadas al dominio sugerido en el problema y estas
inferencias pueden ser diferentes para distintos dominios de contenido. Se diferencian en el tipo
de reglas inferenciales que proponen y su origen. Para unos los esquemas de raz.pragmático se ori-
ginan por la experiencia, mientras que en la teoría de los contratos sociales son innatas. Señala
doña Cosmides que su teoría es una aproximación entre la moderna biología evolucionista y la
ciencia cognitiva. El enfoque evolucionista asume que la mente humana comprende un conjunto
de mecanismos de procesamiento en el sistema nervioso y que estos son producto de la selección
natural y están funcionalmente especializados para producir conductas determinadas (lenguaje,
relaciones familiares y cooperación).

Hay leyes que son inherentes al proceso de selección natural y que gobiernan y limitan el tipo de
conducta. La solución adaptativa para las situaciones de intercambio social son unos algoritmos de
contrato mediante los cuales un individuo está obligado a pagar un coste a un individuo o grupo si
quiere tener derecho a recibir un beneficio. Ello se da con el compromiso por parte de ambas par-
tes y cierta garantía de cumplirse. Detectan cuando alguien ha engañado o lo intenta. Contenido
de la tarea adaptada a la estructura coste/beneficio de forma que las cuatro tarjetas enuncian las
ss situaciones:
“Si se recibe el beneficio, entonces se tiene que pagar el coste”.

Benefi ci o Benefi ci o Cos te pa gado Cos te no pa gado


a cepta do p no aceptado (q) ( ¬ q)
( ¬ p)

El procedimiento para la detección del posible engaño daría lugar a que el sujeto eligiese las tarje-
tas “coste no pagado” y “Beneficio aceptado”, ya que permitirían detectar a los tramposos, y así ig-
norarse las tarjetas “coste pagado” y la “beneficio no aceptado”. Según Cosmides y Tooby, 89 los
resultados obtenidos por Cheng y Holyoak no constituyen un apoyo a la teoría de los esquemas de
razonamiento pragmático, sino que los efectos facilitadores de este experimento se debieron a que
se añadió información contextual que convirtieron las normas de permiso en contratos sociales.
Los problemas utilizan contenidos imaginarios que se presentan en el contexto de una historieta:
El problema de la raíz de “cassava” cuenta que en una tribu (imaginaria) cuando un hombre se casa tiene que llevar
un tatuaje en la cara y que sólo los hombres casados llevan tatuajes. Debido a que la raíz de “cassava” es un
afrodisiaco y a que sólo los casados pueden tener relaciones sexuales, los ancianos de la tribu establecieron la
s.norma: “Si un hombre come raíz de cassava, entonces tiene que llevar un tatuaje en la cara”.

M.Goretti González 12
En el problema del huevo del avestruz se cuenta que la comida “duiker” es desable y escasa. Para poder comerla
hay que encontrar un huevo de abestruz, que es una tarea de caza compleja. En este caso la norma sería:
“Si comes “duiker”, entonces tienen que haber encontrado un huevo de avestruz”.

Cuando los sujetos razonan acerca de las situaciones con la estructura coste/beneficio sus respues-
tas se ajustan a las predicciones del procedimiento para la detección del engaño.

Cheng y Holyoak 89 rebaten la crítica de Cosmides a su primer experimento señalando que una
vacuna que protege a una persona conta una enfermedad no es propiament un “coste” pagado a
otra persona o grupo. Respecto a su segundo experimento sobre el contenido abstracto, afirman
que el mero hecho de decir que se ha de cumplir un “requisito P” para poder realizar una acción A,
no marca lingüísticamente a la “acción A” como beneficio obtenido.

Cheng y Holyoak, ponen de manifiesto que Cosmides utiliza términos “intercambio social” y
“contrato social” indiscriminadamente. Ella misma reconoce que los contratos sociales también
incluyen situaciones de permiso y regulación y utiliza en algunos casos una definición amplia de
intercambio social en la que incluye el cumplimiento de un requisito para obtener un beneficio, y
una definición más restrictiva cuando el contenido del problema se ajustaa a la estructura
coste/beneficio.

4.3. Polémica entre los esquemas de razonamiento pragmático y los contratos sociales

Los esquemas de permiso podrían interpretarse como normas de contrato social y Girotto, Blaye y
Farioli (1989) estudian otros esquemas de regulación: obligaciones donde no se da esta ambigüe-
dad. Respecto a las predicciones de Cosmides, se encuentra que sigue la facilitación cuando los
problemas se formulan como obligaciones, aún careciendo de estructura coste/beneficio.
Concluyen que la teoría de los esquemas de razonamiento pragmático explican número mayor de
resultados experimentales tanto interpretando casos como situaciones de regulación social como
con la estructura de coste/beneficio.

Politzer y Nguyen-Xuan 1992 contrastan las predicciones de la Tª de los esquemas de


razonamiento pragmático y las de los contratos sociales al estudiar el papel que desempeña el su-
jeto en la tarea de selección cuando adopta distintas perspectivas. El objetivo era ampliar la
propuesta de los esquemas a situaciones de intercambio social en las que se pudiera adoptar dos
puntos de vista alternativos cuando se presentaba una promesa condicional y una advertencia
condicional. Los resultados apoyan a la teoría de los esq.de raz.pragmático y no a la de los
contratos sociales, pues se encuentra que las promesas y advertencias condicionales se ajustan a
un esquema compuesto de permiso y obligación, dependiendo del papel que desempeñe el sujeto
en ambas situaciones.

ESQUEMAS DE PERMISO ( Cheng y Holyoak, 1985)

Regla 1: si se va a realizar la acción Y, entonces debe Regla 3: Si se satisface la precondición Z, entonces puede
satisfacerse la precondición Z. realizarse la acción Y.
Regla 2: Si la acción Y no se realiza, entonces no necesita Regla 4: Si no se ssatisface la precondición Z, entonces no debe
satisfacer la precondición Z. realizarse la acción Y.

M.Goretti González 13
ESQUEMAS DE OBLIGACIÓN (Cheng, Holyoak, Nisbett y Oliver, 1986)

Regla 1: Si OCURRE la situación Y, entonces se debe realizar la Regla 3: Si la acción Z se ha realizado, entonces puede haber
acción Z. ocurrido la situación Y.
Regla 2: Si no OCURRE la situación Y, entonces no es necesario Regla 4: Si la acción Z no se ha realizado, entonces la situación
realizar la acción Z. Y no debe haber ocurrido.

Una regla de permiso se convierte en una obligación desde el punto de vista del que hace la pro-
mesa y es un permiso desde la perspectiva del que la recibe. Siempre el sujeto intentará aplicar los
esquemas de reglas de su interlocutor (el que la hace, aplica el esq.permiso y el que la recibe
utilizará esq.de obligación) . Si se adopta un punto de vista neutro entonces se hará una
interpretación bicondicional de la situación.

Markovits y Lesage 1990 encuentran evidencia experimental que apoya la utilización de


esquemas de razonamiento pragmático cuando el condicional se presenta como promesas. Los
sujetos parecen poseer esquemas de razonamiento que conducen a la interpretación bicondicional
ante problemas con promesas condicionales. El efecto de estas promesas condicionales dependía
del tipo de contexto en el que se enmarcaba el problema

Gigerenzer y Hug 1992 interpretan el cambio de perspectiva como evidencia a favor de la Tª de los
contratos sociales. Tienen como objetivo la diferenciación experimental entre el concepto de
contrato social y el algoritmo para la detección de tramposos. El porcentaje de respuestas
correctas disminuye cuando los sujetos resuelven la tarea de selección desde la perspectiva de un
contrato social con situaciones de permiso u obligación y en la que la detección de tramposos es
irrelevante. Defienden el papel que desempeña el mecanismo para la detección de los tramposos,
atenuando la relevancia del contrato social y descartando los esquemas de regulación.

Platt y Griggs 1993 logran separar por orden de importancia los efectos de algunos de los factores
que previamente habían producido facilitación, encontrando que la estructura coste/beeneficio es
necesaria praa obtener los efectos facilitadores en los problemas de contrato social. La perspec-
tiva del engaño y la presencia de la negación explicita sólo contribuyen a mejorar el rendimiento
cuando la tarea es ambigua. El término “debe” producía efectos facilitadores en un número mayor
de casos que los dos últimos factores.

Manktelow y Over, descartan ambas propuestas para apoyar una ampliación de la Tª de los MM
que incorpore las utilidades e sus representaciones. Señalan los efectos facilitadores de los térmi-
nos deónticos incluidos en los esquemas de permiso y los contratods sociales. Distinguen el condi-
cional con términos indicativos (tarea abstracta) y el condicional con términos
deónticos( esquemas de permiso y contratos sociales).

Jackson y Griggs señalan que los efectos facilitadores en los problemas con contenido abstracto
son productoo de dos factores ajenos a los esquemas de razonamiento:
1) enunciar la negación explícita para ¬p y ¬q , (“ Si hay una P, entonces hay un 7 ”--> “Si hay una P,
entonces no hay un 7”) y de la negación implícita sería “Si hay una P, entonces hay un 2” )
2) presentación de un contexto de búsqueda de posibles violaciones de la regla.

Cuando los problemas se formulan como esquemas de permiso abstractos, pero con la negación
implícita y en un contexto orientado a la comprobación de una regla y no a su violación, estos
efectos de facilitación desaparecen.

M.Goretti González 14
Cuando se usa la negación explícita, su formulación coincide con el antecedente de la regla 4 de los
esquemas de permiso, haciendo que el efecto de facilitación sea mayor en la evocación de los
esquemas.

Cuando se utiliza la negación implícita es necesario que el sujeto infiera que el cumplimiento de
una condición distinta a la comprendida en la regla implica que no se ha cumplido la condición de
la regla. Se supone que una de las dos condiciones y no ambas pueden ser satisfechas.

La propuesta de Cosmides sobre los contratos sociales queda asumida como parte de los esque-
mas de regulación de Cheng y Holyoak. La delimitación conceptual entre los esquemas de
regulación (permiso y obligación) y los contratos sociales es difusa y las críticas se han centrado
principalmente sobre el concepto de la estructura coste/beneficio, puesto que los problemas en
los que se han obtenido efectos facilitadores no se ajustan a esta estructura, incluso algunos de los
problemas utilizados por la misma Cosmides.

5. TEORÍAS DE LA RELEVANCIA

5.1. Teoría de la relevancia de Sperber y Wilson

Según la Teoría de la Relevancia (Sperber y Wilson) el razonamiento se encuentra determinado


por las expectativas que tienen los sujetos sobre la relevancia suscitada por el contenido y
contexto de la tarea. Los autores sostienen que en la tarea de selección lo que se pide a los sujetos
es seleccio-nar aquello que sea relevante para el proceso de inferencia.

Sperber y Wilson parten del supuesto de que los procesos cognitivos se guían por la información
que sea más relevante en ese momento y sobre la que acomodan un contexto de supuestos para
maximizar su relevancia (Primer principio Cognitivo de Relevancia) Cuanto mayor son las expec-
tativas sobre los efectos cognitivos mayor será la relevancia y cuanto mayor sean los costes del
procesamiento menor será la relevancia.

El ser humano está preparado para interactuar con el ambiente, y con la información más saliente
y que sea fácil de representar. Sin embargo, la información que se comunica difiere de la
información ambiental puesto que en general suscita relevancia. Todo acto de comunicación
transmite una presunción de su propia relevancia (Segundo princpio Comunicativo de Relevancia)
Este principio garantiza que espontáneamente se ponga en marcha el proceso de comprensión
ante la emisión de un acto comunicativo.

En el laboratorio encontramos que las tareas suelen ser tan artificiales que las expectativas de
relevancia de los individuos son mínimas.Las consecuencias se pueden probar directamente en el
orden en qe se encuentran disponibles y se obtiene una conclusión cuando se alcanzan las expec-
tativas de relevancia. Las consecuencias más pertinentes: 1 y 2 menor
1) la regla implica que cualquier tarjeta con una (p) tendrá una (q) por el otro lado. cos te, y es -
fuerzo míni -
2) La regla implica que en la mayoría de los contextos hay casos p y q. mo.
3) La regla contradice el supuesto de que hay casos de (p) y (¬q)

Para que los sujetos logren una interpretación del condicional como una negación de los casos (p)

M.Goretti González 15
y (¬q) como la afirmación de que no hay casos (p) y (¬q) (negación implícita) hace falta que esta
consecuencia sea por lo menos tan accesible y rica en las expectativas sobre los efectos cognitivos
como los casos (p) y (q), entendido desde la interpretación de la regla y no desde su aplicación.

Para generar una tarea de selección se proponen unas directrices:


1. Seleccionar características sencillas de forma que (p) y (¬q) resulte tan fácil como (p) y (q):
“soltero” -> combina “ser varón” (p) y “no estar casado” (¬q)
2. Generar un contexto donde los efectos cognitivos de los casos “p y ¬q” sean mayores que
los de “p y q” (que el conocimiento de p y q sea trivial).
3. Presentar la tarea de forma pragmática para que la artificialidad no desvíe la atención de
los sujetos: introducir la regla dentro del contexto de una historia y que sea uno de los per-
sonajes el que la exponga.

Sperber, Cara y Girotto 1995 diseñaron cuatro experimentos para analizar la versión abstracta y
varias temáticas de la tarea de selección vs distintas versioes de la tarea donde se manipularon los
efectos cognitivos y el coste dela relevancia. Los resultados se ajustaron a las predicciones de la Tª
de la Relevancia y mostraron la utilidad de las directrices propuestas con el fin de generar una
tarea de selección sencilla y con resultados correctos. La explicacón de estos resultados se
extiende a los efectos de facilitación encontrados en la negación explícita y con los términos
deónticos. Cuando se utiliza la negación:
“Si hay una consonante por un lado, entonces no hay número par por el otro”
Las tres consecuencias más pertinentes serían las siguientes:
1. la regla implica que cualquier tarjeta (p) tendrá por le otro lado una (¬q)
2. la regla implica que en la mayoría de los contextos hay casos (p) y (¬q) (negación explícita)
3. la regla contradice el supuesto de que hay casos p y q (negación implícita)

Los sujetos seleccionan las tarjetas (p) y (q) porque la negación implícita requiere menos coste y
los efectos cognitivos son los de la interpretación de la negación.

Los autores indican que la versión indicativa y la deóntica son dos tareas diferentes. En la primera
se razona sobre la verdad de la regla, mientras que en la deóntica se hace a partir del
cumplimiento de una regla. Los efectos de facilitación encontrados en la versión deóntica se expli-
can por su interpretación dentro de un contexto. Una regla que no contenga el término “debe”
puede interpretarse como algo que debería hacerse siempre y cuando la regla tenga sentido en el
contexto pragmático. En la versión abstracta no hace que la regla se interprete como un deber,
mientras que sí en la deóntica aunque no vaya explícito el término:
“Si hay una consonante por un lado, entonces “debe” haber un nº impar por el otro” (debe siempre)
“Si una persona bebe alcohol, entonces es mayor de edad” (no está el término “debe” pero se interpreta)

Cuando en la versión indicativa se logra la interpretación del condicional como una negación de la
existencia de casos p (hay consonante por un lado) y ¬q (no debe haber impar por el otro = par), y
en la versión deóntica como una interpretación de la ocurrencia p y ¬q, se resuelve la tarea correc-
tamente.

5.2. Teoría heurística y analítica de Evans

Evans distingue dos procesos para explicar el razonamiento: los heurísticos y los analíticos. Los

M.Goretti González 16
heurísticos seleccionan la información relevante y son procesos pre-atencionales de naturaleza
pragmática. La información seleccionada pasa a los procesos analíticos en donde tiene lugar el
razonamiento, aunque no existe un compromiso explícito con el tipo de modelo que permitiría
explicar las inferencias.

Ya sabemos que las respuestas más frecuentes en el condicional, son (p) y (p y q). La interpretación
original de Wason fue que los sujetos mostraban sesgo hacia la confirmaciónde la regla y no
perseguían su falsación. Sin embargo Evans 1972, descubrió que se daba la posibilidad de que se
diera otro sesgo, emparejamiento (E de Evans :-) Este consistía sencillamente en que los sujetos
estuvieran seleccionando las tarjetas que coincidieran con los términos de la regla y que no
pensaran en esa “afirmación” de Wason. En versiones afirmativas no se distingue entre ambos
sesgos, por lo que se investigó con las negaciones.
“Si hay una consonante por una cara , entonces hay un número impar por la otra”.
(p) (q)
Si ocurre el sesgo de emparejamiento, las tareas elegidas coincidirían con los términos de la regla
sin la negación y además sería lo correcto.

“Si hay una consonante por un lado, entonces no hay un número impar por el otro”
(si p, entonces ¬q)

P (p) E (¬p) 7 (q) 2 (¬ q)

Según el sesgo de confirmación se buscarían confirmar la regla y seleccionarían las tarjetas (p) y
(¬q) , mientras que si se da el sesgo de emparejamiento se seleccionarían las tarjetas (p) y (q)
(consonante y nº impar). Los resultados apoyan la hipótesis del emparejamiento. La selección de la
información se explica por dos heurísticos:
– uno se pone en marcha por término “Si” del condicional y hace que el sujeto se centre en el
antecedente,
– y el otro es de carácter más general y hace que la atención se dirija hacia el tema del
enunciado.

Ante una regla con una negación explícita, el sujeto se focaliza sobre el antecedente y el
consecuente y que pase de los procesos heurísticos sin haber razonado. (AY!!! si razonáramos algo más,
las cosas serían muy diferentes!) Se seleccionan las tarjetas relevantes, salientes, prominentes, sin pasar
por la parte analítica. En otras pruebas como en la tabla de verdad, la etapa analítica se pone en
marcha y filtra parte de la información que ha sido seleccionada en la etapa heurística.

6. TEORÍAS PROBABILÍSTICAS
6.1. Teoría bayesiana del condicional

Kirby 1994, introduce el análisis de los juicios probabilísticos para explicar el rendimiento de los
sujetos en la tarea de selección. El fracaso de la mayoría de los sujetos al no seleccionar la tarjeta
(¬q ) se explica por la baja probabilidad que hay de encontrar (p) cuando el conjunto de
ocurrencias es pequeño V.g. “vocales” Si hay una vocal por un lado, entonces hay nº impar en el
otro”.

M.Goretti González 17
Los autores Oaksford y Chater 1994 proponen que las frecuencias en la selección de las tarjetas
son una función monotónica de la ganancia en información que se espera obtener en cada una. Se
sitúan en el marco teórico en el que la racionalidad se entiende como adaptativa en el sentido de
que el comportamiento será racional si se adapta de forma óptima en el ambiente. Parte de los
siguientes supuestos:
1. las metas del sistema cognitivo se dirigen hacia la selección de información relevante.
2. Las propiedades que figuran en las relaciones causales son raras o poco frecuentes en el
ambiente.
3. Los sujetos resuelven la tarea de acuerdo con el modelo bayesiano para la selección óptima
de los datos y bajo el mencionado “supuesto de rareza”.

Los sujetos seleccionan la tarjeta (tarjetas) que al darle la vuelta aporte más información sobre la
comprobación de una de dos hipótesis:
1ª existe dependencia en la forma “Si p, entonces q), y
2ª la hipótesis alternativa más sencilla, que p y q son independientes.

Al aplicar el modelo se obtiene que:


– la tarjeta (p) será informativa en la medida en que la probabilidad de (q) sea baja,
– la tarjeta (q) lo será cuando la probabilidad de (p y q) sean bajas ambas,
– la tarjeta (¬q) será informativa cuando la probabilidad de (p) sea alta,
– la tarjeta (¬p) no es informativa.
Se concibe así que el orden de frecuencias en la selección de las tarjetas p > q > ¬q > ¬p
En las versiones temáticas con términos deónticos, se concibe la tarea de selección como el uso de
una regla frente a la cmprobación de una regla de versión indicativa. El modelo probabilístico
calcula la utilidad esperada, y la regla se utiliza con el fin de maximizar la utilidad esperada que
varía en función de la perspectiva.

Green, Over y Pyne 1997, encuentran que las estimaciones que hacen los sujetos sobre la ocurren-
cia de los contraejemplos de (q) se encuentran determinados por el tamaño del conjunto de (p),
aunque señalan que esta relación es algo más compleja porque el valor asignado a la información
(confirmación y desconfirmación) también se tienen que comparar con otros beneficios/costes
esperados.

6.2. Teoría de la suposición

La Teoría de la suposición de Evans y Over (2004) también asume que el razonamiento condicional
se basa en la evaluación de unas posibilidades que son hipotéticas con respecto a la ocurrencia del
antecedente. El condicional es un pensamiento hipotético por medio del cual se generan los MM
del antecedente y sobre esta base se considera la probabilidad o el grado de creencia de que
ocurra el consecuente. Ante un enunciado condicional “si p, entonces q”, los sujetos van a
considerar cuál es la probabilidad de que ocurra (q) dado (p).

Esta idea se opone a la teoría de los modelos mentales al no admitir que los modelos mentales se
ajusten a una interpretación del condicional básico como una implicación material. En la
formulación probabilística no hay cabida para la no ocurrencia del antecedente. Según la teoría de
la suposición, ante un enunciado condicional se emite un juicio sobre la probabilidad condicional
subjetiva de que ocurra el consecuente cuanndo ocurre el antecedente.

M.Goretti González 18
Evans, Handley y Over 2003, (seguían aburridos los pobres, je,je,je ) realizaron una investigación en la que
se pedía directamente a los sujetos que evaluaran la prob de los enunciados condicionales en un
contexto en el que se especificaba la frecuencia relativa de todas las posibles lógicas:
37 cartas con dibujos (círculo o diamante en amarillo o rojo)
– 1 carta con círculo amarillo.
– 4 cartas con diamantes amarillos.
– 16 cartas con círculos rojos.
– 16 cartas con diamantes rojos.
La tarea consistía en señalar en una escala de 1 (poco probable) a 5 (muy probable) la probabilidad
de que la siguiente afirmación fuera verdadera si se escogiera una carta al azar:
“Si la carta es amarilla, entonces tiene dibujado un círculo”.
(p) amarilla (q) círculo
(¬p) no amarilla (¬q) no círculo

Se calcula la probabilidad del enunciado codicional según se interprete como una implicación
material, una probabilidad condicional o una probabilidad conjuntiva. Según este cálculo, la
implicación material predice que el enunciado condicional será evaluado como muy problable
(0,90); la probabilidad conjuntiva como muy poco probable (0,03); y la prob.condicional como
enunciado con una probabilidad entre ambos extremos (0,20). (Vease las tablas de verdad)

Los resultados experimentales mostraron que el 50% de los sujetos se ajustaron a la interpretación
de la probabilidad condicional, y el 43% a la de la probabilidad conjuntiva, no siendo significativa la
del la implicación material (¡vamos que no elegimos bien cuando es la más probable!) La interpretación de los
datos de la probabilidad conjuntiva se corresponde con la del Modelo mental inicial de la Tª de los
Modelos Mentales (pq) aunque es inconsistente que los modelos mentales implícitos (¬pq y p¬q)
no hayan tenido ningún efecto sobre la evaluación del enunciado condicional.

Evans y Over no se oponen a la concepción de la teoría de los modelos mentales, son que su
crítica se centra en el supuesto de los valores de verdad. Defienden que las personas interpretan
un enunciado condicional como la probabilidad de que ocurra el consecuente cuando suponemos
que se ha dado el antecedente.

¡.... sin comentarios!

M.Goretti González 19
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013

TEMA 6 – RAZONAMIENTO PROBABILÍSTICO

1. INTRODUCCIÓN

Cuando hacemos una predicción o pronóstico, tomamos una decisión o buscamos la causa de un
hecho determinado estamos evaluando la probabilidad de que determinados acontecimientos
vayan a ocurrir o hayan ocurrido. Nuestras predicciones sobre acontecimientos futuros se basan
en información incompleta, parcialmente inprevisible y ambigua, en los que la certeza de nuestros
juicios se sitúan en un margen determinado de probabilidad. Es un margen de incertidumbre. El
razonamiento probabilístico es importante en el ámbito profesional cuano no pueden comtemplar-
se en su totalidad todas las VV posibles que influyen o dan lugar a una determinada consecuencia.
El diagnóstico clínico en medicina y psicología, la potencial eficacia de metodologías innovadoras
en educación, sentencias judiciales, pronósticos electorales,... son ejemplos de juicios predictivos
en los que las conclusiones no son inequívocamente ciertas.

El razonamiento probabilístico constituye una modalidad de pensamiento que se enfrenta a


problemas abiertos, no muy bien delimitados, en un mundo cambiante y complejo, generando por
tanto, formas de percibir, computar y representar las VV externas para emitir juicios que permitan
estimar esa variabilidad y actuar sobre el entorno. Las leyes de probabilidad juegan un papel
similar a las leyes de la lógica en el raz.deductivo y constituyen un modelo normativo o prescriptivo
respecto a las inferencias probabilísticas.

2. EL TEOREMA DE BAYES

Cuando asignamos un valor de probabilidad a un suceso podemos conocer o no el espacio de pro-


babilidades. Si se conoce como en el lanzamiento de un dado o de moneda, asumiendo la
equiprobabilidad de las diferentes posibilidades, la probabilidad de un suceso aleatorio sería el co-
ciente entre el número de resultados favorables y el número total de resultados posibles. Si se
repite el lanzamiento de un dado, la probabilidad de sacar un dos, será equivalente a su frecuencia
de 1/6. En la vida diaria, no conocemos el espacio completo de probabilidades en realción a un su-
ceso determinado, por lo que estimamos subjetivamente en relación al espacio muestral, añadien-
do que las diferentes alternativas no sean necesariamente equiprobables.

La Tª de la probabilidad asume un conjunto de axiomas: (Lo vemos con un ejmplo. Al gabinete de


Ana (¡ésta no ha hecho el máster, es de otra promoción anterior!) acudieron el año pasado 100 pacientes. De
ellos 30 sufrían trastorno depresivo, 20 fueron diagnosticados de fobias específicas, y los 50
restantes de problemas de ansiedad)
1. La probabilidad de un suceso (S) varía entre 0 (imposibilidad) y 1 (certeza).
La prob de sufrir un trastorno de ansiedad es de 50/100 = 0,50
La prob de sufrir un trastorno depresivo es de 30/100 = 0,30
La prob de sufrir fobia específica es de 20/100 = 0,20

2. La suma de las probabilidades de todos los posibles sucesos en un espacio muestral dado
es 1. La probabilidad de “NO OCURRENCIA” de un suceso (S) es igual a 1 menos la
probabilidad de que sí ocurra. P (noS) = 1- P(S)

M.Goretti González 1
La suma de las probabilidades de toddos los posibles sucesos =
(30/100) + (20/100) + (50/100) = 1

3. Si dos sucesos (S1) y (S2) son mutuamente excluyentes, la probabilidad de S1 ó S2 será


igual a la suma de sus probabilidades. P (S1 ó S2) = P(S1) + P(S2)
La probabilidad de sufrir un trastorno depresivo o de sufrir una fobia específica =
(30/100) + (20/100) = 0,50

Terminada la primera fase de tratamiento, el porcentaje de curación en el grupo de trastornos


de- presivos fue del 50%, en fobias del 70% y del 40% en el grupo de pacientes con problemas de
ansiedad.

4. a) Si dos sucesos (S1) y (S2) son DEPENDIENTES, la probabilidad de la conjunción de


estos sucesos será igual al producto de la probabilidad de S1 por la probabilidad de S2
asumiento S1: P (S1 y S2) = P (S1) x P (S2 dado S1) =
P (S1 y S2) = P (S1) x P (S2/S1)
La prob de que un paciente haya sido diagnosticado de ansiedad y se haya curado =
P (ansiedad) x P ( curdao/ansiedad) = 0,50 x 0,40 = 0,20

b) Si dos sucesos (S1 y S2) son INDEPENDIENTES, la probabilidad de la conjunción de


estos sucesos será igual al producto de la probabilidad de S1 por la probabilidad de S2.
P(S1 y S2) = P(S1) x P(S2)

Imaginemos que del conjunto de pacientes que asistieron a terapia extraemos uno al azar y está
curado. ¿Cuál es la probabilidad de que dicho paciente hubiera sido diagnosticado de depresión?

Thomas Bayes añadió a esos axiomas una fórmula conocida como el Teorema de Bayes, el cual
permite calcular la probabilidad condicional inversa (prob posterior o a posteriori) El cálculo no es
directo ya que conocemos el dato (el paciente está curado) pero tenemos tres posibles opciones
de diagnóstico previo o hipótesis de partida: depresión, fobia o ansiedad. El teorema constituye la
ley fundamental en la que se basa este tipo de inferencia probabilística, tanto cuando la informa-
ción procede de datos muestrales como cuando es de estimaciones subjetivas de probabilidad.

Tabla 6.1 Espacio de probabilidades conjuntas “tipo de trastorno” y “curación o no” después de tratamiento.
HIPÓTESIS P(H) DATOS P (D/H) P (H) x P (D/H)
Depresión 0,30 Curación 0,50 P(dep) y C|dep) = 0,30 x 0,50 = 0,15
H1
No curación 0,50 P(dep) y no C|dep) = 0,30 x 0,50 = 0,15
Fobias 0,20 Curación 0,70 P(fob) y C|fob) = 0,20 x 0,70 = 0,14
H2
No curación 0,30 P(fob) y no C|fob) = 0,20 x 0,30 = 0,06
Ansiedad 0,50 Curación 0,40 P(ans) y C|ans) = 0,50 x 0,40 = 0,20
H3
No curación 0,60 P(ans) y no C|ans) = 0,50 x 0,60 = 0,30
Hipótesis Probabilidad Curación o Prob. del
asociada no DATO P (total) = 0,15 + 0,15 + 0,14 + 0,06 + 0,20 + 0,30 = 1

1. La probabilidad a priori de la Hipótesis: P(H). La hipótesis relevante para el problema que


tenemos. P (depresión)

M.Goretti González 2
2. La diagnosticidad del Dato para la hipótesis: P (D|H). P(curación |Depresión) este valor
recibe el nombre de diagnosticidad del dato (curación) y se puede dar en presencia de
otras dos posibles hipótesis alternativas: P (D|H2) o P (D|H3)
3. Con el producto de estos se obtiene la probabilidad conjunta de dos sucesos dependientes:
Haber sido previamente diagnosticado de depresión y curarse dado el diagnóstico previo de
depresión: P (H) x P (D|H) en nuestro ejemplo sería: P(depresión) x P(curación|depresión)
4. La probabilidad condicional inversa. Denominado así porque es la inversa de la condicional
P (D|H) se conoce la probabilidad condicional de curarse habiendo sido diagnosticado de
depresión: P(curarse|depresión). Sabiendo que un paciente extraído al azar está curado
¿cuál es la probabilidad de qe hubiera sido previamente diagnosticado de depresión?
P (H|D) o P(Depresión|curación)

Siguiendo el Teorema de Bayes, el cálculo sería el resultado de dividir la probabilidad de los casos
favorables por la suma de las probabilidades de todos los casos posibles. El axioma 4 explica el
numerador del Teorema (prob de casos favorables) y el axioma 3 explica el denominador (suma de
las probabilidades de los casos posibles.

P (H1 |D)= P (H1 ) x P (D | H1)


[P (H1 ) x P (D | H1)] + [P (H2 ) x P (D | H2)] + [P (H3) x P (D|H3)]
P(depresión) x P (curación|depresión) + P(fobia) x P (cura|fobia) + P(ansiedad) x P (cura|ansiedad)

P (H1 |D)= 0,30 x 0,50 = 0,30


(0,30 x 0,50) + (0,20 x 0,70) + (0, 50 x 0,40)

Señalan Arieta Pinedo y González Labra (2011) que la inferencia bayesiana permite introducir
probabilidades subjetivas tanto al evaluar a priori como al evaluar las condiciones de un suceso.
Pueden obtenerse de distintas fuentes, tales como la evidencia, teorías previas o simplemente de
la opinión y creencias de la persona. La hipótesis alternativa es la ausencia de la hipótesis focal de
tal forma que su probabilidad complementaria se calcula aplicando el axioma 2 de la Tª de la
probabilidad. Fijémonos en el cuadro 6.1. Pero si volvemos al ejemplo de Ana, imaginemos otro
experimento de razonamiento probabilístico cuyo objetivo es analizar en sujetos no expertos en Tª
de la probabilidad cuál sería la solución al problema planteado sin necesidad de realizar cálculos
matemáticos:
Problema A: Seleccionamos un paciente al azar y encontamos que está curado.
¿qué prob será mayor?:
a) fue diagnosticado de fobia específica.
b) fue diagnosticado de ansiedad.

Problema B: Ana plantea analizar qué variables explican que después de la primera fase del
tratamiento sólo el 40% de los pacientes sanen de su ansiedad. Cita un día a todos los curados y
en otro día a los que siguen en el proceso.
Elena sufre de ansiedad y acude a consulta a pedir cita el día que ésta citó a los curados. En la
sala coinciden con Elena y le transmiten a ésta el éxito y rapidez de curación tras la primera fase
de tratamiento. A partir de la información Elena considera que la primera fase de tto empleado
por Ana para el tratamiento de la ansiedad:
a) es altamente eficaz
b) es parcialmente eficaz

M.Goretti González 3
Elena selecciona la A) y es incorrecta. En el caso del problema A, aún contando con toda la infor-
mación, el error se produce porque una mayoría se centran en el valor del porcentaje de curación
(70%), la diagnosticidad del dato en relación a la hipótesis, y desatienden a la probabilidad a prio-
ri de sufrir el trastorno (20%). En el caso del B, ella no cuenta con toda la información relevante, la
diagnosticidad del dato en presencia de la hipótesis alternativa (no se ha curado)

La evidencia empírica demuestra que el razonamiento probabilístico humano generalmente no es


extensional (no contempla el conjunto de probabilidades de forma exhaustiva). En el problema A,
se desatiende al porcentaje sobre el total de 100 casos que fueron diagnosticados de los diferentes
trastornos. En muchas ocasiones, las estrategias conducen a resultados correctos y son efectivas y
económicas en tiempo y esfuerzo cognitivo pero pueden resultar a la vez imprecisas.

Cuadro 6.1. Aplicación del Teorema de Bayes a partir de probabilidades subjetivas.


Pedro se presenta a una oposición, sin experiencia práctica similar, junto a otras muchas personas. Para conseguir el
puesto se tiene en cuenta tanto los méritos del opositor como la nota de examen. Pedro considera tener muy pocas
posibilidades: P(H) = 0,05 -> conseguirlo. No conseguirlo = 0,95. Lo ha asignado después de ver el listado de de los mé-
ritos de todos los candidatos.
Realizado el examen, obtuvo una nota de 8,6. La estrategia de la empresa, aún valorando el curriculum, es dar una
gran importancia a la calificación del examen, hasta el punto de que prácticamente todos los que obtienen la plaza
han aprobado con buena nota. Pedro también conoce personas que aún sacando una buena calificación no obtuvieron
el puesto en convocatorias anteriores.
A este hecho le asigna una probabilidad de 0,10 -> P (sacar buena nota| no plaza) = P ( D| H´) = 0,10 y
y P (sacar buena nota| plaza) = 0,98 = P ( D| H) = 0,98
¿ Cuál es la probabilidad de que Pedro obtenga el puesto de trabajo una vez conocida la buena calificación obtenida en
el examen? Obtenida la nota, Pedro ha pasado de 0,05 a 0,34 de probabilidad.

P (H1 |D)= P (H) x P (D | H) = 0,05 x 0,98 = 0,34


[P (H) x P (D | H)] + [P (H´) x P (D | H´)] (0,05 x 0,98) + (0,95 x 0,10)

3. ENFOQUE DE LOS HEURÍSTICOS

Los heurísticos constituyen reglas y estrategias intuitivas, que se aplican deliberadamente o no


para estimar o predecir. Con frecuencia, al margen de consideraciones básicas de la Tª de la proba-
bilidad, puede dar lugar a distintos errores sistemáticos (sesgos o falacias) característicos de cada
uno de ellos.
El estudio de los sesgos y errores sistemáticos se investiga en el razonamiento probabilístico,
también desde los principios de la percepción normal y desde la memoria estudiando el olvido.
Teversky y Kahneman iniciaron y desarrollaron un programa de investigación que sustenta los
tipos básicos de heurísticos: representatividad, accesibilidad, y anclaje y ajuste. Más
recientemente se contempla el estudio desde un modelo más integrador.

a) Heurístico de representatividad.
Los juicios probabilísticos responden a una de las ss preguntas:
1. ¿Cuál es la prob.de que el objeto A pertenezca a la categoría B?
2. ¿Cuál es la prob.de que el proceso B sea la causa del acontecimiento A?, o
3. ¿Cuál es la prob.de que el dato A se genere a partir del modelo B?

La investigación ha demostrado que la información de los prototipos y esquemas contribuyen sig-


nificativamente a la forma en que almacenamos y procesamos la información. Natural y

M.Goretti González 4
económico cognitivamente el juzgar la probabilidad de un evento evaluando el grado en el cual es
representativo de la categoría de referencia. Esta estrategia para abordar estos juicios probables,
produce sesgos significativos pues la semejanza no se ve afectada por factores que deberían
afectar a los juicios de probabilidad. Dicha insensibilidad a estos factores es estudiada por Tversky
y Kahneman, 1974.

a.1. Insensibilidad a las probabilidades a priori

Uno de estos factores que no afectan a la representatividad (aunque debiera tener efecto sobre el
juicios probabilístico) es la probabilidad a priori o la frecuencia base del resultado. Se realizó el
estudio: los participantes analizaron descripciones de personalidades de una muestra de 100 individuos (ingenieros
y abogados).
– A una condición experimental se les indica que 70% son ingenieros y 30 % abogados.
– Y en la otra condición, es 30% de ingenieros y 70 % de abogados.
Jack tiene 45 años, casado y cuatro hijos. Conservador, prudente y ambicioso. No manifiesta intereses políti-
cos y sociales y emplea su tiempo libre en sus aficiones (carpintería, navegar, resolver prob.matemáticos) La
probabilidad de que sea uno de los 30 ingenieros de la muestra de 100 es _______%

La probabilidad de pertenecer al grupo de ingenieros debería ser mayor en la primera condición, y la probabilidad de
pertenecer al grupo de abogados debería ser mayor en la segunda condición.
Los participantes VIOLARON drásticamente la predicción del Teorema de Bayes, pues en ambas condiciones se produ-
jeron los mismos juicios. Evaluaron la probabilidad de que una determinada descripción perteneciera a un ingenieo vs.
Abogado en función del grado en que dicha descripción era representativa de uno u otro estereotipo, atendiendo bien
poco a las probabilidades a priori de las categorías.

La dificultad para aplicar el algoritmo necesario para calcular correctamente la probabilidad de un


acontecimiento se demostró inclusive con participantes expertos. Problema a un grupo de médicos

Probabilidad de cáncer de mama en mujeres de 40 años es del 1%


Si una padece cáncer la probabilidad de que la mamografía resulte positiva es del 80%
La probabilidad de que no padezca cáncer de mama tenga un resultado positivo es una mamografía es del 9,6%
Una mujer de 40 años obtiene resultado positivo en la mamografía en un control. ¿cuál es la probabilidad de que la
mujer padezca de hecho cáncer de mama? _______%

El 95% de los médicos estimaron que la probabilidad (cáncer / resultado positivo) = entre 70-80%
Cuando se les informó de su error, y se les preguntó sobre la causa del mismo, la mayoría afirmó
que había asumido que la probabilidad de cáncer con mamografía positiva [P
(cáncer/result.positivo)] era más o menos igual a la prob.de mamografía positiva en una paciente
con cáncer [P ( result.positivo/cáncer)], pasando por alto la probabilidad a priori del dato del 1%
en mujeres de 40 años.

Los trabajos que apoyan la dificultad de los humanos para aplicar las normas de la inferencia baye-
siana es el resultado de un planteamiento metodológico inadecuado: desajuste entre la forma en
la que se presenta la información a los participantes y el formato de la representación cognitiva
natural de dicha información. Gigerenzer y Hoffrage 1995, se basan en la teoría de la evolución,
donde la mente y su entorno han evolucionado en paralelo. Éstos sostienen que las demandas
computacionales de los algoritmos bayesianos son más simples cuando la información se codifica
en un formato de frecuencias más que en el formato estándar de probabilidad.
Probabilidad de cáncer es de 10/1000 = 1% P (H) = 0,01 ; De cada 10 mujeres que padecen cáncer, 8 dan un resultado
positivo en la mamografía.
Una mujer sin cáncer (990) dé resultado positivo en la mamografía es de 95/990. Una mujer de 40 años obtiene un

M.Goretti González 5
resultado positivo en la mamografía en un control rutinario ¿Cuál es la probabilidad de que la mujer padezca de hecho
cáncer de mama? __________-%

Muestreo natural (frecuencias) Probabilidad estándar

- 1000 - P (H) = 0,01 10 de cada 1000 mujeres


10 990 P (D|H) = 0,80 8 de cada 10 mujeres
8 2 95 895 P (D|H´) = 0,096 95 de cada 990 mujeres

Si se presentan los datos con el formato natural, la fórmula se simplifica:


P ( H|D) = 8 = 0,078 probabilidad posterior.
8 + 95

El algoritmo bayesiano para calcular la probabilidad posterior P (H|D) sería el resultado de dividir
el número de casos con síntoma y enfermedad (dato e hipótesis) por el nº total de casos con
síntoma (casos con síntoma y enfermedad + casos con síntoma y sin enfermedad H´). Todo sería
más simple cuando la información se codifica en el formatoo natural de frecuencias ( 8 de 10; 10
de 1000) porque las probabilidades a priori no necesitan ser atendidas, lo cual es racional para el
muestreo natural. Diferentes estudios comparativos entre las dos modalidades (frecuencia vs.
Formato estándar de probabilidades) indicaron que el promedio de algoritmos bayesianos
correctos incrementó de 16% - estándar- a 46% en formto de frecuencias.

a.2. Insensibilidad a la capacidad predictiva del dato


Un estudiante recién llegado a un instituo es descrito por el orientador como inteligente, con
buena base y trabajador. Se plantean 2 preguntas:
1. Evaluación: ¿Qué impresión te produce esta descripción en relación a la habilidad
académica del estudiante?
2. Predicción: ¿cuál estimas sería la calificación media que el estudiante obtendrá cuando
termine el curso?

Existe la gran diferencia entre ambas, en que en la primera se evalúa el dato, y en la segunda se
predice el resultado. Se da un grado superior de incertidumbre en relación a la segunda. La
hipótesis de representatividad sostiene que predicción y evaluación deberían coincidir.
Teversky y Kahneman, 1973 lo pusieron a prueba y consistía en describir en cinco adjetivos
referentes a la calidad intelectual del estudiante y rasgos de su personalidad:
– El grupo de evaluación valoraba la calidad de la descripción en relación a la población. Este
ordenaba la capacidad académica de todos los estudiantes. (0 a 100)
– El grupo de predicción predecía el rendimiento futuro. Ordenaba calificaciones medias que
obtendrían a final de curso. (0 a 100)
Los resultados se transformaron a percentiles y se dispuso en gráfica que representaba la capaci-
dad predictiva de la evaluación sobre la media de la predicción de su calificación final. Los juicios
de ambos grupos fueron similares. En la Tª estadística de la predicción, la equivalencia observada
estaría justificada sólo si la eficacia predictiva fuera
perfecta (condición alejada de cumplirse en el
ejemplo éste). La descripción no es objetiva, pues
las circunstancias personales del estudiante no
serán siempre favorables durante el curso, perjudi-
cando así su rendimiento. Los sujetos parecen igno-
rar la probabilidad del dato dada la hipótesis P(D|H´) CALIFICACIÓN MEDIA

M.Goretti González 6
La prediccón basada en la “impresión” de la descripción sin considerar otros factores que afectan,
da lugar a sesgos sistemáticos en el juicio probabilístico que responden al concepto de “ilusión de
validez”.

a.3. Concepciones estadísticas inexactas

La idea errónea de la regresión constituye otro ejemplo de sesgo en el juicio predictivo basado en
el heurístico de representatividad. Se usa la regresión para predecir una medida basada en el cono-
cimiento de otra. La regresión estadística es la tendencia de una medición extrema a situarse más
próxima a la media cuando se realiza una segunda medición.

Se seleccionan cuatro grupos de 10 niños en dos versiones equivalentes (A y B): 10 mejores notas A – 10 peores notas
A ; 10 mejores notas B y 10 peores notas B.
Se observó que los 10 mejores en c/cada versión mostraron rendimiento promedio inferior en la versión alterntiva.
(ellos sabrán de qué pues no lo explican...)

En la vida cotidiana encontramos muchos fenómenos referente a esto: comparamos la altura o la


inteligencia de padres e hijos, o el rendimiento de las personas en exámenes consecutivos. No
obstante, no desarrollamos intuiciones correctas en relación a ello pues es incompatible con la
creencia de que el resultado predicho debería ser representativo al máximo de la evidencia dispo-
nible y extremo como ésta.

Otro resultado en relación con el heurístico de representatividad se observa cuando se evalúa la


probabilidad de obtener un resultado determinado en una muestra extraída de una población
específica. El experimento ilustra este sesgo denominado insensibilidad al tamaño de la muestra:

Existen dos hospitales en el lugar, uno grande y otro pequeño:


– en el grande nacen una media de 45 bebés al día (días habrá más y días habrá menos).
– En el pequeño nacen una media de 15 bebés.
– Sabemos que aprox.el 50% de los bebés son niños (varones). Sin embargo, el porcentaje exacto varía c/día.
– Durante el período de un año, cada hospital registró el nº de días en los cuales el 60% de los nacimientos fueron
varones. ¿qué hospital registró un nº superoir de esos días?
a) el hospital grande
b) el hospital pequeño
c) aproximadamente el mismo (menos de un 5% de diferencia entre ambos)
21 personas dijeron (a), otros 21 dijeros (b) y 53 personas dijeron la opción (-c-)

La mayor parte dijo que la probabilidad era la misma, presumiendo que se describe con el mismo estadístico y que
éste se considera representativo para la población en general.

La Tª del muestreo sostiene que el número debería ser superior en el hospital pequeño porque en
una muestra de de gran tamaño es más difícil superar el 50%.
La insensibilidad al tamaño de la muestra explica también las expectativas en los juegos de azar,
en la medida en que esperamos que las muestras pequeñas de procesos aleatorios representen el
proceso con un elevado número de ensayos. Esta expectativa (intuición representativa local)
explica el fenómeno de la falacia del jugador. Después de observar nº rojos en la ruleta, la mayor
parte cree que luego le toca el “turno” al negro, cuando las probabilidades siguen siendo mínimas.

Teversky y Kahneman estudiaron las intuiciones estadísticas de psicólogos experimentados y


demostraron que la concepción errónea del azar no se limita a personas ingenuas.

M.Goretti González 7
a.4. La falacia de la conjunción

La representatividad no es extensional, no siempre está determinada por la frecuencia ni por la


inlcusión de clases de los datos que componen el espacio muestral. En el modelo normativo de la
Tª de la probabilidad, la ley más simple (cualitativamente) es el principio de la extensión: si la
extensión de A (conjunto de posibilidades asociadas con A) incluye la extensión de B ( B ⊂ A )
entonces P (A) > P (B).
Una conjunción no puede ser nunca más probable que cada uno de sus constituyentes. Principio
que se aplica tanto si A y B son o no independientes y es válido cualquier valor de probabilidad del
mimso espacio muestral.

El problema de Linda (muy citado a este respecto) describe el caso de mujer de 31 años, soltera, sincera y muy
brillante. Licenciada en Filosofía. Cuando era estudiante estaba profundamente comprometida en temas de discrimi-
nación y justicia socia, participando también en manifestaciones antinucleares. Se presentan las opciones:
a) Linda es una maestra en escuela c) es feminista. f) es cajera de un banco
elemental. d) es asistente social en psiquiatría g) es agente de seguros
b) trabaja en una librería y asiste a e) es miembro de la Liga de Mujeres h) es cajera en un banco y feminista
clases de yoga. Votantes.

La tarea consistía en asignar puntuación del 1 al 8 a las afirmaciones anteriores donde 1 (muy probable) a 8 (menos pr)
La descripción de Linda fue diseñada para ser muy representativa de una feminista activa y muy poco de cajera de
banco, por lo que se esperaba que consideracen más representativa de la personalidad de Linda la CONJUNCIÓN de
ambas (h) que el menos representativo (f). El porcentaje de participantes que mostró orden de c > h > f , fue del 85%

La violación de la regla de conjunción es la comparación directa entre f y h (falacia de la


conjunción).

Según Teversky 1977 la semejanza de un ejemplar con una categoría se define en función de la
ponderación de las propiedades que son comunces y distintivas y esta ponderación varía en fun-
ción del contexto estimular y la tarea experimental. En la descripción de Linda, la ponderación con
una cajera de banco es baja. El hecho de añadir feminismo como rasgo distintivo explica la forma
en que los participantes ordenaron la lista de afirmaciones sobre las actividades que desarrolla
ella, en función del grado con el que encajaban con el estereotipo que se deriva de la descripción.

Tversky y Kahneman 2002, se plantearon si los participantes podrían reconocer la validez de la


regla de conjunción si se expresaba el problema de forma explícita. Después de la misma
descripción inicial se recibían las afirmaciones f) Linda es cajera de un banco; y h) Linda es cajera
de un bancoo y feminista en forma de argumentos 1 y 2, respectivamente:

Argumento 1: Es más probable que Linda sea cajera en un banco a que sea cajera en un banco y feminista, puesto que
todas las cajeras de banco feministas son cajeras de banco mientras que algunas cajeras de banco no son feministas, y
Linda podría ser una de ellas.

Argumento 2: Es más probable que Linda sea cajera en un banco y feminista a que sea cajera en un banco, puesto que
se parece más a una feminista que a una cajera de banco.

La mayoría eligieron el argumento no válido (2) del parecido frente al argumento extensional
válido. Esto explica que aún cuando se induce una actitud reflexiva no elimina el atractivo del
heurístico de representatividad. Otros estudios sobre el tema, proporcionando cuestionarios con
preguntas sobre razonamiento probabilístico previo a la tarea, o bien incluso investigando en

M.Goretti González 8
dominios específicos y con expertos, los resultados siguen siendo consistentes con el heurístico de
representatividad.

b) Heurístico de accesibilidad
Las personas evaluamos la frecuencia de los ejemplares de una categoría o probabilidad de un
acontecimiento por la facilidad con la que los ejemplos nos “vienen a la mente” o se “nos ocurren”.
Evaluamos por ejemplo el riesgo de sufrir un infarto más probable en personas de entre 50 y 60 añ
Los ejemplos de categorías más frecuentes se recuerdan más fácil, rápido, pero muchas veces esta
accesibilidad se ve afectada por otro tipo de factores, produciéndose sesgos que Teversky y
Kahneman agrupan en cuatro: sesgo debido a la facilidad de recuperación, a la facilidad en la
construcción de ejemplos, en la facilidad para imaginar situaciones, y en la correlación ilusoria e
ilusión de control.

b.1. Sesgo debido a la facilidad de recuperación


Se presentaron a los participantes listas grabadas con 39 nombres.
Lista 1: incluía 19 nombres de mujeres famosas y 20 nombres de hombres menos famosos.
Lista 2: 19 nombres de hombres famosos y 20 nombres de mujeres menos famosas.

La fama y la frecuencia en función del sexo estaban inversamente relacionadas en ambas listas. Los
participantes se dividieron en dos grupos:
Grupo 1 se les pidió que RECORDARAN EL MAYOR NÚMERO DE NOMBRES QUE PUDIERAN.
Grupo 2 se les pidió que juzgaran para cada una de las dos listas si contenían más nombres de hombres o mujeres.

Los resultados en ambos grupos fueron de idéntico signo. Los del grupo 1 recordaron más
nombres de mujeres en la lista 1 y de hombres en la lista 2. La FAMA y no la frecuencia determinó
la facilidad de recuerdo.
En el grupo 2 dijeron que en la lista 1 había más mujeres y en la lista 2 más hombres (la FAMA otra
vez en medio y no la frecuencia real).

El sesgo observado demostró el efecto significativo del heurístico de accesibilidad en el juicio


probabilístico. Además de la familiaridad, estaría la saliencia. La probabilidad subjetiva de acci-
dentes de tráfico aumenta temporalmente si acabamos de ver un coche volcado en la carretera.
Este sesgo de inmediatez se basa en la facilidad de recuperación de las experiencias recientes
frente a las remotas. Otro resultado consolidado es el de la investigación en la auto-percepción de
estados emocionales, pues parece que se perciben como más intensas las emociones previas e
inmediatas. Son juzgadas así desde el punto de vista fenomenológico, sensitivo e informativo.

Van Boven, White y Huber 2009 lo evidencian en la presentación de dos secuencias de películas
separadas en un período de tiempo de 20 minutos. En ambas se mostraban atrocidades, pero en la
vista más cercana en tiempo, se le atribuyó haber afectado al estado emocional. Se exibió el sesgo
de inmediatez.

b.2. Sesgo debido a la facilidad en la construcción de ejemplos

Teversky y Kahneman facilitaron una regla al participante para la construcción de ejemplos de 2


categorías y les pidieron que estimaran su frecuencia relativa. El participante no podía enumerar
todos los ejemplos posibles, pero sí intentaba buscar algunos ejemplos y juzgar la frecuencia de
cada categoría por la accesibilidad relativa de éstos. En un experimento se seleccionaron

M.Goretti González 9
consonantes que en inglés son más frecuentes en la tercera posición de una palabra (K,L,N,R, y V)
La letra (L) aparece con mayor probabilidad en:
a) la primera posición.
b) la tercera posición.

La frecuencia estimada fue significativamente mayor para la primera posición (falso) para las cinco
letras estudiadas, demostrando sesgo en la estimación de la frecuencia relativa debido a la supe-
rior facilidad de generar ejemplos que empiecen con una letra determinada vs a los que la
contienen en tercera posición.
Posteriormente bajo condiciones más estrictas de control y alguna modificación, se manipularon el
valor informatio o diagnóstico de la experiencia subjetiva de accesibilidad generando en los parti-
cipantes a través de las instrucciones la atribución errónea de la experiencia de facilidad de recu-
peración:
– Todos los participantes escribieron en un folio en blanco 10 PALABRAS que contenían la letra T en la tercera
posición.
– Los grupos se diferenciaron en la manipulación experimental del valor diagnóstico de la experiencia de facilidad de
recuperación de las palabras que empezaban por la letra (T):
1. Grupo “FACILITACIÓN”, debía escribir las 10 palabras que empezaban por T en folio con filas de pequeñas (t)
impresas en color pálido t t t t t t t t t t t t t t t t t t Se le informó que la impresión de éstas era para facilitarle
t t t t t t t t t t t t t t t t t t la recuperación de las palabras.
2. Grupo “INHIBICIÓN”, escribiría 10 palabras que empezaban por (t) sobre el mismo tipo de folio pero se le indicó
que esto DIFICULTARÍA su tarea de recuerdo.
3. Grupo “CONTROL” , realizó la tarea sobre folio en blanco.

– Todos los participantes valoraron el grado de dificultad de una y otra tarea de entre 1 a 8 (muy difícil)
inmediatamente después de realizar cada una de ellas.
– Los juicios de frecuencia de palabras que empiezan por (T) respecto a los que la contienen en la 3ª posición se
realizaron concluidas ambas tareas, emitiendo en escala de 8 puntos, donde 1 = Muchas palabras con (t) en 3º
lugar que palabras que empiecen por (t) y 8 = muchas palabras que empiezan por (t) que palabras las contengan
en 3er lugar.
– Todos los sujetos (todos independientemente de la condición experimental) informaron que les resultaba más
difícil recordar palabras que la tienen en la tercera posición.
– El efecto de la manipulación del valor diagnóstico de la experiencia de recuperación produjo un impacto
significativo en los juicios de frecuencia relativa de los participantes. Unos creían que la hoja facilitaba y emitieron
juicio bajo de frecuencia relativa de las palabras que empezaban por (t); los de inhibición , creyeron que su
ejecución había sido inhibida y aportaron el juicio más alto de frecuencias relativas de las palabras que empiezan
por (t). El juicio de los del grupo de control se mantuvo en medio de los otros.

Estos resultados demuestran que la experiencia fenomenológica o subjetiva de facilidad o dificul-


tad en la recuperación de la fuente de información determina la estimación de la frecuencia rela-
tiva en los juicios.
Cuando la experiencia PIERDE, gana el valor diagnóstico. La frecuencia relativa DISMINUYE
entonces aumenta en coherencia.Por tanto, la estimación de frecuencias relativas se basa en la
experiencia subjetiva de facilidad de recuperación y en el grado de confianza que el sujeto atribuye
a dicha experiencia.

A destacar también los contextos donde se hace la tarea de búsqueda. Los contextos de palabras
abstractas como amistad, amor,... resultan más fáciles de imaginar o asiciar a historias vividas,
leídas o películas que palabras concretas y careciendo de connotaciones por lo que no se evoca
facilmente algún escenario.

M.Goretti González 10
b.3. Sesgo debido a la facilidad para imaginar situaciones

La facilidad para imaginar es importante en la evaluación de probabilidades en la vida real. El


riesgo que entrañe una expedición al Amazonas, se evaluará en función de la facilidad para
imaginármela de forma vívida con posibles contingencias peligrosas (¡no voy!), aunque los posibles
desastres no sean tales como riesgo real. También puede ser subestimado, si el riesgo real es difícil
de concebirlo, y... (¡son unos valientes,claro, y no les importan las picaduras de mosquito...!)

Sherman, Cialdini y otros pusieron a prueba esta hipótesis:


Grupo de CONTROL: leyeron informe sobre una supuesta enfermedad (hiposcenia - B)
Grupo FACIL IMAGINAR: Lectura + se exponían los síntomas de la enfermedad de forma explícita y mucho de estos,
experimentados por los participantes (cansancio, dolor muscular,...) Durante tres semanas leían e imaginaban síntoma
Grupo DIFÍCIL IMAGINAR: Lectura + menos concretos los síntomas (sensación vaga de desorientación, mal
funcionamiento del SN e inflamación de hígado).

Luego se les pidió que juzgaran la probabilidad de sufrir hiposcenia – B en el futuro en escala de 1 (poca) a 10 (mucha).
Los imaginativos mostraron tendencia a juzgar la probabilidad de contraerla mayor al grupo control e inferior en la del
grupo “difícil imaginar”.

b.4. Sesgo debido a la correlación ilusoria e ilusión de control


Las asociaciones entre eventos se fortalecen como resultado de la ocurrencia conjunta repetida.
Esto determina que juzguemos la frecuencia de ocurrencia conjunta de los que están asociados en
proporción elevada.

El término correlación ilusoria propuesto por Chapman 1967, agrupa los errores que se producen
como resultado de la sobreestimación de la correlación entre dos eventos. En los experimentos del
autor los participantes recibían pares de palabras proyectadas en pantalla. Unas a la derecha
(huevos, tigre o cuaderno) y otras a la izquierda (beicon, león,flor,barca) y se agrupaban al azar. Los
participantes sobreestimaron la frecuencia de aparición de los pares semánticamente relacionados
como lo era : beicon-huevos o león-tigre. La relación explica la fuerza de asociación en la memoria
y la facilidad para su recuperación, lo que lleva a sobreestimar la frecuencia objetiva. Esto mismo
mantiene el origen de la supersticiones o las creencias mágicas, el “efecto halo” y los estereotipos
sociales (delito <=> grupo minoritario -> genera estereotipo negativo sobre éste).

Cuando se sobreestima la correlación entre la conducta y sus consecuencias se produce “ilusión


de control” (expectativa de probabilidad de éxito personal inadecuadamente elevada en relación a
la probabilidad objetiva).

Langer simuló distintos tipos de azar induciendo la ilusión de control al introducir factores como
competitividad, posibilidad de elegir, familiaridad con los estímulos,... Este fenómeno es uno de los
factores que explica el sentimiento excesivo de confianza en el éxito y el riesgo excesivo asumido
en los juegos de azar. Contribuye además a explicar la persistencia de este sesgo en la
sobreconfianza en la calibración del propio juicio (juicio de segundo orden).

c) Heurísticos del prototipo

Kahneman y Frederick han utilizado el término “Heurístico del prototipo” enmarcándolo en el


enfoque del juicio heurístico dentro de un modelo más integrador que el inicial presentado.
Parece ser que estos heurísticos son el resultado de un doble proceso de sustitución donde la

M.Goretti González 11
categoría se sustituye por ejemplar prototípico y el atributo de la categoría (en que se evalúa en el
juicio emitido) por una propiedad del prototipo. Por ejemplo, cuando un participante juzga la
probabilidad, en el caso de Linda de que fuera cajera de banco vs cajera de banco y feminista, está
llevando a cabo dos procesos de sustitución. Primero lo hace con “cajera de banco” por su
ejemplar prototípico, y luego sustituye el atributo de la probabilidad de la pertenencia a la ca-
tegoría por la propiedad de semejanza del prototipo.

Desde el modelo normativo de la Tª de la prob., la probabilidad de pertenencia debería variar con


la probabilidad a priori de la categoría. En la predicción por representatividad de la pertenencia de
un ejemplar a una categoría se descarta la probabilidad a priori porque el prototipo de una
categoría no contiene información sobre la frecuencia de sus miembros.

La novedad de este enfoque integrador se concreta en que la representatividad no es


necesariamente la propiedad del prototipo que sustituye al atributo de la categoría. En un estudio
se presenta una doble pregunta: a) ¿cómo te sientes de feliz con tu vida en gral.? Y b) ¿cuántas
citas románticas has tenido durante el último mes? Los resultados demostraron que la correlación
entre ambas fue insignificante planteadas en este orden, y sí correlacionaron con valor de 0,66
invertido el orden de las mismas. Por tando, el nº de citas del último mes, no puede considerarse
representativo del sentimiento global de felicidad, pero la accesibilidad de la información le confie-
re una saliencia y peso relativo elevados.

La evaluación retrospectiva de las experiencias con valor afectivo ilustra bien el doble proceso de
sustitución basado en la accesibilidad de la información. Esta evaluación se basa fundamentalmen-
te en el promedio entre la media del pico más saliente de la experiencia global y el pico más
próximo al final de la experiencia.

Redelmeier y Kahneman registraron el nivel de dolor en una prueba de colonoscopia. Dicha prue-
duraba de entre 4 y 69 minutos. Se tenía paciente A y B, y los resultados evidenciaron que la
evaluación restrospectiva del dolor producido por la prueba, podía predecirse con un grado consi-
derable de eficacia promediando el pico más elevado con la magnitud de dolor que había produ-
cido el momento fianl de la experiencia. A informó que había sido mucho más desagradable pero
el pico máximo no se diferenció entre ambos sujetos y el participante B soportó una prueba más
prolongada. Lo que ocurre es que el valor afectivo de la experiencia para el A quedó deteerminado
por ser este pico alto próximo al final de la prueba. El simple hecho de añadir al terminar la
experiencia un intervalo corto de malestar mínimo produce en los pacientes una evaluación global
de la experiencia como menos aversiva e incrementó luego pruebas de seguimiento.

En este ejemplo se da el doble proceso de sustitución que determina el juicio subjetivo del sujeto.
La categoría “dolor que produce la experiencia global” se sustituye por el prototipo “promedio del
pico más elevado de dolor y del valor más próximo al final de la experiencia”. Pero en este caso la
propiedad del prototipo no viene dada por la representatividad de la información (duración total
de la experiencia o magnitud promedio del dolor global) sino por su accesibilidad en la memoria.

La insensibilidad a características extensionales de las categorías constituyen ejemplos de la


desviación sistemática del modelo normativo de la lógica en el juicio intuitivo bajo incertidumbre.
El proceso común de sustitución del atributo de la categoría por una propiedad del prototipo se
demuestra en variedad de dominios e indica que los juicios complejos se sustituyen por valoracio-

M.Goretti González 12
nes semánticamente más simples y accesibles. El ejemplo del “dolor”, constituye la estimación
cuantitativa subjetiva de una experiencia con valor afectivo.

d) Heurístico de anclaje y ajuste


Normalmente realizamos estimaciones de cantidades a partir de un valor inicial que se va ajustan-
do hasta la respuesta final. El valor inicial puede sugerirse por la formulación del problema o ser el
resultado de un cómputo parcial. En uno u otro caso, diferentes puntos de partida producen
estimaciones diferentes sesgadas hacia el valor inicial. Tversky y Kahneman pidieron estimar el
porcentaje de países africanos de Naciones Unidas. El valor inicial (0 y 100) se establecía haciendo
girar una rueda de fortuna en su presencia. El experimento se desarrolló en 2 fases:
– 1º fase de juicio comparativo: estimar si el porcentaje era superior o inferior al resultado del
giro de la rueda.
– 2º fase de juicio absoluto: se pedía establecer el porcentaje concreto requerido.
La mediana de las estimaciones para valores iniciales de 10 y 65, fueron de 25 y 45 respectivamen-
te, demostrando el efecto del valor de partida en la respuesta final. Los iniciales eran producto de
azar, y estos valores numéricos informativos pueden servir como anclajes. El participante basa su
estimación en un cómputo inicial incompleto.

Tversky y Kahneman 1974 solicitaron el resultado (5 sg):


Descendente: 8x7x6x5x4x3x2x1 Ascendente: 1x2x3x4x5x6x7x8
La mediana de la estimación en secuencia descendente fue de 2.250 y para la ascendente de 512.
El valor real es 40320. El producto de los primeros números constituye la información de anclaje
que explica el valor estimado en el juicio absoluto. En la fase comparativa se genera una
estimación de la cantidad independiente del valor de anclaje y compara este valor con su
estimación para determinar si el anclaje es demasiado alto o bajo. Para emitir el juicio absoluto,
ajusta el juicio inicial en la dirección apropiada hasta encontrar el valor más aceptable. Este proce-
so de ajuste es insuficiente porque termina el límite más próximo al valor del ancla dentro del
rango de valores posibles.

Los resultados de Jacowitz y Kahneman 1995 cuestionan esta interpretación. En su estudio los
valores de anclaje proporcionados se basaron en las estimaciones de 15 problemas de juicio cuan-
titativo obtenidas en un grupo de sujetos que no participaban luego en el experimento de estimar
altura del monte Everest, la distancia entre San Francisco y Nueva York,... Los valores de anclaje
correspondían al percentil 15 y 85 de este grupo como anclas de valor bajo vs alto. Los autores de-
mostraron un efecto asimétrico en el sesgo de anclaje. Este fue significativamente superior para
los valores elevados. Se vio reforzado por el hecho de que un porcentaje de sujetos superior al
grupo de 15% inicial, generaron juicios cuantitativos superiores al valor del percentil 85 y no fue así
con el porcentaje de sujetos que generaron juicios inferiores al del percentil 15 del grupo inicial.

Los valores de anclaje altos incrementan la plausibilidad de los valores superiores al ancla en
mayor medida que los bajos incrementan la plausibilidad de los valores inferiores al ancla, siendo
la razón de que 0 es el límite, pero no se da límite superior (infinito). Según los autores, se pone de
manifiesto que el sesgo no siempre se da en el proceso de ajuste de la estimación inicial, puesto
esta ancla puede alterar la creencia inicial del individuo y modular el juicio absoluto emitido.

Por tanto se sugiere que este proceso de anclaje se inicia en la fase de comparación y sesga la
estimación inicial del sujeto, previa al juicio absoluto. Se concluye enumerando tres posibles cau-

M.Goretti González 13
sas en tareas de juicio comparativo, sin considerarlas mutuamente excluyentes:
1. Un punto de partida para el ajuste. (Responde a la formulación de Tversky y Kahneman)
2. Indicio conversacional, debido a la saliencia que le confiere el experimentador.
3. Una sugerencia o prime.

La investigación reciente sugiere que el anclaje se origina con frecuencia en la fase de recuperación
de la información y que el ancla actúa como una sugerenci, haciendo que la información
consistente con ella sea accesible rápidamente. El efecto de anclaje no se produce si no se cum-
plen determinadas condiciones de compatibilidad entre ancla (valor inicial) y juicio requerido,
como es la escala de medida en la que se formulan ambos. Además Strack y Mussweiler 1997,
indicaron que es necesario que se expresen en la misma dimensión (altura vs anchura). A varios
participantes se les formuló dos preguntas.
– 1ª juicio comparativo considerando valor del ancla “mayor o menor que”,
– 2ª juicio absoluto.
Se utilizaron cuatro condiciones 2 x 2 (compatibilidad o no de la dimensión del ancla con la
dimensión del juicio ; y valor del ancla alto vs bajo).
La interacción reveló que el efecto de anclaje solo fue significativo cuando las dimensiones fueron
iguales solo cuando el valor del ancla fue elevado. El hecho de que el efecto de anclaje disminuya
de forma significativa cuando la dimensión del juicio difiere de la del ancla, no puede explicarse
por el priming numérico que proporciona el ancla. Sugieren los resultados que la fuerza del efecto
depende de la medida en que la información es activada por el ancla también se percibe como
aplicable al juicio absoluto.

Strack y Mussweiler 1997 terminan su investigación con otro experimento que permite poner a
prueba la hipótesis del priming semántico y no el numérico per se, es el responsable de los efectos
de anclaje.
– En este caso utilizaron un 2 x 2 (ancla plausible / no; ancla alta vs baja)
– Como variables dependientes se registraron valores de juicios y la latencia de respuesta en los
dos juicios (comparativo y de valor absoluto).
– El análisis de la latencia desvela algo interesante:
> Las latencias (tiempos) fueron significativamente mayores para las anclas plausibles
frente a las no plausibles, mientras que en los juicios absolutos este patrón fue al revés.
> Los datos sugieren que que cuando el ancla es un valor plausible, los participantes
resuelven la tarea comparativa elaborando la respuesta en un proceso cognitivo que
consume tiempo. La información relevante es fácilmente accesible y acelera la
respuesta en la tarea de juicio absoluto posterior. Cuanto más tiemp consuma el juicio
comparativo menos tiempo consumirá el juicio absoluto.
> Las latencias en ambos juicios deberían estar inversamente correlacionadas pero sólo
en la tarea comparativa cuando se utilice información relevante.
> En el caso de las anclas plausibles, ambas latencias de respuesta correlacionaron
negativa y significativamente, donde las latencia más largas en j.comparativo implicaba
latencias cortas en j.absoluto. (¡lo mismo!)

Chapman y Johnson 2002 presentan modelo alternativo a esta propuesta de Tversky y Kahneman
del 1974, que permite interpretar el sesgo de anclaje en amplio abanico de tareas y
procedimientos experimentales.
El mecanismo se basa en proceso de accesibilidad selectiva que se genera en la fase de

M.Goretti González 14
recuperación de la inform y determina la formación de la respuesta. Este proceso es el resultado
de múltiples causas y los mecanismos responsables pueden producirse en más de una fase. Los
sesgos y errores se producen a consecuencia del priming asimétrico en el proceso de recuperación
de la información, incrementando desproporcionadamente la disponibilidad de rasgos
compartidos por “ancla” y respuesta y reduciría la disponibilidad de aquellos rasgos que los dife-
rencian.

Imaginamos haber heredado una silla antigua. El precio de una similar fijado por un anticuario podría servir para
valorarla y ajustarla luego según la diferencia en calidad. El proceso de anclaje es equilibrado e ilustra la funcionalidad
del heurístico como recurso rápido que implica un esfuerzo cognitivo mínimo.
Imaginemos que asistimos a subasta televisiva de muebles antiguos y utilizamos el precio de partida de una silla simi-
lar en diseño pero firmada por un importante diseñador.
Si activamos los rasgos compartidos en detrimento de los rasgos que diferencian ambos objetos nuestra estimación
será elevada en exceso y se cometerá sesgo en la valoración.

El modelo de accesibilidad selectiva atribuye el sesgo en el juicio absoluto a una ponderación


excesiva de los rasgos comunes entre el ancla y la respuesta en detrimento de los discrepantes,
basada en la tendencia confirmatoria.
VALOR INICIAL Tres fases en las que el mecanismo de anclaje
ANCLA puede ocurrir.

Recuperación y Integración de la Formación de la


selección de la información RESPUESTA
información

ACTIVACIÓN Comparación Ajuste de la respuesta


Priming Compatibilidad y en la dimensión y
discrepancia escala de medida

Si el ancla produce efecto sobre el juicio incrementando la accesibilidad de rasgos comunes y


reduce a los diferentes, el hecho de incrementar experimentalmente la accesibilidad de rasgos di-
ferentes debería reducir el sesgo hacia el valor inicial. (Y digo yo... pero ¿cómo a esta gente se les ocurre estas
cosas...? ya sé que de todo tipo de personas debe haber, pero es que darle por las anclas y los ajustes y tal... pues como que
mejor de marinos, je,je,je)
Chapman y Johson 1999 pidieron a unos estudiantes que predijeran sobre las siguientes elecciones
presidenciales en EEUU.

– 1º Debían escribir los dos últimos dígitos del nº de la seguridad social y considerarlo como una probabilidad.
– 2º Se les pide que pensaran en la probabilidad de que el candidato republicano ganara las elec- ciones
presidenciales y que compararan su respuesta con el número apuntado.
Esta primera estimación de probabilidad no se registró, para que se consideraran los dígitos como valor de anclaje. Las
probabilidades de anclaje fluctuaron de 0 a 99% con media de 48% y Md= 51%.
– 3º Asignar a los sujetos de ofrma aleatoria a una de tres condiciones experimentales:
- Condición “a favor”: escribir razón por la que el republicano debía ganar.
- Condición “en contra”: “ “ “ “ no debería ganar.
- Condición “neutral”: no se les pidió escribir.
– 4º Segunda estimacón por escrito de que el candidato republicano ganara las elecciones.
– Se establecieron tres categorías de participantes:
1. SIMILAR: los de razón a favor con valores de anclaje SUPERIOR al 50% y aquellos en contra con anclaje INFERIOR
al 50%
2. DIFERENTE: los de razón a favor con anclaje INFERIOR al 50% y aquellos en contra con anclaje SUPERIOR al 50%
3. NEUTRAL: los del grupo neutral.

M.Goretti González 15
Los resultados confirmaron la hipótesis de partida demostrando que el efecto de anclaje fue significativo sólo para
las condiciones “similar” y “neutra”, y el sesgo de anclaje puede reducirse o eliminarse propiciando que los
participantes identifiquen razones discrepantes con el valor del ancla.

Según Epley y Gilovich 2001, los procesos implicados en el efecto de anclaje difieren dependiendo
de si el ancla es suministrada por el experimentador o por cualquier otra fuente externa, o bien es
por el propio participante a partir de las preguntas planteadas. En este caso, el proceso de ajuste
sería el responsable del efecto en la medida en que el valor numérico del ancla, por su condición
de respuesta auto-generada, adquiriría el estatus de respuesta candidata con el peso específico
suficiente para iniciarlo.

Los autores lo pusieron a prueba “valor del ancla por experimentador vs por el participante”. Las
respuestas fueron grabadas, transcritas y evaluadas por dos jueces. Para cada respuesta el juez
evaluaba si el participante conocía el valor del ancla, si utilizaba esta como base de la respuesta y si
mencionaba el ajuste a partir del valor del ancla para alcanzar la estimación final. El acuerdo entre
estos era alto (0.94) y consideraron que los sujetos habían utilizado el mecanismo de anclaje y
ajuste si sus informes verbales se referían tanto al ancla como al proceso de ajuste. A los que se les
proporcionó utilizaron menos el mecanismo de ajuste a partir del ancla que aquellos que habían
generado de forma espontánea el valor inicial.

Epley y Gilovich 2001, coincidieron con Jacowitz y Kahneman proponiendo una taxonomía de
posibles efectos de anclaje en los juicios bajo incertidumbre en la medida en que son muchas las
variables que pueden intervenir en función de la tarea o experimento.

3.1. La teoría del apoyo

Tversky y Kahneman 1973 aportan otro ejemplo: pidieron a un grupo que estimaran e lnúmero de
palabras de 7 letras en inglés que acababan en - ing en cuatro páginas de una novela y a otro
grupo que comentaran lo mismo pero referido a palabras que terminaban en – n . La Md del pri-
mer grupo fue de casi tres veces superior a la del segundo, pues las palabras que terminan en ing
son más accesibles al recuerdo que las palabras que contienen la n en sexta posición.

La Tª del Apoyo es una perspectiva del juicio intuitivo bajo incertidumbre que permite explicar
gran parte de la evidencia de las operaciones mentales que responden a la denominación del juicio
basado en heurísticos en la evaluación de frecuencias y probabilidades.

El efecto de desempaquetado es el principio explicativo de esta teoría, el cual quiere demostrar


que “el todo es menor que la suma de sus partes” (ojo!!! que no es lo otro!) Las descripciones
detallads de un acontecimiento determinado dena lugar, de forma sistemática, a juicios de
probabilidad superiores que las que genera una descripción gral del mismo acontecimiento (“1000
personas morirán en un terremoto”, parece más probable que un evento inclusivo donde “1000
personas morirán en un desastre natural”) . Tversky y Kahneman desarrollaron una teoría no
extensional en la cual la probabilidad subjetiva no está ligada a los acontecimientos, sino a las des-
cripciones de estos, denominadas hipótesis. La evidencia empírica demuestra que el juicio
probabilístico sobre un evento determinado depende del grado en que se explicita su descripción.
Cada hipótesis A, posee un valor de apoyo determinado, s(A), que corresponde a la fuerza de la
evidencia favorable a dicha hipótesis. La clave es que desempaquetar la descripción de una hipó-

M.Goretti González 16
tesis en sus posibles componentes o hipótesis elementales generalmente aumenta su apoyo. Así,
el apoyo de la disyunción explícita Ca ѵ Cn es igual o mayor que el apoyo de la disyunción implícita,
C, que no menciona ninguna causa. s(C) < s( Ca ѵ Cn )

La Teoría del apoyo es subaditiva para disyunciones implícitas (C), y aditiva para las disyunciones
explícitas ( Ca ѵ Cn ) . El grado de subaditividad es influido por varios factores, uno puede ser la in-
terpretación de la escala de probabilidad. Será pronunciada cuando la probabilidad se interpreta
como la predisposición de una caso individual, respecto a cuando se estima como frecuencia relati-
va en una determinada población. Kahneman y Tversky denominan a estas dos modalidades de
juicio singular y distribucional (más preciso). Esta propuesta de los (amiguetes K y T) indica que la
disyunción implícita “accidente” se desempaqueta con mayor facilidad en sus componentes
“accidente de coche, de avión, fuego, ahogamiento,...” Las posibles causas de muerte se
representan en las estadísticas de mortalidad de la población, pero no en la muerte de una perso-
na. La tendencia a “desempaquetar” una disyunción implícita es mayor en modo distribucional que
en singular o individual. Cuando el problema se formula en términos de frecuencias se espera que
se produzca “descuento” o menor diferencia entre la probabilidad de la hipótesis implícita y la
suma de las probabilidades de las hipótesis elementales explícitas. ¡Tela marinera!

Tversky y Kahneman 1994 pusieron a prueba el supuesto del principio del “desempaquetado”: la
subaditividad para las disyunciones implícitas. Los participantes se dividieron en 2 grupos:
– 1. Grupo: Recibió la instrucción de estimar las probabilidades de muerte para el caso de una persona determinada
como consecuencia de causa específica.
– 2. Grupo: Realizaron una tarea de juicios de frecuencia y evaluaron el porcentaje de personas de los 2 millones de
muertes del año previo que podían atribuirse a cada una de las causas.

La tarea consistía en evaluar una hipótesis implícita (muerte como resultado de causa natural) o una disyunción
explícita (muerte a consecuencia de una enfermedad cardiaca, cáncer o alguna otra causa natural), pero nunca ambas.
Se definieron tres componentes y cada uno se dividía en 7 subcomponentes.

Se esperaba que el hecho de explicitar en mayor medida las causas de la muerte incrementaría la
subaditividad: la diferencia entre la probabilidad asignada a la hipótesis implícita y la suma de las
probabilidades de los componentes de la hipótesis. Los resultados arrojaron que la estimación
media de una disyunción implícita - P(causas naturales) - , es menor que la suma de las estima-
ciones media de sus componentes.

Tversky y Kahneman 1994 denominaron factor de desempaquetado al índice del grado de


subaditividad, calculando la ratio de las prob.asignadas a las hipótesis explícitas y la prob.asignada
a la hipótesis implícita. Puede calcularse dividiendo: ∑
la suma ∑ de las prob de las hipótesis elementales explícitas por la prob.de la hip.implícita P
Cuanto mayor sea el valor de dicho factor, mayor el grado de subaditividad observado. Siguiendo
con el ejemplo anterior, indicar que el grado de subaditividad aumentó con el nº de componentes
en la disyunción explícita (mayor grado al juzgar probabilidades que al hacerlo con frecuencias).

Quedó respaldado y demostrado incluso en juicios probabilísticos con expertos. A una muestra de
médicos se le presenta un escenario con una mujer que llega con dolor abdominal.
– A la mitad de los participantes se les pide que asignen probabilidades a 2 diagnósticos:
gastroenteritis y embarazo ectópico, y a una categoría residual: ninguno de los dos.
– La otra mitad debía asignar a 5 diagnósticos específicos.
Si los juicios de los médicos se ajustaran a la Tª clásica de la probabilidad, la prob.a la categoría

M.Goretti González 17
residual sería equivalente a la suma de las prob.de los tres componentes desempaquetados en la
condición de los 5 diagnósticos:

1 grupo: (gastroenteritis + embarao ectópico ) ; (residual)


2 grpuo: gastroenteritis + embarao ectópico + (------) + (------) + (------)

Los resultados indicaron que la prob.asignada a la hipótesis residual en la condición de 2 diagnóst.


Fue significativamente menor a la de los tres componentes “desempaquetados” en la cond.de
cinco diagnóstico. El modelo bayesiano asume el supuesto de aditividad, y principio de extensión
en la teoría de la probabilidad.

El principio de extensión es de las relgas más simples y transparentes en la teoría de la


probabilidad. Su violación es uno de los errores más llamativos y sorprendentes del razonamiento
probabilístico. La regla de la conjunción es violada por la falacia de la conjunción; la regla de la dis-
yunción, donde la prob. De A o B no puede ser inferior ni a la probabilidad de A ni a la de B porque
constituye la suma de ambas. También la subaditividad es una clara violación de la regla de la
disyunción cuando no se explicitan las causas de un evento en una disyunción implícita.

Van Boven y Epley 2003 generalizaron el hallazgo de Tversky y Kahneman a juicios evaluativos con
valor afectivo, en los que se juzga el carácter positivo o adverso de una categoría o delas
consecuencias de un acontecimiento. Los autores señalan que los factores más relevantes que ex-
plican el efecto serían las descripciones detalladas de los elementos constituyentes de una hipóte-
sis permitiendo recordar con mayor facilidad posibilidades que han pasado por alto y facilitan la
simulación mental y la imaginación vívida de las categorías o acontecimientos. Parece ser que en
los juicios evaluativos de una categoría parece jugar un papel más importante la facilidad con la
que se recuerdan sus elementos constituyentes que la cantidad total de elementos que pueden re-
cuperarse.

4. LA TEORÍA DE LOS MODELOS MENTALES

Esta teoría ofrece un marco explicativo unitario para la deducción e inducción y sostiene que las
conclusiones probabilísticas son el resultado de ambos tipos de inferencias. Los individuos razona-
mos construyendo modelos de las situaciones descritas en las premisas. Una conclusión es posible
si mantiene en al menos un modelo de las premisas, es probable si aparece en la mayor parte de
los modelos y es necesaria si se da en todos los modelos.

Esta teoría da cuenta del razonamiento extensional sobre probabilidades. Se basa en los princi-
pios fundamentales:
1. Principio de verdad: Las personas representan situaciones construyendo exclusivamente
aquellos modelos mentales que responden a una posibilidad verdadera, debido a la capaci-
dad limitada de la Mtrabajo. Las situaciones con prob.0 (cero) corresponden a lo que es fal-
so, por lo que, de acuerdo con la teoría, no se representan generalmente en los modelos.
2. Principio de equiprobabilidad: cada modelo representa una alternativa equiprobable.
3. Principio de proporcionalidad: garantiza la equiprobabilidad, la prob.de un evento A, de-
pende de la proporción de modelos en los que ocurre; es decir, p(A) = nA/ n. Un corolario de
éste, es el ppo. De inclusión: si un acontecimiento A ocurre en cada modelo en el que ocu-
rre otro acontecimiento B, entonces A es al menos tan probable como B, y si A ocurre en

M.Goretti González 18
algunos modelos en los que B no, entonces A es más probable que B.
4. Principio numérico: si una premisa hace referencia a una probabilidad numérica, serán eti-
quetados con sus valores númericos apropiados, y una probabilidad desconocida puede
ser calculada restando la suma de las (n-1) prob.conocidas de la prob.global de la n
posibilidades en la partición.

Un 5º principio que Johnson-Laird y col. ilustran:

– De acuerdo con las estadísticas, 4 de cada 10 personas sufren una enfermedad, 3 de cada 4 con
la enfermedad tienen el síntoma, y 2 de cada 6 sin la enfermedad tienen el síntoma. Pat es una
persona seleccionada al azar y tiene el síntoma. ¿cuál es la probabilidad de que Pat sufra la
enfermedad? Los sujetos ingenuos construirán los modelos mentales verdaderos y
equiprobables, que serían etiquetados con sus valores numéricos apropiados.

FRECUENCIAS
ENFERMEDAD (A) SÍNTOMA (B)
3 casos
ENFERMEDAD SÍNTOMA
ENFERMEDAD SÍNTOMA
ENFERMEDAD ¬ SÍNTOMA 1 caso

¬ ENFERMEDAD SÍNTOMA
2 casos
¬ ENFERMEDAD SÍNTOMA

– De acuerdo con Johnson - Laird y col. 1999 esta probabilidad puede ser calculada a partir de la
representación extensional de los modelos mentales vistos en la tabla anterior sin necesidad
de utilizar el Teorema de Bayes.

5. Principio del subconjunto: suponiendo la equiprobabilidad, la probabilidad condicional


p(A|B) depende del subconjunto de B que es A, y la proporcionalidad de A respecto a B da lu-
gar al valor numérico. Si los modelos se etiquetan con sus frecuencias absolutas entonces la
probabilidad condicional es igual al modelo de A y B dividido por la suma de todas las frecuen-
cias de modelos que contienen a B (los sujetos asignan erróneamente valores al numerador o
denominador).

Si aplicaran correctamente el principio serían capaces de inferir deductivamente el subconjunto A


y B (enfermedad y síntoma) del conjunto apropiado B (síntoma) y resolver correctamente la infe-
rencia bayesiana a partir del cálculo de la relación probabilística 3/5. Si los sujetos se focalizan en
el modelo : (enfermedad síntoma 3 casos) extraerían este subconjunto por error del
conjunto total de posibilidades y afirmarían a la capacidad predictiva del dato (probabilidad de que
B se observe en ausencia de enfermedad – no A).

Giutto y Gonzalez 2001, manipularon el contenido de las instrucciones aplicando el principio del
subconjunto para calcular la probabilidad condicional inversa. Para resolver problemas similares al
de Pat y plantearon dos pasos pidiendo que se completaran frases como las ss. añadiendo los
valores: Vamos a analizar cuál es la prob.de que Pat sufra la enfermedad en el supuesto de que presente el sínto-
ma. Del total de 10 posibilidades, Pat tiene posibilidades de tener el síntoma; entre éstas, estarían
asociadas con la enfermedad.

M.Goretti González 19
Las instrucciones facilitaron la respuesta correcta (de 5 posibilidades de tener el síntoma, 3 están
asociadas con la enfermedad)

Los principios normativos de la inferencia bayesiana resultan contra-intuitivos frecuentemente y


propone una pedagogía del razonamiento bayesiano basada en la Tª de los Modelos Mentales en
la que las probabilidades se planteen en términos númericos sencillos, y así permitir la inferencia
de la prob.condicional posterior aplicando el principio del subconjunto sin necesidad de aplicar el
T.Bayes.

Barbey y Sloman 2007, integran el enfoque de los MM enmarcado dentro de las hipótesis de los
conjuntos anidados. Los errores y sesgos en la inferencia bayesiana se reducen de forma
considerable cuando el planteamiento del problema facilita la representación de las relaciones
inclusivas de las categorías relevantes para resolverlo. Según éstos el que se haga más fácil debido
a la presentación de frecuencias en vez de en formato de probabilidades, se debe a que el formato
de frecuencias contribuye a clarificar y hacer más transparentes las relaciones inclusivas
pertinentes. Los autores presentaron mediante gráfica con círculos de Euler, el rendimiento de dos
grupos de sujetos en dos versiones de un problema:

Se ha desarrollado una prueba para detectar una enfermedad. La probabilidad de que un americano la padezca es de
1/1000. Un individuo que no padece la enfermedad tiene una probabilidad del 5% de dar positivo en la prueba. Un
individuo que padece la enfermedad dará positivo en la prueba en todos los casos. ¿Cuál es la probabilidad de que una
persona extraída al azar que dé un resultado positivo padezca realmente la enfermedad? %

La respuesta modal con este tipo de versión es 95% suponiendo que el error de la prueba sea un
5% (falsos negativos), debería producir un 95% de resultados correctos. Los sujetos estarían
pasando por alto la probabilidad a priori de sufrir la enfermedad siendo uno de los sesgos más ca-
racterísticos en la estimación de prob.condicionales.
Probabilidad de
-A- círculos Probabilidad de
que padezca la de Euler que una persona - B – Relación de equivalencia en
enfermedad (1) dé un resultado el numerador y denominador del Teo-
positivo en la prueba (50)
rema de Bayes con los subconjuntos
Todas las relevantes de la gráfica inclusiva:
posibilidades
(1000) P(H|D) = P (H D) =
P(D)
Los grupos que se compararon diferían exclusivamente en que en el grupo experimental la redac-
ción del problema se acompañaba del diagrama que se representa -A- y el porcentaje de
respuestas correctas ascendió de 20% a 48%. La gráfica de los conjuntos anidados redujo de forma
sustancial el sesgo observado en la condición control, a pesar de que el problema se formuló en
términos de probabilidades. Los diagramas hacen explícito que las posibilidades de que una
persona dé positivo en la prueba (tenga síntoma) es un subconjunto de todas las posibilidades y
que las posibilidades de padecer la enfermedad es, a la vez, un subconjunto de las posibilidades de
dar positivo en la prueba. La representación de las relaciones inclusivas de las categorías nos
ayuda a inferir la respuesta correcta: del total de individuos que da positivo en la prueba, 50, 1
padecerá la enfermedad : 1/50 =2%

Sloman y cols.2003 demostraron que el hecho de añadir la categoría de “falsos negativos” al


problema incrementaba significativamente la dificultad, tanto en términos de probabilidad como

M.Goretti González 20
de frecuencias. La nueva categoría no era relevante y no altera el valor del resultado pero
incrementa en complejidad. Añadirla supone la representación de unmodelo mental adicional que
aumenta la “carga” en la memoria de trabajo y dificulta la aplicación del principio del subconjunto
para alcanzar la solución correcta del problema. Se intenta minimizar la carga de la memoria de
trabajo representando de forma explícita sólo aquellos casos en los que las premisas son
verdaderas y se pasan por alto los casos en que son falsas. Johnson-Laird y Savary demostraron
que razonando sobre probabilidades relativas, la mayor parte de los sujetos alcanzaban conclusio-
nes imposibles cuando no consideraban los casoss en que las premisas son falsas:

Solo una afirmación es correcta sobre una mano de cartas de póker:


Hay un Rey o un As, o ambas
Hay una Reina o un As, o ambas
¿Qué es más probable, el Rey o el As?
La respuesta mayoritaria de los sujetos es el As y se justifica porque el As aparece en una propor-
ción superior de modelos mentales. La respuesta es falsa. El enunciado es planteado como
disyuntiva: X o Y, pero no ambas. Por tanto no pueden ser ciertas las premisas una y dos. Nunca el
As podría ser más probable que el REY. Cuando los casos falsos se tienen en cuenta y no se
contempla la equiprobabilidad de los modelos mentales, la respuesta correcta emerge con
facilidad en la representación mental del sujeto. Cuando la basamos en la menor información
explícita para evitar saturar nuestra limitada capacidad de procesamiento, podemos llegar a
conclusiones ilusorias sobre lo que es más probable. El exceso de confianza subjetiva emitida
revela modalidades de ilusiones cognitivas. ( je,je,je.... y ¡así nos va!)

Cuadro 6.2 página 267 .

5. JUICIO PROBABILÍSTICO Y CALIBRACIÓN.

La calibración es el grado de precisión o ajuste entre el juicio probabilístico sobre la confianza en


el propio rendimiento y la eficacia objetiva avalada por los datos de la ejecución. Uno de los ha-
llazgos más robustos de esta línea de investigación es el denominado “efecto de exceso de
confianza” (sobre-confianza) siendo el hecho de que las personas tenemos más confianza en la
eficacia de nuesro rendimiento de lo que avalan los datos objetivos. El sesgo no se limita a los estu-
dios de laboratorio pues se observa también consistentemente en el ámbito profesional. Un se-
gundo efecto estable y consistente sobre la calibración es “efecto fácil-difícil” que constata que el
grado de sobreconfianza aumenta con el grado de dificultad de las preguntas, je,je,je

5.1. Enfoques teóricos


5.1.1. El enfoque de los Modelos Mentales Probabilísticos (MMP)

Gigerenzer, Hoffrage y Kleinbölting 1991, propusieron el marco integrador que permite explicar el
“efecto de exceso de confianza” y el “efecto difícil-fácil”. La tarea prototípica en juicios de confian-
za incluye preguntas de cultura general con dos alternativas. El desajuste en la calibración no es
una característica intrínseca del juicio humano, sin la consecuencia de la utilización de tareas con
escasa validez ecológica. Un modelo mental probabilístico es un procedimiento inductivo que se
utiliza cuando el conocimiento es limitado y permite realizar inferencias rápidas. La clave concep-
tual es queun MMP estará adaptado si permiten conectar la estructura específica de la tarea con
una estructura de probabilidad en una clase de referencia del ambiente natural del sujeto, almace-

M.Goretti González 21
nada en su MLP. Imaginemos que formulamos: ¿Qué ciudad tiene más habitantes?: a)Bilbao o b)
La Coruña. La pregunta permite generar una clase de referencia representativa extraída del entor-
no natural del sujeto, que podría ser “ciudades españolas con una población superior a 200.000
hab.

Un MMP para una tarea determinada integra una clase de referencia (ciudades esp.con + de
200000 hab), una variable criterio (nº de habitantes), y claves probabilísticas que varían en su
grado de validez. La MMP asume que las inferencias sobre preguntas inciertas o desconocidas se
basan en estas claves probabilísticas, que se generan, se evalúan y se activan para dar la
respuesta. En el ejemplo se podían dar:
a) tener o no equipo de fútbol,
b) ser capital o no de una comunidad autónoma
c) tener o no Universidad
d) ser ciudad o no de veraneo,...

Si las ciudades a y b tuvieran ambas equipo de fútbol, esta clave no sería válida pues no ayuda a
responder la pregunta. La Tª asume que el orden en que se generan las claves refleja una jerarquía
de acuerdo con su grado de validez.

Gigerenzer, Hoffrage y Kleinbölting 1991 pusieron a prueba la teoría con el experimento:


– Se formularon 2 tipos de preguntas:
- Representativas : se utilizó como clase de ref. Conjunto de ciudades del oeste de Alemania
con más de 100.000 hab.
- Seleccionadas: fueron de cultura general, y se sometieron al mismo grupo de sujetos.
– El sujeto debía emitir un juicio de confianza relativo a cada una de sus respuestas, tras
contestar a la pregunta; y un juicio de frecuencia que debía emitir después de cada bloque de
50 preguntas, referido al nº estimado de respuestas correctas en dicho bloque.

De acuerdo con la Tª de MMP, el sesgo de sobreconfianza sobre cada pregunta individual, debería
corregirse y ajustarse a la eficacia objetiva cuando se emitee un juicio de frecuencia, donde cada
bloque de preguntas, en conjunto, constituía una muestra de la clase de referencia natural
“conocimiento de cultura gral que he demostrad en pruebas o exámenes previos”.

En relación a los juicios de confianza se observa un sesgo de sobre-confianza que es más acusado
cuanto mayor es la eficacia de las respuestas de los sujetos. El sesgo se corrige cuando se utilizan
preguntas representativas. La curva de confianza para el grupo de preguntas representativas se
asemeja a una curva de regresión para la estimación del porcentaje de aciertos a partir de la
confianza asignada, revelando subconfianza en la parte izquierda, sobreconfianza en la derecha y
cero sobreconfianza como promedio. La media de las diferencias no difiere significativamente de 0
por lo que es un juicio bien calibrado.

De acuerdo con los autores de los MMP los resultados apoyan la teoría como modelo integrador
de resultados empíricos, ésta requiere un mayor desarrollo para responder a determinadas
cuestiones que no quedan resueltas con claridad, por ejemplo aspectos a delimitar a la hora de se-
leccionar la clave probabilística que se activa, si es ajustado éste a la jerarquía de acuerdo con su
validez , o si las claves se sustituyen o se integran de forma múltiple.
Gigerenzer y Goldstein formulan el algoritmo básico “TakeThe Best” (elige el mejor) TTB, que

M.Goretti González 22
constituye un marco conceptual de la Tª MMP. El algoritmo representa un diagrama de flujo en 5
principios para claves binarias:
1. Principio de reconocimiento: reconocimiento de un objeto constituye un predictor de la
variable. Si una persona debe decidir cuál de las dos ciudades a y d tiene más hab., la infe-
rencia será la ciudad a) porque no ha oído hablar de la otra ciudad.
2. Búsqueda de claves con validez: se recuperan de la memoria las claves y sus valores en un
orden jerárquico de acuerdo con su grado de validez. La validez ecológica de una clave es la
frecuencia relativa con la que predice correctamente el resultado. V.g. Comparando dos
ciudades, el 87% de los casos la ciudad que tiene equipo de fútbol tiene más habitantes, la
validez ecológica de la clave es del 87%
3. Regla de discriminación: Una clave discrimina entre dos objetos si uno de ellos tiene un
valor positivo en la clave y el otro no lo tiene.
4. Principio de sustitución de la clave: si la clave discrimina, se para la búsqueda de nuevas
claves. Si no lo hace, se vuelve al paso donde se ha de elegir nuevamente.
5. Regla de maximización para la elección: se elige el objeto con valor positivo en la clave. El
algoritmo TTB es un procedimiento no compensatorio, sólo la clave que mejor discrimina
determina la inferencia, sin que la combinación de valores de claves diferentes ni la integra-
ción de información puedan contrarrestar la elección basada en la clave con mayor validez.

El modelo TTB se enmarca dentro de un modelo de racionalidad ecológica que permite explicar
cómo el sesgo de sobreconfianza se corrige cuando el participante realiza la inferencia sobre
objetos de su entorno natural, que le permiten seleccionar claves probabilísticas con suficiente
validez en relación a una variable derivada de la clase de referencia. Una clave probabilística válida
es aquella capaz de predecir la inferencia adecuada.

5.1.2 El modelo “fuerza-peso” de la confianza en la evidencia.

El trabajo de Griffin y Tversky, 1992 intentó replicar el estudio de Gigerenzer y cls. Seleccionaron
al azar una muestra de 30 pares de estados americanos y pidieron a los sujetos que eligieran qué
estado era superior en 3 atributos:
a) nº de habitantes.
b) porcentaje de participación en el voto,
c) porcentaje de graduados en bachillerato.
Los resultados reflejaban que el sesgo de sobreconfianza no podía reducirse solo al nivel de dificul-
tad. El nivel de eficacia en las respuestas para las VV “voto” y “educación” fue muy similar y
cercana al azar, y sin embargo, el sesgo de sobreconfianza fue significcativamente superior en la VV
de “educación”, respondiendo ello al efecto llamado ilusión de la validez. El estereotipo americano
está más unido a la educación que a la participación electoral (se considera que el nivel educativo
es superior en un estado, en función del nº de universidades famosas o eventos culturales que
celebran).

Estos resultados delimitan dos VV conceptualmente importantes que intentan explicar sobre las
claves que se recuperan a la hora de emitir un juicio probabilístico. La evidencia disponible para
emitir un juicio intuitivo se interpreta según con 2 coordenadas: la “fuerza” o saliencia de la evi-
dencia y su “peso” o validez predictiva.

La Teoría estadística y el cálculo probabilístico prescriben reglas que combinan con precisión fuerza

M.Goretti González 23
y peso o validez, en cambio el juicio humano no combina ambos factores, lo que produce sesgos y
errores de calibración.

Imaginemos el juzgar la probabilidad con la que una persona será contratada a partir de una cara
de recomendación escritra en términos cálidos y enfatizando en sus cualidades positivas. Las per-
sonas focalizamos en la fuerza o carácte extremo del contenido de la carta y tendemos a predecir
un resultado favorable al candidato, sin atender de forma suficiente al peso o validez predictiva de
la carta: la credibilidad de quien la escribe ( y de si dice lo mismo de todos – pasamos por alto el
tamaño de la muestra) .

El modelo teórico del juicio probabilístico que integra esta dicotomía predice sobre-confianza
cuando la fuerza es elevada y el peso es bajo y subconfianza cuando la fuerza es baja y el peso es
elevado. El suejto se focaliza en la “impresión” que le produce para luego ajustar el juicio de acuer-
do con su conocimiento de su validez. El juicio combina el anclaje en la fuerza de la impresión
basándose en la representatividad de la evidencia, con un proceso de ajuste que tiene en cuenta el
valor predictivo de la evidencia (insuficiente)

El análisis sugiere que las personas basamos la confianza en nuestro rendimiento en la impresión
sobre los resultados sin observar suficientemente la calidad de los datos. Lichtenstein y Fischhoff
demuestran en un experimento que el efecto de sub-confianza donde el rendimiento objetivo era
superior al del juicio previo, se daba en buena parte del rango cuando los ítems eran fáciles, un
efecto de sobreconfianza a los largo de la mayor parte del rango cuando los ítems eran difíciles, y
una sobreconfianza extrema en todo el rango cuando eran “imposibles” (considerar si un párrafo
en inglés lo había escrito un británico o un americano). (¡Si es que somos unos “echados pa´lante!)

5.2. La calibración en el juicio de los expertos

El juicio probabilístico de los expertos no siempre está calibrado. La evidencia indica que también
se equivocan, desatienden a las probabilidades a priori de las hipótesis y a la capacidad predictiva
del dato, siendo predictores claros de la calibración sesgada.

Koehler, Brenner y Griffin 2002, proponen un modelo de calibración adaptado al juicio


probabilístico sobre un caso particular, que integra la Tª del apoyo con el modelo de calibración
“fuerza-peso” de la confianza en la evidencia.

La calidad del diagnóstico y pronóstico en el juicio clínico de los médicos sustenta el cuerpo empíri-
co de evidencia más amplio. Los autores analizaron los datos de 9 investigaciones, que se agrupan
en tres categorías. Un grupo de médicos realizó el estudio clínico individual de distintos pacientes
que padecían “tos aguda” persistente. Cada paciente era examinado por un solo médico y éste re-
llenaba una lista de síntomas estandarizada. Luego se pedía al médico que estimara la probabilidad
de que el paciente tueviera neumonía en una escala de 0 a 100 (sin conocimiento de la radiogra-
fía) La “tos aguda y persistente” era el dato y “padecer neumonía” la hipótesis focal.

La capacidad predictiva del dato respecto a la hipótesis focal constituye un indicador de la calidad
o el peso de la evidencia. El parámetro alfa constituía un dato objetivo y su valor aumenta en
relación directa con la capacidad predictiva del dato respecto a la hipótesis focal, frente a otras
hipótesis alternativas.

M.Goretti González 24
El juicio de los médicos muestra una marcada sub-confianza cuando tanto la probabilidad a priori
como la discriminabilidad son elevadas, una ligera sobreconfianza cuando la prob.a priori es baja y
la discriminabilidad es alta, y una sobre-confianza extrema cuando la prob.a priori es muy baja y la
discriminabilidad es baja.

Koehler y cols. interpretan que la “impresión” que causa el síntoma cuando el médico se enfrenta
a un caso particular se ve reforzada por la accesibilidad de la fuente de información: el carácter
vívido de la experiencia personal y la proximidad al paciente. La “saliencia” del síntoma paraece
variar en relación inversa con la tasa de la enfermedad en la población. Cuanto más atípica resulta
la enfermedad, mayor relevancia adquiere el síntoma y esta relevancia facilita la recuperación de la
memoria de información coherente con la evidencia, que resulta de mayor medida disponible. La
disponibilidad de síntomas coherentes con la hipótesis focal contribuye a su proceso de
“desempaquetado” en sus síntomas componentes, incrementando así su probabilidad subjetiva. El
sesgo en la focalización inicial del juicio a favor de la hip.focal respecto a las hip.alternativas, resta-
rá eficacia al proceso de ahuste final, que no considerará de forma suficiente la discriminabilidad
objetiva del síntoma: su validez predictiva real de la enfermedad.

Esta combinación de fuera(impresión y peso (validez predictiva) de la evidencia (tos aguda y per-
sistente) respecto a la hipótesis focal (neumonía) se ajusta con bastante exactitud al marco teórico
de Griffin y Tversky. La combinación de fuera alta - tasa muy baja- y peso bajo – discriminabilidad
baja- produce sobre-confianza extrema, mientras que la combinación de fuerza baja y peso alto
produce subconfianza.

6.SESGO PREDICTIVO Y SESGO RETROSPECTIVO

La disponibilidad de la evidencia nos hace sobrevalorar la fuera de la evidencia sin que atendamos
suficientemente a la validez de los datos disponibles. El sesgo de sobreconfianza es incluso más
acusado en el caso de los expertos por su mayor resistencia a admitir que se han equivocado.
Sesgo cognitivo “ilusión de validez” lo denomina Kahneman, 2011 y establece él un paralelismo
entre esta ilusión cognitiva y la ilusión perceptiva de Müller – Lyer. En el caso de la ilusión
perceptiva, cuando la persona es adevertida de que no puede confiar en lo que percibe, corrige su
ilusión e informa correctamente de o que ahora es una creencia basada objetivamente. La
constatación de nuestros errores de calibración en los juicios prredictivos puede contribuir a que
aceptemos el hecho intelectualmente, pero es poco probable que produzca un impacto real sobre
nuestros sentimientos y modifieuqe acciones futuras. La confianza se sustenta en los que
denomina la falacia narrativa, basada en el intento continuo de buscar un sentido al mundo que
nos rodea y una coherencia en los hechos que se suceden.

El sesgo retrospectivo es la otra cara de la moneda de la “ilusión de coherencia”. La ilusión de


validez nos hace confiar en exceso en nuestros juicios predictivos si son coherentes con la eviden-
cia presente y este sesgo retrospectivo revisa y re-estructura nuestra concepción sobre un hecho
del pasado si la evidencia disponible la contradice. Este sesgo es extremadamente robusto
demostrado a lo largo de todas las etapas evolutivas de la vida.

Blank y fischer 2000, realizaron el experimento en el cual los participantes predecirían los

M.Goretti González 25
porcentajes de voto que obtendrían los distintos partidos políticos en las elecciones y recordar las
predicciones después de las elecciones. Los participantes recordaron haber estimado un porcenta-
je de voto que difería en un punto del porcentaje real, desviándose de forma significativa de sus
predicciones iniciales. Se les preguntó si el resultado les sorprendía. La mitad no se sorprendió
afirmando que los resultados coincidían con su predicción personal. El resto afirmaron que los
resultados no podían ser de otra manera y ofrecían distintas razones que justificaban la necesidad
del resultado. Los tres componentes del sesgo retrospectivo identificados inicialmente por
Fischhoff y cols.:

a) las impresiones de necesidad: grado en que los resultados de un acontecimiento se perciben


como determinados casualmente. Se explica porque las personas elaboramos antecedentes
consistentes con el resultado de forma que parezca en mayor medida predeterminado.

b) las impresiones de predictibilidad: asumen las percepciones y juicios coherentes con el hecho
de que los resultados podrían haberse anticipado. Efecto de “siempre supe que iba a ocurrir”.
La predictibilidad implica consideraciones metacognitivas que presuponen que el resultado podría
haberse anticipado en algún momento.

c) las distorsiones de la memoria: recuerdo erróneo de que sus predicciones estuvieron muy cerca
de lo que de hecho lo estuvieron. Estas distorsiones están gobernadas por procesos de memoria
que se concretan en el anclaje en el resultado y la reconstrucción de la predicción inicial.

Cada componente responde a una idea psicológica distinta y no siempre se da en el mismo parti-
cipante pero el denominador común, sí es el resultado de la construcción narrativa basada en la
búsqueda de coherencia.

Según Kahneman [...]estamos predispuestos a pensar que el mundo es más regular y predecible de
lo que realmente es porque nuestra memoria, de forma automática y continua, matiene una histo-
ria sobre lo que está sucediendo, y porque las reglas de la memoria tienden a hacer la historia tan
coherente como sea posible y a suprimir las alternativas. El pensamiento rápido no duda. [...]
cuando una impresión convincente entra en conflicto con nuestro conocimiento, la impresión
generalmente prevalece[...]

M.Goretti González 26
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013

TEMA 7 – TOMA DE DECISIONES

1. INTRODUCCIÓN

Los juicios probabilísticos son parte del proceso de toma de decisiones porque la incertidumbre se
encuentra presente en el proceso de decisión. El primer paso es el planteamiento gral de cuál es la
decisión que hay que tomar. Este planteamiento de la decisión determina las alternativas que se
generan, lo que da lugar a resultados completamente diferentes. Luis tiene que decidir qué va a
hacer al terminar sus estudios: ¿cuál será la mejor forma de lograr un buen nivel de vida? Son
alternativas centradas en aspectos económicos. Pero si por el contrario: ¿podría ampliar mis
estudios con algún curso para postgraduados? Las alternativas serán diferentes. Esto mismo
ocurre en decisiones políticas o sociales. Las alternativas generadas, la decisión, será
completamente distinta según el tipo de preguntas que se haga el individuo.

Este planteamiento general está determinado por las metas de la persona. Los sujetos con metas
a corto plazo o a largo plazo decidirán de forma diferente. Una persona que desea trabajar los dos
meses de verano para ganar dinero e invertir en sus estudios futuros, puede elegir un empleo de
muchas horas y con mucha dedicación, y con un buen sueldo. Sin embargo, con metas a largo
plazo, elegirá empleos que le permitan mantener calidad de vida, y ganar algo menos de salario.

Ante decisión importante (deliberada y consciente) el siguiente paso sería la generación de las
alternativas u opciones, sin desechar a priori ninguna de ellas. Serán diferentes en función del
conocimiento y de los valores de la persona, así como de los factores socioculturales.
Normalmente discriminar entre alternativas está determinado por la accesibilidad de la
información, al decidir entre varios productos. Se tiende a tener en cuenta la información presen-
tada y sólo en la forma que se presenta, ignorando a la vez datos que han de inferirse,
transformarse o recuperarse de la memoria. V.g. Comprar un coche (modelo y marcas) en función
de la publicidad evaluamos las características más salientes, atendemos a los accesorios, diseño o
detalle que el fabricante ha merecido hacer hincapié.

Una vez generado un número suficiente de alternativas, se evalúan con el fin de elegir la mejor.
Por una parte, las expectativas o la probabilidad de ocurrencia de c/una, y por otra, las
consecuencias que pueden esperarse en el caso de ocurrir. En la compra del coche evaluamos del
modelo consumo, resistencia, potencia o seguridad. Una decisión correcta debería tener en
cuenta tanto la probabilidad de que la característica se de como las consecuencias que
equivaldrían al valor que la persona da a dicha característica.

Las estimaciones de la probabilidad se encuentran determinadas por el uso de heurísticos


concretos y éstos a su vez influyen sobre la elección final de la opción. Por ejemplo:
– Las madres que sobreestiman la probabilidad de ocurrencia de una enfermedad grave por el
impacto de una noticia. Este aumento de la probabilidad percibida producido por el heurístico
de accesibilidad puede llevar a tomar decisiones sobre aplicar tratamiento o vacunación no
siempre indicado. Estas sobreestimaciones de las probabilidades ocurre con las alternativas
más deseables, y la subestimación con las menos. Esta tendencia es conocida como Principio
de Pollyanna (protagonista de novela que siempre tenía razones para ser feliz) Se da

M.Goretti González 1
igualmente en los concursos o juegos de lotería en los que las personas que juegan
sobreestimas las posibilidades de ganar el premio. Se dan a la vez otros sesgos: sesgo de
exceso de confianza en el juicio emitido, o sesgo retrospectivo consistente en la creencia,
conocido el resultado final, de que las cosas podían suceder de esa forma y se había predicho
previamente.

Las consecuencias de los resultados se conceptualizan en términos de ganancias o pérdidas. Es


frecuente estudiar la toma de decisiones en los juegos de azar con situaciones de elección entre
dos apuestas. Se ha tratado de investigar con los de elección bajo riesgo con un solo atributo en
cada alternativa (ganancia o pérdida económica tras la ocurrencia o no del suceso); cuando es un
tanto más compleja y cada alternativa muestra una serie de atributos , y requieren tanto de
experto en el tema sobre el que se trata como de experto en el análisis de la decisión; y en otros
casos se evalúa simultáneamente las probabilidades y las consecuencias porque éstas afectan a
toda la población (análisis de campañas de vacunación contra enfermedades de baja prevalencia,
pero cuyas consecuencias son graves que no permiten correr riesgos). En otros casos, la persona
realiza una elección bajo incertidumbre evaluando expectativas y sus consecuencias. Las
alternativas tienen cualidad para el individuo (beneficiosa o no) y una importancia determinada
(según el grado de beneficio o perjuicio) que son diferentes para cada persona y que también
varían en la misma en distintas situaciones (intraindividual).

2. TEORÍA NORMATIVA DE LA DECISIÓN

Una decisión es una respuesta a una situación en la que existe más de un curso posible de acción:
opción o alternativa de elección. Suele basarse en las expectativas que tenemos sobre la ocurren-
cia de futuros acontecimientos y en la evaluación de las consecuencias de dichos acontecimientos
en función de nuestras metas y valores. V.g. Llegamos de una jornada de trabajo agotados. Nos
invita un amigo a ir al cine. Ante tal situación se ha de elegir el quedarse en casa descansando o ir
a ver la peli en buena compañía, pero con el riesgo de dormirnos en la misma. Los cursos de acción
serían: Ir al cine o quedarnos en casa. A la vez tenemos unas expectativas de lo que puede ocurrir:
1- si nos quedamos, descansar y no ver una peli.
2- elegir ir al cine, y puede ocurrir que veamos la película o que no por quedarnos dormidos en la
misma.
Desconocemos la probabilidad de ocurrencia de estos acontecimientos pero podemos estimar su
probabilidad y así evaluaremos sus consecuencias. En una escala de satisfacción entre 0 y 100:

Ver peli PROB .60


Satisfacción 100
IR AL CINE
Dormirse en el cine Satisfacción 30
PROB .40
DECISIÓN

Descansar PROB .75 Satisfacción 80


QUEDARSE EN CASA

Aburrirse PROB .25 Satisfacción 10


FIGURA 7.1. Árbol de decisión de una elección hipotética
entre ir al cine o quedarse en casa descansando.

M.Goretti González 2
En el diagrama en forma de árbol de decisión de la situación estamos combinando las propias
expectativas con los intereses y los deseos personales. El árbol de decisión no porporciona una
solución pero sí la representación de las expectativas sobre la ocurrencia de los hechos futuros y
de la evaluación de sus consecuencias. Ello permite visualizar gráficamente cuál es la alternativa
que brinda una mayor satisfacción y su expectativa según nuestros criterios.

En la toma de decisiones se suelen diferenciar tres situaciones relacionadas con las expectativas:
1. aquellas en las que se conocen las probabilidades (comprar un billete de lotería)
2. en las que se desconocen y éstas se pueden estimar (seguir trabajando o poner negocio
propio) y
3. situaciones en las que hay certeza sobre las opciones y sólo se ha de elegir entre las
mismas (pedir carne o pescaso en el restaurante) La certeza indica que no hay dudas sobre
los acontecimientos futuros y la decisión se toma bajo este supuesto.

Las expectativas : el grado de creencia o probabilidad de que ocurra un acontecimiento concreto.


Generadas éstas, se evalúan sus consecuencias asociadas en función de criterios personales. Se
considera que la decisión se toma en un contexto de riesgo cuando se conocen las probabilidades,
en un contexto de incertidumbre cuando éstas se estiman y en uno de certidumbre cuando se
conoce con seguridad la ocurrencia.

La teoría normativa asume que cuando decidimos, lo hacemos eligiendo aquello que tiene el
máximo valor en los resultados que se esperan obtener. Unos matemáticos del XVII y XVIII
consideraron estudiar la probabilidad y la toma de decisiones en los juegos de azar como pauta de
comportamiento óptima. El objetivo era encontrar la forma de cuantificar el valor de una apuesta
en los juegos o en decisiones bajo condiciones de riesgo. Bajo este supuesto se denominaron
Modelos del valor esperado coincidiendo este valor con la esperanza matemática el juego.

El Valor esperado de una alternativa es la suma del producto de c/valor por su probabilidad de
ocurrencia. La mejor elección será aquella que obtenga el máximo valor esperado:
Alt.1 > Ganar 1000 euros con prob. 0.90 y ganar 0 euros con probabilidad de 0.10
[(1000 x 0,90) + ( 0 x 0,10) = 900 euros]
Alt.2 > Ganar 500 euros con prob. 0.80 y ganar 20 euros con prob. 0,20
[(500 x 0,80) + ( 20 x 0,20) = 404 euros]

La alternativa 1 es la mejor porque tiene un valor esperado de 900 euros frente a 404 de la 2ª.
Esta cantidad es promedio ponderado de los resultados que se esperan ocurran en el futuro. Se
pondera cada resultado posible con respecto a la frecuencia con que se espera. También se puede
obtener a partir de estimaciones subjetivas, y es el valor esperado la representación de las
creencias personales sobre la ocurrencia del posible resultado.

Según la teoría del valor esperado los sujetos buscan maximizar sus ganancias y elegirán la opción
1. No obstante, no todos se ajustan a la elección y prefieren la opción 2, en la que se gana menos
pero se gana siempre. Ello hizo que el “valor esperado” fuera sustituido por el concepto de la
utilidad esperada, entendida como el grado en que las consecuencias de una opción alcanzan las
metas personales en una situación determinada.

La primera objeción a este criterio fue en el S.XVIII (Nicolás Bernouill) aunque fue Daniel Bernouilli

M.Goretti González 3
el que desarrolló y lo publicó como Paradoja de San Petersburgo.Trata de la decisión de un
jugador ante un juego con valor esperado infinito:
– El jugador A plantea las reglas del juego y el jugador B tiene que decidir cuánto dinero está
dispuesto a pagar por participar en él.
– La regla consiste en que el jugador A lanzará una moneda hasta que caiga el lado de la cara, y
el número de veces necesarios (n) para conseguirlo determinará la cuantía del premio.
– Si A lanza una moneda y sale cara en la primera tirada, el jugador B pagará dos ducados y
termina el juego.
– La pregunta que se plantea en la paradoja es: ¿cuánto pagaría el señor B al jugador A por
participar en este juego?

Según el criterio del valor esperado, el jugador B debería participar en el juego si el valor esperado
es mayor que la suma exigida para entrar a jugar y rechazar la propuesta cuando ésta sea memor.
Para calcular el valor esperado total del juego se suman todos los valores esperados en cada
lanzamiento, dando como resultado un número infinito de “ducados”. La paradoja surge porque
con un valor infinito se debería apostar cualquier cantidad de dinero. Al señor B le interesa que
salga cara lo más tarde posible. Los resultados evidenciaron que grlmente no están dispuestas a
apostar más de 20 monedas por participar. Pone de manifiesto que no es realista asumir que B
espere poder jugar durante tiempo ilimitado para obtener número infinito de monedas a
cualquier precio.

Para resolverlo, Daniel Bernoulli propuso la noción de utilidad esperada como valoración
subjetiva de las posibles consecuencias monetarias del juego. Es en función de la riqueza de cada
individuo y está en relación inversa a su nivel de riqueza. Ganar o perder 200 euros no es lo mismo
para un rico que para un pobre, y cuánto más dinero se tenga menos se valorará dicha ganancia o
pérdida. El autor también comenta de utilidad marginal decreciente al señalar que la función de
utilidad es siempre creciente pero crece cada vez más despacio. Es necesario diferenciar entre el
valor esperado (cantidad objetiva) y la utilidad esperada que depende de las circunstancias de c/u.
En la paradoja descrita los individuos están dispuestos a pagar distintas cantidades por participar
en el juego según su criterio, aunque el valor esperado sea infinito. Esta distinción permite analizar
la toma de decisiones bajo riesgo considerando las valoraciones subjetivas que hacemos.
Bernouilli logró demostrar que el valor del dinero no es lo mismo para todos y que dicha
valoración es en proporción a la utilidad que pueden obtener de él.

2.1. Teoría de la utilidad esperada

El concepto de utilidad esperada de Bernoulli fue retomado por Neumann y el economista Oskar
Morgenstern (1944) . La teoría de la utilidad esperada de Neumann y Morgenstern ha sido el
modelo estándar de la decisión individual en situaciones de riesgo. Esta teoría del ámbito de la
economía está interesada en “qué” deciden las personas más que en “cómo” deciden. Su interés
se centra en el análisis de la relación entre aquello que se decide y los valores personales que le
han llevado a ella. El resultado del análisis permite entender los actos de elección como las
actitudes que tiene una persona hacia el riesgo.

Los autores proponen unos axiomas que garantizan la coherencia en el proceso de toma de
decisiones. Se necesita una escala de preferencias con la que poder evaluar las opciones. La
noción de utilidad es la escala de preferencias con mayor aceptación de los modelos normativos.

M.Goretti González 4
Con esta se está asumiendo que las metas u objetivos de las personas se expresan en su preferen-
cias, buscando resultados acordes con los valores que se tienen.

Se asume que los atributos de una opción son independientes y que cada uno tiene un peso o
importancia. Implica ello que cada uno tiene una utilidad que indica el grado en que esa propiedad
contribuye a alcanzar las metas y objetivos. Las personas conocen su entorno, son capaces de
ordenar las alternativas según el criterio de utilidad y eligen la de mayor proceso de
maximización. La decisión óptima será aquella que refleje sus preferencias. Esta teoría presenta
las ss ventajas:
1) consideración de toda la información disponible sobre las diferentes opciones,
2) comparación entre cualquier par de opciones dado que comparten una misma escala de
preferencias y
3) establecimiento de una estructura de preferencias coherente a partir de la determinación
de utilidad de cada opción.

2.1.1. Los axiomas de la teoría de la utilidad esperada

Esta aproximación ofrece un conjunto de axiomas para poder construir una escala de utilidades en
la que la representación de los valores de las consecuencias se ajuste a una concepción ordinal de
la utilidad. Los axiomas son principios fundamentales e indemostrables sobre los que se
construye una teoría. Son proposiciones claras y evidentes que se admiten sin demostración, pero
pueden no serlo. Lo que sí, su expresión lógica se utiliza para la deducción y así poder generar
conceptos a partir de ellos.

Savage – 1954 generalizó la teoría de la utilidad esperada para permitir la inclusión de las
probabilidades subjetivas basadas en las creencias propias u opiniones sobre probabilidad de los
hechos. Edwards – 1954 denomina a esta ampliación “el modelo de la utilidad subjetiva
esperada” en un artículo que fue el primer intento de la psicología por acercarse a este dominio.
Sin embargo no es habitual hacer una distinción porque los axiomas y teoremas sistematizados de
Savage cumple las leyes de la teoría de la utilidad esperada y las probabilidades subjetivas que
contempla, cumplen las leyes de la probabilidad.

AXIOMAS:
1. Axioma de completitud u ordenamiento completo: A > B; B > A ; A ≈ B
1- A se prefiere a B A= pera B = piña
2- B se prefiere a A
3- se prefieren las dos, y por tanto, son indiferentes
ante un conjunto de alternativas, las personas pueden ordenarlas según las preferencias
asumiendo que es posible ser indiferente. Esto se hace explícito ante dos alternativas
donde “no se puede decidir” dejar de decidir. Estas serían comparables y la persona ha de
preferir una de ellas o considerarlas como equivalentes.

2. Axioma de transitividad: Si A > B y B > C, entonces A > C


Permite relacionar el orden de preferencias entre 2 alternativas a través de una tercera en
común. Este orden debe ser coherente o consistente entre sí. Si se prefiere A respecto a B,
y la alternativa B respecto a C, se deberá preferir A respecto a C. Se prefiere piña como
postre. El camarero indica que de no haber podría elegir entre pera o manzana. Si se

M.Goretti González 5
responde pera, se establece un orden, donde se prefiere la piña a la pera y esta a la
manzana o bien que se prefiere siempre piña respecto a la manzana.

3. Axioma de cierre: si A y B son alternativas de un conjunto S, entonces ApB también lo son


Enuncia la capacidad de las personas para conceptualizar las probabilidades asociadas con
las alternativas. Si A y B son alternativas de un cojunto S, entonces la probabilidad dela
alternativa A (p) y la probabilidad de la alternativa B (p-1) también forman parte de ese
conjunto. En ApB se considera implícita la probabilidad de la alternativa B(1-p) dado su
complementariedad.
p piña
Decisión
1-p = q pera

4. Axioma de reductibilidad: [(ApB)qA´] ≈ (ApqB)].


Este introduce la distribución de probabilidades entre alternativas para poder
descomponer una alternativa compuesta en una simple. Alguna de sus consecuencias es
también una alternativa. Las reglas de la probabilidad permiten reducir toda alternativa
compuesta a una simple que sea equivalente. Piña A´ dulce
q = 0,80
Piña A
p = 0,75 B´ insípida
1-q = 0,20
Decisión
Pera B
1- p = 0,25 ALTERNATIVA COMPUESTA

Piña dulce A´
pq = 0,60 (0,75 x 0,80)
Decisión Piña insípida B´
1 - pq = 0,40 ALTERNATIVA SIMPLE EQUIVALENTE
1 – 0,60 = 0,40

B pera
1 - p = 0,25

5. Axioma de independencia: A > B si y solo si (ApC) > (BpC)


El orden de preferencias entre dos alt simples no cambia por la adición de una nueva
alternativa. V.g si preferimos piña a pera ( A > B) como postre, entonces deberíamos
preferir una alternativa compuesta por piña y naranja (ApC) frente a otra compuesta de
pera y naranja. (BpC)

6. Axioma de consistencia: A > B si y solo si A > (ApB) > B


Axioma básico y nos indica que si la alternativa A se prefiere a B, entonces la A se prefiere
siempre que se presente con cierta probabilidad.

7. Axioma de continuidad: Si A > B > C, entonces existe una probabilidad p tal que B ≈ (ApC)
Este es importante para la construcción de la escala de utilidad porque asume que habrá
un valor entre 0 y 1 que permite que la persona sea indiferente. Se establece que si A es

M.Goretti González 6
preferido a B y B es preferido a C, entonces siempre es posible encontrar una probabilidad
p para que la alternativa B sea equivalente a la combinación de la probabilidad p de A con
la probabilidad 1 – p de la alternativa C (ApC) Con esta se asegura que no haya una
alternativa mejor o peor a las otras y se puede localizar en la escala la opción B entre A y C.

Cuando se cumplen estos axiomas la función de utilidad establece:


1) x se prefiere a y si y solo si la utilidad de x es mayor o igual a y
2) la utilidad de una alternativa es igual a la utilidad de cada resultad ponderada por su
probabilidad.

A partir de estas dos propiedades se puede construir la cruva de la función de utilidad.


Supongamos:
OPCIÓN A : una ganancia segura de 240 euros.
OPCIÓN B : un 25% de probabilidades de ganar 1000 euros y un 75 % de ganar 0 euros.

Si eligen la A, sabemos que han asignado una utilidad mayor al valor esperado de 240 euros que al
valor esperado de 250 euros. 25% s/1000 + 75% s/0 = 250 euros

FUNCIÓN DE UTILIDAD CÓNCAVA AVERSIÓN AL RIESGO FUNCIÓN DE UTIL LINEAL ACTITUD NEUTRAL

U(A)
U(B)

0 euros 500 1000 euros 0 euros 500 1000 euros

Si la utilidad esperada fuera proporcional a la cantidad del valor esperado, sería lineal y
representaría una actitud neutral hacia el riesgo. La utilidad B U(B) sería = U(A)
También encontramos personas que presentan preferencia por el riesgo al elegir situaciones con
mayor riespo por una mayor cantidad de dinero de de menor riesgo y menor cantidad de dinero.

Supongamos:
OPCIÓN A : una ganancia segura de 260 euros.
OPCIÓN B : un 25% de probabilidades de ganar 1000 euros y un 75 % de ganar 0 euros.

Su cálculo sería U(B) 25% s/ 1000 + 0,75% s/0 = 250 euros; la U(A) = U(260euros) y eligen la
utilidad de B

FUNCIÓN DE UTILIDAD CONVEXA PREFERENCIA POR EL RIESGO

U(B)
U(A)

0 euros 500 1000 euros

La utilidad describe las preferencias de un sujeto y los axiomas imponen las restricciones sobre sus
posibles relaciones, aunque no determinen cuáles son estas transferencias. Esta teoría proponía

M.Goretti González 7
que para ser racionales en la toma de decisiones no había falta compartir la misma función de
utilidad, sino que bastaba con ajustarse a los mismo axiomas normativos en esa búsqueda por
alcanzar la máxima utilidad esperada que había sido definida individualmente.

2.2. Objeciones a la teoría de la utilidad esperada

Los axiomas anteriores fueron objeto de críticas entre las que destacan las paradojas de Allais
1953 y la de Ellsberg de 1961 . Indicaban como se podían violar algunas de las restricciones
impuestas, cuestionando así el concepto de racionalidad subyacente de la teoría.

La paradoja formulada por Allais se centra en la violación del axioma de independencia. Si una
alternativa A se prefiere a B, entonces cualquier combinación de A y C con una probabilidad
determinada debe ser preferida a otra combinación de B con C con la misma probabilidad. Allais
describió dos situaciones:
Situación primera:
- Alternativa B:
- Alternativa A: ganar 1 millón con p de 1 ganar 2,5 millones con prob de 0,10
(con total certeza) ganar 1 millón con probabilidad de 0,89
ganar 0 euros con probabilidad de 0,01

En esta primera la mayoría opta por la alternativa A en la que se gana 1 millón con certeza. Para
hacer el cálculo de la utilidad esperada entre ambas alternativas se considera la ganancia de 1
millón eliminando la prob de la misma de la alternativa B y conservando la prob restante en la
alternativa B ( 1 – 0,89=0,11)
- Alternativa A: ganar 1 millón con probabilidad de 0,11
- Alternativa B: ganar 2,5 millones con proba de 0,10 y ganar 0 euros con probabilidad de 0,01

Elegir la opción A implica que la utilidad U (A) 0,11 es mayor que la utilidad de la alternativa B ,
donde U(B) 0,25

La paradoja se plantea cuando se presenta la segunda situación enla que las dos alternativas
comparten una ganancia de 0 euros.

Situación segunda:
- Alternativa C: - Alternativa D:
ganar 1 millón con p de 0,11 ; ganar 2,5 millones con prob de 0,10
ganar 0 euros con prob de 0,89 ganar 0 euros con probabilidad de 0,90

Considerando la ganancia común de 0 euros en C y conservando la probabilidad restante en la


alternativa D (0,90 – 0,89 = 0,01) la situación sería:
- Alternativa C: - Alternativa D:
ganar 1 millón con p de 0,11 ; ganar 2,5 millones con prob de 0,10
ganar 0 euros con probabilidad de 0,01

La mayoría de las personas prefieren la alternativa D inicialmente. Implica que U(C) 0,11 es menor
que la utilidad de la alternativa D, U(D) 0,25

M.Goretti González 8
Savage 1954 hace un análisis de la paradoja de Allais ampliando el axioma de independencia con
el principio denominado aspecto cierto (sure-thing). Este afirma que si dos alternativas comparten
un resultado concreto, la preferencia será independiente del valor de este resultado común. Las
personas descartan el resultado seguro y basarán su elección en los posibles resultados diferentes
entre alternativas. Ante la situación primera, en una probabilidad de 0,01 se elegirá entre 1 millón
y 0 euros; y ante la probabilidad de 0,10 entre 1 millón y 2,5 millones. Ante la situación segunda, el
aspecto seguro es la ganancia de 0 con prob.de 0,89 y se rechaza, y sigue siendo la decisión entre
1 millón y 0 euros; y ante la probabilidad de 0,10 entre 1 millón y 2,5 millones.

La elección de las alternativas A y D contradice la coherencia del orden de preferencias. Es opuesta


dependiendo de cómo se presente el problema, lo que contradice el principio descrito por la tª de
la utilidad. En la primera situación, se prefiere la opción A con ganancia segura menor que en B en
la que existe una probabilidad aún pequeña de quedarse sin nada. En la segunda situación, la
pequeña diferencia existente entre probabilidades de las dos alternativas queda compensada por
la gran diferencia entre ganancias. Se debe considerar la relación entre la probabilidad y la
ganancia de un resultado y no sólo el valor absoluto de su producto como en la Tª de la
perspectiva.

La segunda paradoja planteada por Ellsberg 1961 se basa en el concepto de ambigüedad . Se ex-
traen bolas de colores. 90 bolas: 30 rojas, 60 negras y amarillas en proporción desconocida. La
extracción al azar supone ganancia distinta en función del color. Se presentan dos situaciones:
Situación 1 Situación 2
- Alternativa A: ganar 100 euros si la bola es - Alternativa C: ganar 100 si la bola es roja o
roja; ganar 0 si es negra o amarilla amarilla; y ganar 0 si es negra.
- Alternativa B: ganar 100 si es negra y 0 si - Alternativa D: ganar 100 si es negra o amarilla;
es roja o amarilla. ganar 0 si es roja

La mayoría prefiere la opción A en la primera situación y la D en la segunda. La elección indica la


preferencia por ganancias con probabilidades conocidas, evitando la ambigüedad de la probabiliad
de obtener una bola negra o amarilla. También violan el axioma de independencia. El aspecto
cierto entre las alternativas se encuentra en las bolas amarillas.

Por tanto la teoría de la utilidad esperada se ha descartado como modelo normativo válido de la
toma de decisiones. Se puede considerar que es una guía prescriptiva adecuada o un buen criterio
para el hombre racional, pero no un modelo descriptivo de decisiones. Analiza como debería de
ser una decisión correcta, para una correcta planificación, inversión o estrategias políticas, pero no
es buena descripción de las elecciones de las personas en su vida diaria.

3. TEORÍAS DESCRIPTIVAS DE LA DECISIÓN

Las personas asignan probabilidades subjetivas tal y como se establece sino en base a atajos
cognitivos aunque estos sean erróneos. Pronto la evidencia empírica y los resultados
experimentales mostraron que los axiomas se violaban repetidamente. Se expone un ejemplo de
que no se cumple el axioma de la transitividad donde A >B y B > C, entonces se prefiere A sobre C.
Según Tversky se da dentro de un entorno cotidiano la decisión no correcta:
Estudiante que quiere completar sus estudios y debe elegir entre psico, sociología y antropología.

M.Goretti González 9
Descubriéndo que ha de inscribirse rápidamente por pocas plazas considera inicialmente su
preferencia hacia la psicología con mayor calidad de enseñanza. Mientras espera piensa que su
mayor interés es la sociología y podría obtener calificación mayor. Parece mejor optar por esta
alternativa, pero sigue pensando y considera que el curso de antropología tiene calidad mayor,
con posibilidad de calificación mejor, por lo que definitivamente opta por esta. Aún así sigue
pensando en su inicial elección...

Esta descripción de la violación de la transitividad en las elecciones, se presenta a menudo incluso


en casos simples como el expuesto. Slovic y Tversky (1974) encontraron que los sujetos eran
inconsistentes en sus preferencias ante situaciones de elección semejantes a la conocida paradoja
de Allais:

Situación 1 Situación 2
- Alternativa A: ganar 30 $ seguros (prob.1) - Alternativa C: ganar 30 $ con prob de 0,25
- Alternativa B: ganar 45 $ con probab 0,80 - Alternativa D: ganar 45 $ con prob de 0,20

Las cantidades de dinero son las mismas en las 2 situaciones, pero las probabilidades de la st.2 se
han dividido. Según la utilidad esperada, aquellos que elijan la alternativa A deberían elegir la C, y
si eligen la B, luego debían optar por la D. La mayoría prefería la alt A en la situación 1: mostraban
aversión al riesgo porque preferían ganar 30 $ sin riesgos que ganar más con un riesgo de 0,20 de
no ganar nada. En la segunda situación la mayoría elegían la alternativa D donde mostraban que
preferían ganar 45$ con un riesgo de 0,80 que 30 $ con un riesgo de 0,75, demostrando lo
indicado por Allais con el axioma de independencia de la teoría de la utilidad esperada. Fue deno-
minado el efecto de la certeza porque la reducción de una ganancia segura a una ganancia con
una probabilidad de 0,25 tiene mayor impacto, que la correspondiente reducción de una prob de
0,80 a 0,20.

Otros resultados muestran la violación del principio de invarianza. Este es un supuesto básico
implícito para la coherencia sustentada por los axiomas. Establece que la relación entre las prefe-
rencias no debe depender de la descripción de las alternativas o del procedimiento utilizado para
hacer la elección.

Situación 1 es 300 $ más rico y ha de elegir: Situación 2 es 500 $ más rico y ha de elegir:
- Alternativa A: una ganancia segura de 100$ - Alternativa C: pérdida segura de 100 $
- Alternativa B: una ganancia de 200$ con pr. De - Alternativa D: pérdida de 0 $ y de 200 $, am-
0,50 y una ganancia de 0 $ con probab. 0,50 bas con probabilidad de 0,50 $

En términos de la utilidad esperada, ambos problemas son idénticos. Las dos situaciones plantean
una elección entre 400$ seguros o 500 $ y 300 $ con una probabilidad de 0,50. Los resultados
mostraron que la mayoría elegía la alternativa A en la sit.1 y la alternativa D, en la sit.2. El valor
esperado es igual, pero se encuentra que cuando el problema se formula en términos de
ganancias, los sujetos muestran actitud aversiva al riesgo. Y cuando se presenta en términos de
pérdidas, se muestra una preferencia por el riesgo. Este efecto es conocido como el efecto del
marco (framing effect) o de la inversión de las preferencias sin limitarse a aspectos monetarios.

En otro estudio de Tversky y Kahneman 1981, se planteaba la elección entre dos programas sani-
tarios:

M.Goretti González 10
Se avecina una enfermedad y se han estimado 600 fallecimientos. Se propone dos programas:
Situación 1 donde:
– si se adopta programa A, se podrían salvar 200 vidas
– si se adopta programa B, existe 1/3 de probabilidades de salvar 600 vidas y 2/3 de no salvar
ninguna.

Situación 2 donde:
– si se adopta el programa C, podrán morir 400 personas.
– Si se adopta el programa D, existe 1/3 de probabilidades de que no muera nadie y 2/3 de que
mueren 600 personas.

Los programas A y B tienen el mismo valor esperado (salvar 200 frente a 400) y los progr.C y D son
idénticos a A y B, pero en términos de muertes (400 muertes frente a salvar 200 vidas). En la 1ª
situación la mayoría elegía opción A, mostrando la aversión al riesgo y el efecto de certeza.En la 2ª
situación, la mayoría eligieron el D, mostrando una preferencia por el riesgo y evitando una pérdi-
da segura. Esto es claro ejemplo de la inversión de las preferencias para las ganancias y las
pérdidas puesto que las dos situaciones son idénticas y de la violación del principio de invarianza.
Este nos recuerda que las elecciones no deberían cambiar en función de la descripción de la situa-
ción o de la formulación de los problemas, siempre que contengan la misma información.

En otra investigación relacionada con el principio de invarianza, las preferencias manifestadas no


deberían cambiar si cambia el método por el cual se obtienen.
Alrededor de 600 personas mueren al año por accidente de tráfico. Se implantará varios
programas para reducir el número. Considerar los dos programas descritos:
– Programa X se estima 500 fallecidos y un coste de 55 millones.
– Programa Y se estima 570 fallecidos y un coste de 12 millones.

Se le pedía elegir y la mayoría lo hacía hacia el programa X. Preferían salvar 70 vidas que ahorrar
43 millones. A un segundo grupo se le presentaba lo mismo pero sin indicar costo del programa Y
y debían estimar el coste que considerasen necesario para que las dos alternativas fuesen
atractivas por igual.

El coste de Y debería ser menor que en el programa X pues morían más. Si se tiene en cuenta solo
el coste, será preferible la alternativa más barata y podemos inferir qué prefieren los sujetos a
partir de la cantidad asignada para igualarlas. Si establecen el coste superior a 12 millones significa
que prefieren el programa X porque la diferencia entre ambos se reduce. Si lo establecen menor,
prefieren el Y dado que la diferencia se incrementa. Cuando se pedía este tipo de respuesta se
prefería el Y en su mayoría. Los autores lo explican por la importancia relativa a los atributos (vidas
salvadas) pero pierden peso cuando se trata de tasar o poner precio. Las personas mostrarán su
apoyo a una iniciativa pública de forma diferente según se les pregunte en las encuestas por sus
preferencias o por su opinión sobre cuantía de sus costes.

También se presenta cuando la persona toma una decisión de elección de una alternativa y
cambia por la decisión de rechazarla. En una decisión binaria no debería influir la elección o el re-
chazo: si A se prefiere a B, entonces se rechazará B frente a A. Shafir 93 encontró que los atributos
positivos son más importantes cuando se “elige” y los negativos cuando se trata de “rechazar”. Si
se tiene información sobre señor B que guarda atributos que sobresalen como positivos y

M.Goretti González 11
negativos, pero al señor A no se le atribuyen. La mayoría elegiría al primero (B) tanto por otorgarle
conceción como por denegársela en otro caso. Esta discrepancia muestra cómo dos tareas que
parecen equivalentes dan lugar a dos elecciones distintas. Las personas no atienden únicamente a
la utilidad de los componentes de c/alternativa para decidir. Prefieren la alternativa cierta cuando
se ofrece ganancia y riesgo cuando se trata de pérdidas de la misma magnitud. No siguen leyes
lógicas de transitividad o independencia, pues varían de VV del contexto y la tarea. Aún cuando
parecen ajustarse a la lógica, no significa que traten de maximizar el valo o la utilidad de las alter-
nativas. Por tanto hay que considerar los aspectos subjetivos o propios de la persona.

3.1. Teoría de la Perspectiva

La teoría de la perspectiva (prospectiva o expectativa – Kahneman y Tversky) es una


modificación de la teoría de la utilidad esperada basada en la descripción de las decisiones de los
sujetos. Pretende remediar las deficiencias anteriores. Introduce dos conceptos nuevos: el valor y
el peso de las alternativas. La Tª de la perspectiva asume que el valor de una opción es el
resultado de la suma del producto del valor asignado a cada resultado X por el peso otorgado a la
probabilidad de obtener X.

El concepto de utilidad se sustituye por el concepto de valor, que se define en términos de


ganancias y pérdidas desde un punto de referencia y no absolutos. La función del valor tiene
forma de “S” y es asimétrica, donde el valor que se atribuye a cada nueva unidad es cada vez
menor (pierde pendiente) y esto explica que en términos de ganancias se prefiera una segura a
otra mayor pero solo probable (aversión al riesgo) y que en términos de pérdidas se prefiera
asumir el riesgo de una pérdida mayor en lugar de evitar la pérdida menor pero segura. La
asimetría explica los resultados que muestran mayor sensibilidad al grado de desviación de un
resultado con respecto a un punto de referencia que al resultado por sí solo (se observa mayor
impacto en el ámbito de las pérdidas que en el de las ganancias).

La Tª de la perspectiva indica que tomamos decisiones ponderando por el peso decisorio. Estos
no guardan relación lineal con probabiliades objetivas, pues los pesos mayores serán cuando las
probabilidades son bajas (sobreestimación), pierden pendiente y son menores en los tramos
centrales de las probabilidades (subestimación) y se recuperan cuando estas son altas (efecto de
certeza).

Las aportaciones principales señalan que la función del valor subjetivo es cóncava para ganancias y
convexa para las pérdidas y su inclinación es mayor cerca del punto de referencia (sensibilidad a
ganancias o pérdidas en mayor en la primera unidad +10 y -10). Se postulan que se subestiman las
probabilidades moderadas y altas, y se sobreestiman las probabilidades pequeñas y la certeza.

Tabla 7.4. Patrón de las actitudes hacia el riesgo


GANANCIAS PÉRDIDAS
Probabilidad BAJA Preferencia por el riesgo Aversión al riesgo
(sobrestimación)
Probabilidad ALTA Aversión al riesgo (subestimación) Preferencia por el riesgo

Se distinguen dos fases: “edición” revisión preliminar de las alternativas y “evaluación” que da
lugar a la elección de la alternativa que haya obtenido el valor más alto.

M.Goretti González 12
La fase de “edición” organiza y reformula las alternativas para simplificar los siguientes procesos
de evaluación y elección. Se aplican las operaciones:
– Codificación de los resultados en pérdidas y ganancias. Estos se definen en relación a un pun-
to de referencia. Si corresponde con el estado del problema, las ganancias y pérdidas
coinciden pero este punto de referencia puede cambiar por la formulación del problema o
expectativas de la persona.
– Combinación de las probabilidades asociadas a resultados idénticos. Permite simplificar el
conjunto de alternativas: 200 euros con prob de 0,25 más otros 200 euros con prob de 0,25,
puede reducirse a 200 euros con prob de 0,50
– Segregación de los componentes ciertos de los componentes con riesgo. Una alternativa de
300 euros con prb de 0,80 y 200 euros con prb de 0,20 se puede descomponer en una
ganancia segura de 200 euros y una ganancia de 100 euros con prob de 0,80. Al final serán 280
– Cancelación de los componentes compartidos por todas las alternativas. La opción común se
cancela.
– Simplificación por el redondeo o por eliminación de las alternativas muy poco probables. 101
euros con prob de 0,49 euros puede considerar como 100 con prob de 0,50

Editadas se pasa a la fase de “evaluación” que comprende la función del valor subjetivo y la
función de la probabilidad ponderada de obtener un resultado. Las estimaciones del valor de una
alternativa son cambios de riqueza o bienestar y no en estados finales. El valor es tratado como
una función con dos aspectos: una posición inicial que sirve de punto de referencia y la magnitud
del cambio desde ese punto de referencia. La teoría se basa en una ecuación básica que describe
la forma en la que se combinan la probabilidad y el valor subjetivo para determinar el valor global
de las alternativas. Puede aplicarse a elecciones que implican otros atributos como calidad de
vida,... si los resultados se codifican como ganancias o pérdidas.

3.2. Teoría Portafolio

Otros enfoques describen sencilla y naturalmente el proceso de elección entre alternativas


centrados en la relación entre el valor esperado y el riesgo. Consideran dos aspectos:
1) la promesa de ganancia potencial de cierta cantidad,
2) el riesgo como posibilidad de sufrir una pérdida.
Coombs centra su interés en analizar el riesgo y su relación con el valor esperado, señalando que
tomamos decisiones bajo riesgo adoptando compromiso entre maximizar el valor esperado y op-
timizar el riesgo. Sostiene que las personas tenemos niveles de riesgo diferente y que cada una
eligiríamos la alternativa que más se aproxime a nuestro nivel de riesgo ideal.

Su Tª Portafolio incluye el riesgo percibido de cada alternativa como determinante de la elección


de las personas siendo en función de la probabilidad de perder y también de la cuantía de esa pér-
dida. Para cada nivel del valor esperado existe también un nivel óptimo: riesgo ideal, donde la
persona elige la alternativa A frente a B poniendo de manifiesto que A se encuentra más cercana
al riesgo ideal que B.

Cuando presentan el mismo valor esperado la elección será función únicamente del riesgo. Si se
quiere incrementar entonces habrá que aumentar también la probabilidad y la cuantía de las ga-
nancias (las pérdidas de la alternativa más arriesgada deben compensarse con ganancias mayores)

M.Goretti González 13
Los resultados experimentales de Coombs y Huang 1970 confirmaron que los sujetos elegían la
alternativa con el mayor valor esperado cuando la diferencia entre los diferentes niveles de
riesgos y el riesgo ideal era la misma. Encontraron que este nivel de riesgo ideal y persona no era
el mínimo nivel de riesgo posible. Estas diferencias individuales no deberían considerarse como
rasgo de personalidad estable sino como las diferencias que se muestran en su percepción de los
riesgos y de los beneficios de una situación determinada en un momento concreto. Por ejemplo,
los estudiantes de países occidentales daban mayor peso a las probabilidades de las ganancias y la
percepción del riesgo disminuía a medida que mejoraban los resultados en el juego, mientras que
los estudiantes orientales concedían mayor peso en la magnitud de las pérdidas y la influencia de
los resultados positivos era mucho menor en su percepción del riesgo.

Figner y Weber 2011 señala que la idea de riesgos en la toma de decisiones depende de factores
que se agrupan en términos como quién, dónde y las diferentes interacciones entre ambos. Cada
individuo tiene un nivel óptimo de tensión entre la ganancia que desea obtener y la presión de
riesgo que puede soportar. Según Coombs y Huang – 1970 nivel de tensión entre codicia y el
miedo, donde existe un umbral de aceptación de la alternativa en ambas dimensiones donde no se
elegirá una alternativa cuya ganancia sea menor que su umbral de ganancias, ni la que el riesgo
sobrepasa el umbral de riesgo establecido. Para ser aceptable la alternativa no debe violar
ninguno de los dos umbrales. Son reglas dentro de las estrategias de decisión no compensatorias.
Así ninguno de los dos criterios puede contrarrestar al otro: un riesgo alto no compensa una gran
ganancia y un riesgo muy pequeño tampoco compensaría una ganancia pequeña.

4. LOS HEURÍSTICOS PARA LA ELECCIÓN ENTRE ALTERNATIVAS


4.1. Aspectos básicos del enfoque del procesamiento de la información

El enfoque del PI se apoya en el concepto de “racionalidad restringida” propuesto por Simon 83 al


asumir que las limitaciones cognitivas conducen a la elaboración de modelos simplificados de los
problemas y a tomar decisiones que sena coherentes con dichos modelos. Al simplificar la tarea de
elección, se sustituye el principio de maximización por el principio de satisfacción. Por ejemplo,
una persona que se plantea comprar una vivienda y tiene mucha información sobre el mercado
inmobiliario, no tiene recursos de procesamiento suficientes como para poder maximizar su
utilidad esperada. Para tomar la decisión tendrá que seleccionar previamente un conjunto
limitado de casas para luego compararlas hasta elegir aquella que mejor alcance su nivel de aspi-
ración. Este enfoque trata de sustituir el concepto de una persona racional que cuenta con toda la
información, con preferencias estables y una capacidad de cómputo ilimitada por el concepto de
una personal racional, pero con limitaciones en el procesameinto de la información, tales como
capacidad de memoria limitada, recursos atencionales escasos,... Se debe además reflejar la
intersección entre estas limitaciones y las demandas impuestas por los diferentes ambientes en
los que se toma una decisión. Además hay que considerar el hecho de que lo que cada persona
evalúe satisfactorio pueda cambiar con el tiempo y la experiencia a medida que el nivel de aspira-
ción cambie.

El objetivo consiste en describir los distintos procedimientos mediante los cuales las personas
toman sus decisiones. Se requieren procedimientos heurísticos sencillos que permitan seleccionar
y procesar. Ahora la elección no se basa en un análisis exhaustivo de todas las alternativas hasta
encontrar la óptima sino la satisfactoria.

M.Goretti González 14
Payne, Bettman y Johnson 92, señalan que las personas tienen más de una estrategia de elección
y éstas pueden ser en algunas ocasiones deliberadas, otras veces, el resultado de aprendizajes
previos y en otras pueden ser intuitivas. La interacción ocasiona que el conjunto de estrategias pra
la elección comprenda un abanico amplio de heurísticos, desde los rápidos y apropiados para las
decisiones bajo presión de tiempo y poca capacidad de cómputo, hasta los de procesamiento
secuencial lento y apropiado para decisiones más complejas y deliberadas.

Los métodos para el rastreo del proceso, observan la estrategia empleada mediante el análisis de
los protocolos verbales, el análisis de los movimientos oculares, la monitorización de la búsqueda
de información y el análisis de la actividad cerebral por Rmf. En otros casos, se infiere según se
presentan pares de alternativas (X, Y) y si se elige uno u otro se inferirá que se utiliza una regla u
otra. Se tratan de cubrir dos objetivos: descubrir qué estrategias y qué reglas empleamos; y qué
rasgos de la tarea y del contexto determinan la selección y uso de estas estrategias.

4.2. Criterios de elección bajo incertidumbre

Las situaciones de incertidumbre son las que mejor se ajustan a la toma de decisiones de la vida
cotidiana y las situaciones de riesgo caracterizan mejor la toma de decisiones en los juegos de azar
y en los ámbitos profesionales. También los criterios de elección son conocidos como reglas de
decisión, heurísticos de elección,...

4.2.1.Criterios de elección entre alternativas


CRITERIO ADITIVO LINEAL

Se ajusta al modelo normativo. Se asigna a los atributos una ponderación por importancia para
luego multiplicarlos por el valor determinado de ese atributo. Por ejemplo, en la compra de la casa
asignamos un 9 (0-10) al atributo precio. A continuación se analizará cada alternativa asignándole
una ponderación al valor concreto del atributo. A una vivienda con precio medio asignamos un 5, y
se multiplica por 9 (45) Se suma el resultado obtenido en c/u de los atributos para cada alternativa
y se elige la de mayor puntuación. La estrategia maneja toda la información disponible y es una
estrategia compensatoria porque la alternativa que tenga puntuación baja en un atributo puede
compensarse con otra alta en otro.

CRITERIO DE LA “RAZÓN INSUFICIENTE” DEL LAPLACE


Se intenta paliar la poca información en situaciones bajo incertidumbre para hacer estimaciones
según modelo normativo. Se desconoce la probabilidad de resultados y se asume su
equiprobabilidad. La probabilidad de todos los resultados (n) es la misma (1/n) y una vez calculado
se elige la alternativa con mayor utilidad esperada.

CRITERIO DE DOMINANCIA
Criterio coherente con modelo normativo, pero sólo para aquellas decisiones en las que exista la
mejor o peor alternativa. Se exploran todas para encontrar la mejor y elegirla o la peor y
eliminarla. Gralmente resulta difícil pero es un criterio útil para un análisis preliminar con el fin de
discriminar las más débiles (dominadas) y reducir el número de ellas a considerar.

CRITERIO “EL MÁXIMO DE LOS MÁXIMOS” (MAXIMAX)


Es el enfoque optimista y consiste en elegir aquella que presenta el mejor resultado considerando

M.Goretti González 15
que éste ocurrirá (máximo de los máximos). Si son utilidades, se elige la de mayor utilidad y si son
costes, la que presente el coste más bajo.

CRITERIO “EL MÁXIMO DE LOS MÍNIMOS” (MAXIMIN)


Enfoque pesimista o conservador. Se comparan los peores resultados de c/alternativa y se elige el
que ofrezca el mejor de los peores resultados (máximos de los mínimos). Se toma pensando que el
peor ocurrirá y pretende asegurar una ganancia mínima con el menor perjuicio.

CRITERIO DE HURWICZ
Ni todos somos optimistas ni pesimistas, Hurwicz describió el comportamiento intermedio como
la suma ponderada de los extremos: alfa es el peor resultado; y 1 – alfa, es el mejor. Se estima la
probabilidad subjetiva del peor resultado y la subjetiva del mejor. La elección de este valor alfa
estará entre 0 y 1 donde el grado máximo de pesimismo será 1 (maximín), y 0 sería el de máximo
optimista (maximax). Se multiplica por sus utilidades respectivas y su suma suaviza los extremos.

CRITERIO DE LA PÉRDIDA DE OPORTUNIDAD DE SAVAGE (NINIMAX)


También el del arrepentimiento porque considera que las personas también lamentan no haber
escogido una alternativa. Se busca reducir el arrepentimiento al mínimo. Se elige el mejor resulta-
do y se sustituye por cero (0) Este representa que no hay arrepentimiento. Luego se encuentra la
diferencia entre el resuultado óptimo y los demás. Esta diferencia representa la pérdida de opor-
tunidad o arrepentimiento por no haber escogido la alternativa que diera el mejor resultado y se
elige la que presente el mínimo arrepentimiento.

CRITERIO DE SATISFACCIÓN CONJUNTIVA


Es semejante al general de satisfacción de Simon. Se establece una línea de corte o umbral para
c/u de los atributos y se elige la que alcance este nivel de satisfacción en TODOS los atributos. Se
utiliza para el análisis preliminar de un conjunto amplio de alternativas con el fin de seleccionar el
subconjunto de las mejores o para elegir la alternativa satisfactoria.

CRITERIO DE SATISFACCIÓN DISYUNTIVA


Semejante al anterior pero se eligen las alternativas que alcancen el nivel de umbral de
satisfacción en CUALQUIERA de los atributos, no en todos (alternativa destacada en al menos un
atributo)

CRITERIO DE RECONOCIMIENTO
Existe tan poca información sobre las alternativas que eligen la que reconocen o que les resulta
familiar. Forma parte de las estrategias heurísticas “rápidas y frugales” (requieren poco esfuerzo
en recursos y tiempo).

4.2.2 Criterios de elección entre atributos de las alternativas

Comparan el valor de cada una de las consecuencias o atributos de todas las alternativas:

CRITERIO DE LA DIFERENCIA ADITIVA


Se ajusta al modelo normativo. Va comparando cada uno de los atributos en un par de alternativas
Se asignan todos los valores a los atributos ponderados por su importancia y se compara un par de
alternativas, luego se suman las diferencias entre ellos y se elige la alternativa superior.

M.Goretti González 16
Posteriormente se compara ésta con otra y se vuelve a proceder hasta que solo quede una. Toma
toda la información disponible y es compensatorio.

CRITERIO LEXICOGRÁFICO
Se determina primero cuál es el atributo más importante y luego se elige la alternativa que
presente el valor más alto en dicho atributo. Se denomina lexicográfico porque los atributos se
ordenan en función de la importancia de forma análoga a cómo están ordenadas alfabéticamente
las palabras en un diccionario. Es de los criterios más comunes.

CRITERIO DE LA ELIMINACIÓN POS ASPECTOS


Similar al anterio, pero establece líneas de corte para el valor de cada atributo. Se empieza por
determinar el más importante y su nivel de satisfacción y se eliminan todas las alternativas que no
llegan a él. Se continúa con el siguiente sucesivamente. V.g. Elegir restaurante cerca de casa.
Podemos elegir como primer atributo que tenga cocina tradicional y como línea de corte, que
tenga buen pescado. La línea de corte eliminará cualquier restaurante que no cocine pescado. El
segundo atributo puede ser el rango de los precios, eliminando los que tengan precios más altos
que los aceptables. Otro el tipo de local que nos guste y así hasta que nos quede solo una opción...
¡para que luego esté cerrado, je,je,je!

CRITERIO DE LA RAZÓN ÚNICA


La decisión se toma basándose en un único atributo y forma parte de los heurísticos “rápidos y
frugales” Similar al lexicográfico, pero con dos heurísticos de búsqueda para la selección del
primer atributo:
1) el heurístico “escoge el mejor” lo escoge por la validez que haya tenido en experiencias
anteriores para la discriminación entre buenas y malas y los ordena de mayor a menor
validez, y
2) 2) el heurístico “minimalista” realiza la comparación entre atributos de forma aleatoria
hasta encontrar la alt con el atributo de mayor validez.

Las reglas compensatorias son más completas porque tienen en cuenta todos los atributos y las
posibles relaciones entre los mismos, como al adquirir una vivienda que un precio alto, puede
compensarse por la cercanía al puesto de trabajo. Sin embargo, estas compensatorias y
coherentes con el modelo normativo son costosas cognitivamente y poco viables para decisiones
con muchas alternativas multiatributo.

Elegir una u otra estrategias dependerá:


a) el análisis de la relación entre el coste de optimizar el proceso y el beneficio de simplificarlo;
b) de factores contextuales y del entorno de la tarea;
c) de la representación del problema.

Algunas variables como la presión del tiempo, información distractora, dificultad de la tarea
influyen en el uso de la estrategia y por tanto en las distintas respuestas. En diferentes
investigaciones, se observa que las personas modifican la estrategia empleada cambiando a más
simples centradas en los datos negativos que permiten la eliminación de ciertas alternativas. Se
observa también el proceso de cadenas de estrategias o reglas, de forma que primero se usan las
que permitan descartar y luego se evalúa más detalladamente. Parecen útiles en diferentes
contexto, pero no se puede olvidar que el descarte inicial puede llevar a despreciar alternativas
actractivas.

M.Goretti González 17
Tabla 7.5 CLASIFICACIÓN DE LOS CRITERIOS DE DECISIÓN
(adaptado de Hastie y Dawes, 2010)
ELECCIÓN ENTRE ALTERNATIVAS
CRITERIOS COMPENSACIÓN ESCRUTINIO ESFUERZO MENTAL
Aditivo lineal COMPENSATORIO EXHAUSTIVO Muy alto
Dominancia NO COMPENSATORIO EXHAUSTIVO medio
Maximax NO COMPENSATORIO incompleto bajo
Maximín NO COMPENSATORIO incompleto bajo
Hurwicz NO COMPENSATORIO incompleto medio
Razón insuficiente COMPENSATORIO EXHAUSTIVO Muy alto
Arrepentimiento COMPENSATORIO EXHAUSTIVO Muy alto
Satisfacción conjuntiva NO COMPENSATORIO incompleto bajo
Satisfacción disyuntiva NO COMPENSATORIO incompleto bajo
Reconocimiento NO COMPENSATORIO incompleto bajo
ELECCIÓN ENTRE ATRIBUTOS
Diferencia aditiva COMPENSATORIO EXHAUSTIVO Muy alto
Lexicográfico NO COMPENSATORIO incompleto medio
Eliminación por aspectos NO COMPENSATORIO incompleto medio
Razón única NO COMPENSATORIO incompleto bajo

5. ALGUNOS ASPECTOS COLATERALES DE LA TOMA DE DECISIONES

Uno de los aspectos que acompañan a la toma de decisiones es la necesidad de justificación de la


respuesta emitida. Según Shafir, Simonson y Tversky el análisis de las razones por las cuales se
toma una decisión permite una mejor aproximación a los aspectos psicológicos de este proceso y
puede arrojar luz a la inconsistencia de los modelos normativos.

Esta necesidad de justificar está relacionada con el fenómeno estudiado por Festinger 1964 sobre
la necesidad de reducir la disonancia cognitiva. Las personas suelen estar satisfechas de sus
decisiones porque no conocen el resultado obtenido en caso de haber elegido otros, y por la ten-
dencia a eliminar la disonancia. Desde una perspectiva teórica más comprensiva, Svenson 1996
considera que la toma de decisiones es en gran medida el arte de resolver conflictos por medio de
la reconciliación o negación entre metas contradictorias, siendo esta resolución además
dependiente del problema, el contexto y las diferencias individuales.

Se ha de tener en cuenta que la decisión no es un proceso estático, sino que debe re-considerarse
repetidamente a medida que surgen otros elementos o varían las condiciones. Nuestros valores o
utilidades son inestables, muchas veces por desconocimiento. Es preciso tener en cuenta el cono-
cimiento de la persona experta frente a la ingenua. Además cada uno lleva a cabo varios roles en
la vida y cada uno de éstos determina una perspectiva diferente que variará la utilidad para cada
dimensión. El estado anímico dará lugar a juicios más positivos o negativos, modificando las
decisiones. El más positivo dará lugar a búsqueda de alternativas variadas y a la sobrevaloración
de la ocurrencia de estados favorables, y a la inversa. je,je,je ¡no tengo remedio!, lo sé.

M.Goretti González 18
A veces las decisiones está “cargadas” emocionalmente. Algunas personas no pueden considerar
detalles monetarios a la posibilidad de salvar vidas o salvaguardar el medio ambiente. Tetlock las
considera como compensaciones tabú (resistencia en lo sagrado o no). Pueden ante esto negarse
a decidir, dejar que otros lo hagan por ellos, optar por alternativa que mantenga el estatus quo o
que puede justificar fácilmente ante ellos y los demás, utilizando estrategias no compensatorias; o
bien intentar abordar el tema con esfuerzo de recursos y tiempo ponderando aspectos
emocionales como importantes.

Payne y Bettman, 2004, señalan que las ventajas y desventajas de las decisiones, se encuentran
directamente relacionadas con los objetivos:
1. maximizar la precisión de la decisión;
2. minimizar el esfuerzo cognitivo;
3. minimizar el impacto de las emociones negativas durante el proceso y una vez tomada,
4. maximizar la facilidad con la que se pueda justificar la decisión.

M.Goretti González 19
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013

TEMA 8 – SOLUCIÓN DE PROBLEMAS

1. INTRODUCCIÓN

La solución de problemas hace referencia a una de las manifestaciones del pensamiento más
extendidas y con un rango muy amplio de aplicaciones. Impregna todo aquello que se encuentra
relacionado con nuestra actividad cotidiana. Esta capacidad nuestra forma parte de nuestro
repertorio de procesos cognitivos básicos en distintos dominios de conocimiento, estando implica-
dos procesos básicos, como, percepción, memoria, categorización, razonamiento, lenguaje, apren-
dizaje,... asociada la misma a la inteligencia y la creatividad de uno. La solución de problemas com-
prende cualquier situación en la que se tiene una meta y se desconoce cómo poder alcanzarla. Las
personas intentaremos con mayor o menor éxito el objetivo.

Para abordar el estudio de este proceso de solución hace falta partir del análisis de al menso 4
componentes:
1- estado inicial de conocimientos,
2- estado meta que se quiere conseguir,
3- los procedimientos, acciones u operaciones que se pueden utilizar para ello, y
4- las limitaciones directas e indirectas impuestas por el contexto.

Cuando nos enfrentamos a un problema partimos de un estado inicial, tenemos un estado meta al
que queremos llegar y unas imposiciones que se deben respetar para alcanzar la meta. Por
ejemplo, tenemos un problema si se presentan inesperadamente unos familiares, la despensa es-
tá vacía y no tenemos presupuesto como para salir al restaurante. El estado inicial será no tener
cena, prepararla sería el estado meta y la imposición es hacerlo con lo que encontremos en la des-
pensa. Por solución se entiende el procedimiento que se ha empleado para alcanzar la meta, pero
sería más adecuado utilizar el término solución para denotar el producto final del proceso (estado
meta) y el término resolución para hacer referencia al procedimiento.

2. EL LEGADO DE LA PSICOLOGÍA DE LA GESTALT

La psicología de la Gestalt ofreció alternativa a la psico experimental iniciada por Wundt (1911) y
al conductismo norteamericano de Watson,1930. Enfoque contrario al método analítico
defendiendo que la totalidad no podía entenderse como la mera suma de sus partes
constituyentes, sino en términos de sus interrelaciones en dicha totalidad de la que forman parte.
Wundt desautorizada la utilización del método introspectivo (procedimiento rigurosos de esos
años con los que contaba la psicología del momento). Su argumento se basaba en las
interferencias y sesgos potenciales pro- ducidos por el propio análisis introspectivo del
pensamiento. La Gestalt se centra en el uso de pro- tocolos verbales que pudieran exteriorizar el
pensamiento libres de interferencias.

Frente al enfoque asociacionista (conductismo) que explicaba la solución de problemas como una
conducta ob- servable basada en el número y fuerza de las conexiones estímulo-respuesta, la
Gestalt se interesó por la obtención de soluciones ante situaciones no conocidas. Según el conduc-
tista, el sujeto intentaría resolver recurriendo a sus conocimientos o experiencias previas en las

M.Goretti González 1
que hubiera obtenidos buenos resultados. Contaría con un conjunto de recursos (asociaciones
estímulo-respuesta), para afrontar nuevas situaciones y de no existir éstass, procedería por
ensayo-error. Al contrario, la Gestalt defendía que el aspecto esencial del proceso era la transfor-
mación o reorganización súbita de los aspectos críticos del problema.

“Gestalt” es término que se traduce como configuración, estructura, forma,... pero ninguno trans-
mite el carácter dinámico del concepto alemán, pues significa totalidad integrada y articulada en
la que la naturaleza, el lugar, el papel y la función de cada una de sus partes son lo que son por la
propia naturaleza de la totalidad (Wertheimer). El autor lo explicaba como la pompa de jabón:
donde el grosor de la textura jabonosa debía ser uniforme en toda la estructura, en interacción
dinámica y con la propia totalidad, de tal forma que pinchada, se presentaba el cambio en la
estructura de la misma (¡claro!).

Según el principio de la pregnancia, en las totalidades, existe una organización inherente


caracterizada por ser la más simple y la mejor organización posible con coherencia y sentido. Sin
embargo, en el proceso de solución de problemas se parte de situación opaca, confusa y sin senti-
do. Por medio de la reorganización se podrá alcanzar una mejor comprensión de la naturaleza del
problema. En el problema de los nueve puntos se aprecia tanto la organización y la reorganización.
Probl ema C. Sol uci ón crea ti va con

...
de l os 9 puntos
...
A. s ol uci ón i ncorrecta
...
B. Correcta con 4 l ínea s 3 l íneas
...
... ... ... ...
... ... ... ...
Supongamos que a ndan a l go más uni da s , je,je,je

En la formulación del problema de los nueve puntos se pide conectar todos los puntos con cuatro
líneas o menos sin levantar el lápiz del papel. Resulta difícil por el el principio de pregnancia, que
impone la organización de los nueve puntos en un cuadrado como la forma más coherente y
sencilla. Las personas asumimos que las líneas deben dibujarse dentro de esos límites imaginarios
haciendo su resolución. Cuando se logra romper esta organización, se puede reorganizar diferente.

En 1945, Wertheimer distingue entre pensamiento reproductivo y productivo. El reproductivo es


un proceso automático que aplica ciegamente los conocimientos y procedimientos aprendidos. El
pensamiento productivo es dinámico que avanza constantemente hasta conseguir aprehender la
ráiz de la situación planteada en el problema. Por medio del productivo se reorganizan aspectos
esenciales de la situación y se puede diferenciar lo relevante de lo irrelevante. Se da una experien-
cia fenomenológica del “¡ah, ya lo tengo!”. Insight o comprensión súbita, hace referencia al paso
de ese estado inicial confuso a otro en el que se obtiene una comprensión de la naturaleza del pro-
blema y su posible solución. El pensamiento reproductivo se aplica mecánicamente y puede llegar
a ser incluso obstáculo para el descubrimiento de una estrategia de solución mejor y más simple
del mismo problema.
Dunker,1945 discípulo del anterior, publicó uno de los estudios más completo sobre la solución de

M.Goretti González 2
problemas. Durante la realización de la tarea se pedía a los sujetos que pensaran en voz alta
mientras resolvían el problema con el find de analizar cómo los sujetos progresaban hacia la solu-
ción. Las soluciones se desarrollaban por medio de las inferencias establecidas entre una represen-
tación mental del problema y la generación y evaluación de un conjunto de soluciones posibles.

El término fijación funcional fue utilizado para describir esta adherencia a procedimientos u orga-
nizaciones anteriores que impiden o bloquean una nueva reorganización de la situación. Este es
opuesto al de insight pues hace referencia al bloqueo mental y este sentido el aprendizaje previo
interfiere en la reorganización necesaria para resolver el problema. En el “problema de las cajas”
de Dunker se presentaba una vela, una caja de cerillas y chinchetas y se pedía a los sujetos que fija-
ran la vela encencida en un tablón. Problema que no resultaba nada fácil resolver. La solución
surge cuando se cambia la función contenedora de la caja de cerillas por la función de soporte que
puede fijarse al tablón con las chinchetas. Ilustra el ej. el cómo el uso habitual de la cajita genera
fijación funcional, bloqueando las posibles utilidades distintas.

Luchins,1942 demostró cómo la aplicación repetitiva del mismo procedimiento para resolver un
problema puede bloquear la aplicación de otros procedimientos alternativos y más eficaces. Utilizó
el problema de las jarras de agua y la tarea de los sujetos consistía en obtener una cantidad
determinada de agua utilizando para ello tres jarras con diferentes medidas. Este conjunto de pro-
blemas recibió el nombre de einstellung (actitud) para denotar esa disposición hacia la utilización
de procederes conocidos. Después de esta primera tarea, se presentaba otro grupo de problemas
denominados críticos porque podían ser resueltos por otro procedimiento más rápido.
GRUPO SOLUCIÓN SOLUCIÓN SIN El diseño básico de este experimento lo
EINSTELLUNG DIRECTA SOLUCIÓN
aplicó Luchins a más de 900 sujetos encon-
Control (niños) 1% 89% 10% trando los mismos resultados del efecto
Experimental (niños) 72 % 24% 4%
Control (adultos) 0% 100% 0%
einstellung: aplicación mecanizada de un
Exprerimental (adultos) 74% 26% 0% procedimiento ya aprendido y la consiguien
Te generación de un estado mental ciego en el planteamiento del problema. Conviene señalar que
la aplicación mecanizada de aprendizajes anteriores no solo es útil y eficaz, sino necesaria para
resolver problemas similares. Desafortunadamente, también puede convertirse en un obstáculo en
la solución de problemas nuevos o en el descubrimiento de innovaciones en los procedimientos de
resolución aprendidos.

Los estudios sobre fijación funcional de Dunker fueron bien recibidos por la comunidad científica
de la época aunque su trabajo fuera más amplio a otros campos.

Ejemplo: Si una persona tiene un tumor de estómago inoperable y existen unos rayos de alta inten-
sidad que destruyen el tejido orgánico, ¿cuál seria el procedimiento para eliminar el tumor con la
aplicación de estos rayos, pero evitando al mismo tiempo la destrucción del tejido sano que lo
rodea?

Los sujetos que participaron en las sesiones debían resolver el problema pensando en voz alta
todo aquello que se les iba ocurriendo mientras intentaban llegar a una solución. El método de
pensar en alto es distinto al introspectivo porque en el primero el sujeto se encuentra centrado en
el problema y verbalizando su pensamiento, mientras que en otro el sujeto pensante se convierte
en objeto de su propia atención. Dunker encontró que generalmente la solución no se alcanza en n
solo paso sino en varios a partir de la obtención de las propiedades esenciales o el principio gral de

M.Goretti González 3
la solución. A este principio lo denominó valor funcional de la solución, y consiste en una reformu-
lación del problema original, pues la solución final se alcanza a medida que este ppo gral se va
concretando en cada paso. Su interés era conocer cómo se desarrollaba y se integraba una
solución dentro del sistema de conocimiento del propio sujeto y no tanto en la viabilidad de las
propuestas de solución en sí mismas.

Las distintas propuestas de solución que daba el sujeto, según iba pensando en voz alta, se agrupa-
ron en tres principios generales:
1. evitar el contacto entre los rayos y el tejido sano;
2. la inmunización del tejido sano; y
3. la reducción de la intensidad de los rayos en su trayecto por el tejido sano.

A partir de estos se desarrollaban otras fases mediadoras más concretas encaminadas hacia la
solución del problema. Estas fases reformulaban el problema original en otro más concreto. En el
caso de la primera fase, el problema se concretó en la búsqueda de una vía libre hacia el estóma-
go con el fin de evitar dicho contacto y se encontró como solución el esófago. Según Dunker:
[...]cada una de las fases posee en sentido retrospectivo el carácter de una solución y en sentido
prospectivo, el de un problema”.

Lo habitual era encontrar que el sujeto iba tanteando de forma alternativa la viabilidad de los
principios grales y de las distintas fases mediadoras. Por ejemplo, un sujeto podía empezar desde
arriba con el principio, para luego volver a retomarlo en la fase en que lo dejó. Podría empezar des-
de abajo porque conocía soluciones semejantes que podrían aplicarse a la situación planteada por
el problema, o incluso las restricciones de éste, podían sugerir una solución como el estar el tumor
situado en el estómago podría contemplar la solución del esófago por proximidad anatómica. Las
aportaciones de la psicología de la Gestalt contribuyeron a que la psicología cognitiva desarrollara
el estudio de la solución de problemas como búsqueda de las interrelaciones entre las partes del
problema que diera como resultado una comprensión estructural del mismo.

3. PROCESO DE SOLUCIÓN DE PROBLEMAS

A partir de los ´60 del S.XX el enfoque del PI sustentó el marco teórico y metodológico de la inves-
tigación sobre la solución de problemas. Los modelos computacionales ofrecían su desceipción y
explicación dentro del marco formal y riguroso que necesitaba la psicología cognitiva. El
Solucionador General de Problemas de Newell y Simon, 1972 constituye el inicio y marco de refe-
rencia como proceso de búsqueda heurística y estructuración y reestructuración de la representa-
ción del problema planteado por la Gestalt.

Newell y Simon describen “la solución de problemas” como la interacción entre un sistema de
procesamiento de la información (PI) – sistema de cómputo con almacenes de memoria,
operadores, receptores sensoriales y efectores motores, con limitaciones también- , un
solucionador y un ambiente de la tarea que comprende los factores externos relevantes para esa
determinada situación. El solucionador al enfrentarse al ambiente representa esta situación como
un espacio del problema, y este espacio es la particular representación que el sujeto hace del
ambiente de tarea configurado por las interacciones entre las limitaciones del PI y el ambiente.
Este espacio viene definido por los estados, los operadores, las restricciones, las funciones de
evaluación y las estrategias de búsqueda.

M.Goretti González 4
Las investigaciones se han centrado fundamentalmente en dos aspectos: 1. los procedimientos
que conducen a las soluciones, y 2. las representaciones internas de los problemas.

3.1. Tipos de problemas


La mayoría de estudios en el tema, coinciden en que hay al menos cuatro componentes básicos el
proceso de solución: el estado inicial, estado meta al que se quiere llegar, una serie de pasos para
conseguir la meta, y unas restricciones impuestas.

Una de las primeras clasificaciones se basaba en el grado de definición de los estados iniciales y
metas de la situación. Reitman, 1965 existían cuatro tipos: 1) donde tanto estados iniciales y meta
están bien definidos, 2) problemas donde el estado inicial está bien definido y la meta no, 3)
problemas donde la meta está bien definida pero no así el estado inicial, y el 4) tanto estados ini-
ciales como meta están mal definidos.

La clasificación general más aceptada los agrupa en bien definidos o cerrados y mal definidos o
abiertos. Los bien definidos (anagramas o ajedrez) son aquellos que contienen en sí toda la infor-
mación que permite resolverlos y cuya estructura impone unas limitaciones. Se identifican con fa-
cilidad la meta, los requisitos y el punto de partida para resolver el problema y los pasos u
operadores necesarios para su solución. Las personas generalmente no están familiarizadas con el
dominio de conocimiento y para resolverlo utilizan estrategias grales de solución (análisis medioss-
fin). Los mal definidos requieren del sujeto que construya la información necesaria para alcanzar la
solución. Para resolver estos (los de la vida diaria) se recurre al conocimiento y experiencia
(solución de probl por analogía) . Según Simon, 1973 los procesos generales para resolverlos son
los mismos y lo característico del proceso de solución de los abiertos es estructurar lo desestructu-
rado, para que terminen siendo cerrados o bien definidos.

Greeno,1978 propuso otra clasificación basada en los procesos empleados en la solución: 1)


problemas de inducción estructural, 2) problemas de transformación y 3) problemas de
reordena- ción. Inicialmente útil esta clasificación, no todos los problemas pueden clasificarse
fácilmente bajo esta tipología, pues se dará frecuentemente la combinación entre categorías.

En los problemas de inducción estructural se identifica el patrón de relaciones que existe entre
elementos que lo conforman. Hay que descubrir las relaciones entre las partes individuales para
luego poder generar una representación integrada ( analogías identifican aspectos estructurales
compartidos entre dos situaciones que extrapolan la solución, por ejemplo la analogía verbal es su
presentación de 4 términos: hombre es a mujer como caballo es a yegua – A:B como C:D)

Los problemas de transformación se resuelven por la aplicación de unos procedimientos al estado


inicial para alcanzar el estado meta gradualmente. Tenemos La torre de Hanoi donde consiste en
pasar los tres discos del primer pivote A al tercero C para que quedenn en la misma disposición,
sin mover más de uno a la vez y sin colocar un disco mayor encima de uno menor
C

En los problemas de reordenación la solución se obtiene por nueva disposición de los elementos
en función de algún criterio. Ejemplos como rompecabezas, anagramas o la criptoaritmética.
Greeno propuso: DONALD Donde presentaba tres nombres y los números comprendidos del
+ G ERALD 0 al 9. Consistía en sustituir letras por números de modo que el
ROBERT

M.Goretti González 5
el resultado fuera correcto. Se suele indicar que la letra D corresponde al nº 5.
Solución es: Modificaron la tipología anterior en función de: 1) acción congnitiva y 2)
526485
+ 197485 representación cognitiva.
723970
Tanto la acción como la representación cognitiva son necesarias y complementarias en cualquier
teoría del pensamiento humano. La acción cognitiva comprende el conocer de las acciones que se
pueden realizar y el conocimiento estratégico para establecer la meta y planificar sobre ello. La
representación cognitiva se refiere a la representación de los objetos comprendidos en la situa-
ción, la meta del problema, operaciones y estrategias que se pueden utilizar así como a las
restricciones que existan. Teniendo esto en cuenta, Greeno y Simon, 1988 analizaron los
problemas en tres categorías:
1. problemas bien especificados: procedimiento y metas bien definidos.Comprenden una
situación inicial, un conjunto de operaciones para pasar de un estado a otro, y un estado
meta. La tarea es encontrar una secuencia de acciones con la aplicación de las operaciones
permitidas. Comprende además los problemas de transformación de la tipología vista antes
y añade unos subtipos:
- Problemas nuevos, dirigidos por metas de los que no se tiene conocimiento o ex-
periencia (Torre de Hanoi)
- Problemas familiares, con metas específicas y conocimientos específicos (pr.mates)
- Problemas que especifican un procedimiento en lugar de una meta (ejercicios de
mates en los que se pide encontrar expresiones algebraicas)
- Problemas de representación, en los que los sujetos tienen experiencia
(interpretar uno de física).

2. problemas de diseño y reordenación: las metas se especifican en función de criterios grales


en lugar de estados o procedimientos específicos. La meta es conseguir una nueva disposi-
ción de los objetos. Comprende la categoría, problemas de reordenación de la tipología an-
terior, además del conjunto de problema de diseño y ss subtipos:
- Problemas de formación de disposiciones (anagrama contiene letras desordenadas
y la meta es reordenar para que formen palabra -> hocac -> cacho)
- Problemas de modificación de disposiciones (tablero ajedrez)
- Problemas de construcción de nueva formulación o representación (problemas de
insight , cajas de Duncker).
- Problemas complejos de composición y diseño (escribir ensayo, comp.musical,...)

3. problemas de inducción: tratan de encontrar un ppo gral coherente con los objetos o
contenido del problem. Categoría que permanece igual que en la tipología anterior,
analizando mayor número de problemas inductivos (inducción categórica, extrapolación de
secuencias, inducción de estructuras relacionales y el diagnóstico).

En cuanto a la distinción entre razonamiento y solución de problemas , Greeno y Simon sostienen


que tanto el raz.deductivo como el inductivo son procesos de solución de problemas. Según estos,
hacen referencia a tipos de problemas y no a procesos en sí. Analizan silogismos categóricos como
pertenecientes a la categoría de los probl.bien especificados (aquellos nuevos con metas específi-
cas que no requieren conocimiento), pero los silogismos transitivos serían aquellos de problemas
de inducción, puesto que la representación integrada de la información es por inducción de la

M.Goretti González 6
estructura ordenada de relaciones expresadas en las premisas.

Una prouesta más globlal es la de Jonassen - 2000, que considera que el análisis de los problemas
ha de tener en cuenta las dimensiones:
1. características de la naturaleza del problema,
2. características del contexto en que se presenta o representa,
3. las diferencias individuales para resolverlo.

Tabla 8.2 Dimensiones explicativas de la habilidad para resolver problemas (adaptado de Jonassen, 2000)
NATURALEZA DEL PROBLEMA REPRESENTACIÓN DIFERENCIAS INDIVIDUALES

- Estructuración (mal o bien) > CONTEXTO . CONOCIMIENTO DE DOMINIO


- Social - familiaridad
- Complejidad - Histórico - curiosidad
- Cultural - experiencia
- Abstracción
(específico de dominio-abstracto) > INDICIOS / PISTAS . CONOCIMIENTO ESTRUCTURAL
. CONOCIMIENTO PROCEDIMENTAL
> MODALIDAD . CONOCIMIENTO SISTÉMICO-CONCEPTUAL
. RAZONAMIENTO ESPECÍFICO DE DOMINIO
. ESTILOS COGNITIVOS
. ESTRATEGIAS GENERALES DE SOLUCIÓN PROBLEMAS
. AUTO – CONFIANZA
. MOTIVACIÓN/ PERSEVERANCIA

Jonassen señala que la naturaleza de los problemas varía en función de su grado de:
1. estructuración (sobre todo de estos en educación): presentan estado inicial bien definido,
un estado meta conocido (define la naturaleza de la solución) , y conjunto de operadores
que permiten resolver el problema. Pero los de la vida cotidiana y en el ámbito profesional,
no suelen estar bien estructurados (elementos desconocidos, soluciones múltiples o
ninguna, o incluso solución influida por otras variables alternativas) y esto implica no
conocer los procedimientos necesarios para la solución, por lo que se recurre a las creen-
cias u opiniones particulares.

2. Complejidad , se define por el número de elementos o variables que presenta el


problema, su interrelación, el tipo de relación funcional y la estabilidad entre las propieda-
des. Los más complejos son aquellos dinámicos debido a la situación de tarea y sus VV ines-
tables. Cuánto más complejo mayor será el nº de operaciones necesarias para solucionarlo
y mayor carga cognitiva (memoria de trabajo). La complejidad y la estructuración se sola-
pan. Los mal estructurados suelen ser los más complejos, aunque también pueden ser
sencillos (no saber cómo vestirse para una cena,...) Los bien estructurados son menos com-
plejos puesto existen VV con comportamient predecible (no incertidumbre) Si aumentan en
complejidad es por causa de aumento de VV y operadores (cálculo para una gran
infrestructura de carretera,...)

3. abstracción : Los bien estructurados son más abstractos por no estar en un contexto con-
creto y no tener contenidos específicos de dominio de conocimiento. Se resuelven con los
procedimientos generales, los métodos débiles. Los métodos fuertes suelen estar mal
estructurados, situados en contexto concreto y dependientes de contenido específico.

M.Goretti González 7
Lehman, Lempert y Nisbett, 1988 encontraron que el tipo de formación universitaria determinaba
el rendimiento en diferentes tipos de problemas:
– los de psicología y medicina resolvían mejor los probl.metodológicos, estadísticos y de
razonamiento condicional que los de derecho y química.
– Los resultados manifiestan que si la solución de problemas se encuentra en contexto
determinado y es dependiente del contenido, se desarrollarán procedimientos tb espe-
cíficos y concretos.

Sin embargo, pueden los bien estructurados situarse en contexto y dotarse de contenido
(formulado como una historieta) y los mal estructurados, presentarse de forma abstracta
(dilemas).

Con respecto a la representación de los problemas hay que destacar la importancia del contexto,
formato y modalidad. Los probl.cotidianos y profesionales se encuentran inmersos en contextos
propios (al diseñar un vídeo juego para salir al mercado de ventas con éxito, la representación de
éste en el ámbito profesional será distinta de la que se tenga en el profesional. Otras variables in-
fluyentes son las posibles presiones del tiempo impuesto para resolver el problema, imposiciones
reguladoras de contextos (sociales, religiosos, políticos, culturales,...) y las distintas interacciones
sociales que pudieran ser según el grupo o ambiente (ambiente competitivo vs colaborativo)
Además señalar el abanico de dif.individuales que pueden mediar. Hay que destacar las
dimensiones afectivas y conativas ( algunos estudios muestran que las actitudes y las creencias que
se tienen sobre el problema y su ámbito de conocimiento , conjuntamente con el nivel de auto-
confianza influyen significativamente sobre el rendimiento y la perseverancia para encontrar la
solución).

3.2. Procedimientos de solución de problemas

Newell y Simon, 1972 propusieron una metáfora espacial que describe el proceso de solución
como un procedimiento de búsqueda a través de un espacio delimitado por unos estados y unas
secuencias de acciones que conforman los caminos o trayectos metafóricos hacia la solución.

El espacio es la representación que el solucionador hace del problema y está constituida por 4
elementos:
1. descripción del estado inicial,
2. descripción del estado meta,
3. conjunto de operadores o acciones que permiten pasar de un estado a otro,
4. restricciones impuestas sobre los diferentes trayectos que conducen a la meta.

El procedimiento comprende la secuencia de operadores que transformarán el estado inicial en


estado meta de acuerdo con las limitaciones impuestas (Esto me recuerda a que mi meta es sacarme 4
asignaturas en junio a base de bien, y... ¿tendré limitaciones para seguir los pasos hacia la meta?... ¡tantas siempre por el camino
influyendo!... pero bueno, he leído lo de la perseverancia y eso es cosa de unedianos, así que... ¡todo ganado! . Esto último será
eso de cosas de autoconfianzas supongo. En fin...) Este proceso es la búsqueda del mejor trayecto para llegar a
meta.

El espacio del problema comprendería el conjunto de todos los estados potencialmente alcanza-
bles mediante la aplicación de los operadores disponibles. Las personas tenemos una memoria de

M.Goretti González 8
trabajo limitada que hace inviable un proceso de búsqued exhaustivo (jugada de ajedrez puede
comprender como sesenta movimientos con media de treinta alternativos legales en cada paso)
Esto es implosión combinatoria, donde se da el hecho de que el tamaño del espacio de búsqueda
aumenta exponencialmente a medida que se profundiza en el mismo proceso de búsqueda. Por
tanto las personas utilizan unos métodos de búsqueda heurística. Ello permite reducir el conjunto
total de alternativas a un número más manejable, agrupando a las alternativas que se aproximen a
la solución (jugador de ajedrez anticipa entre 3 y 4 jugadas, y uno experto lo hará con 3 ó 4 pero de
las mejores jugadas). Sin embargo, ello no garantiza que se llegue a la solución óptima. En la
búsqueda se apuesta por aquellos trayectos que mejor puedan conducir a una solución, por alcan-
zar soluciones satisfactorias pero no la mejor. Newell y Simon 1972, propusieron un nº reducido
de métodos heurístico de carácter gral denominados métodos débiles por no usar información
específica sobre el dominio del problema.

3.2.1 Heurístico “subir la cuesta”


También “método de reducción de diferencias”, es un procedimiento sencillo que reduce la
diferencia entre el estado inicial y el estado meta, tratando de aplicar un operador que dicho esta-
do incial a otro. “Subir la cuesta” recuerda el camino que se emprende hacia delante cuando se
quiere alcanzar la cima de una cuesta. Al avanzar se reduce paso a paso, la distancia que separa de
la cima.

Este heurístico es similar al método de ensayo y error selectivo. Las personas eligen en cada paso
la ruta que parece llevarles directamente a meta. Es útil encontrar una solución mínimamente
satisfactoria (máximo local), sin garantía de que sea la mejor opción posible (máximo global)
dentro del espacio del problema. La desventaja es la dirección pues siempre es hacia meta.

Es una estrategia sencilla y útil con ciertos inconvenientes. El solucionador puede quedarse atra-
pado en un punto máximo local con una solución satisfactoria, pero distinta del estado de meta.
MÁXIMO GLOBAL
2 estados iniciales diferentes, A y B (Heurístico
“subir la cuesta”
MÁXIMO
LOCAL

ESTADO
INICIAL ESTADO INICIAL
A B

Otro inconveniente es que no se pueden generar estados que momentáneamente se alejan de la


meta, siempre se trabaja hacia delante, no permitiendo dar un paso hacia atrás porque esto su-
pondría alejarse de la meta.
La Torre de Hanoi consiste en pasar los tres discos del primer pivote al tercero para que queden en
la misma disposición, sin mover más de un disco a la vez y sin colocar uno mayor encima de menor
Ver la Figura 8.4 de página 368. Es representación del espacio del problema completa con un total
de 27 estados. El 1 es el estado inicial, el 8 el estado meta y cada estado se encuentra vinculado
con otro por el movimiento de un disco. Existen varias formas de resolverlo, siendo la más rápida
la que allí se presenta por los siete movimientos consecutivos comprendidos entre los estados del
1 al 8. Si el solucionador está utilizando el heurístico de “subir la cuesta” y ha ido avanzando el
estado 1 al 5, la aplicación llevaría al estado 23, (parecido al de meta). Sin embargo, el estado 6

M.Goretti González 9
conduce más rápidamente a lograr la meta que el 23. Kotovsky, Hayes y Simon (1985)
encontraron que los sujetos utilizaban en primer lugar el método de la reducción de diferencias
para resolver la Torre de Hanoi, y cuando fracasaban entonces aplicaban el heurístico “análisis
medios-fin”.

3.2.2 Heurístico “análisis medios-fin”

Este heurístico reduce la diferencia entre el estado inicial y el estado meta. La diferencia principal
entre este y el de “subir la cuesta” consiste en descomponer el est.meta en varios estados subme-
tas. La búsqueda hacia atrás, parte del estado meta y mediante la identificación de los operadores
se pretende ir generando los diferentes estados que logran terminar el estado inicial. Es de los mé-
todos más conocidos fruto de la combinación de la búsqueda hacia delante y hacia atrás.

La reducción de diferenciaas entre el inicial y meta, se logra con las submetas o estados interme-
dios que cada vez se aproximan más al meta. Aplicando los operadores se reducen las diferencias
hasta que desaparezcan. Si no se logra reducirla se genera un nuevo estado submeta para aplicar el
operador y así poder ir reduciendolas. Por ejemplo, nuestro estado inicial es que estamos en un fin
de semana en casa aburridos y con ganas de salir al campo (est.meta) Uno de los operadores que
reducirá diferencias sería “coger el coche para acercarnos al campo”. Si el coche está en el taller,
generaremos un nuevo estado submeta (amigo con coche) para aplicar el operador. Si este opera-
dor falla (no está en casa o no quiere) buscaríamos otro (viajar en tren ¡dónde lo haya, claro!)

ESTADO A OPERACIONES ESTADO B (META)

- Si A = B se alcanza la meta.
> Estado A y B - COMPARAR - Si A no igual B, se detecta diferen-
cia 1, y se genera submeta.

- Si no existe abandona.
> Diferencia D1 - BUSCAR OPERADOR - Si existe, se genera una submeta
para aplicar el operador.

- Si no se cumplen, detecta D2
- APLICAR OPERADOR - Si hay éxito, se genera nuevo
> Estado A
estado A1

El heurístico análisis medios-fin reúne características importantes para este proceso de solución de
problemas:
1º La búsqueda se encuentra explícitamente guiada por el conocimiento de la meta.
2º El estado inicial puede conducir a otros estados submetas que descomponen el problema en
partes más pequeñas y más fáciles de alcanzar.
3º El método puede aplicarse recursivamente hasta conseguirlo.

El proceso de planificación es una parte importante de la solución de problemas al permitir


anticipar las consecuencias de las posibles acciones. Con esta anticipación de las consecuencias se
pueden identificar puntos muertos en el trayecto y evitar errores irreversibles o no, o bien errores
irrelevantes pero que supongan pérdida de tiempo. Al descomponer el problema en subpartes, se
mejora la búsqueda con la anticipación de soluciones tentativas, permitiendo la corrección e
integración de las distintas partes.

M.Goretti González 10
La Torre de Hanoi genera primeras submetas cuando se libera el disco mayor del primer pivote.
Para alcanzarla se traslada el disco pequeño al tercer pivote. Luego se mueve el disco mediano al
segundo pivote y se alcanza la primera submeta. Liberado el disco grande debemos moverlo al
tercer pivote. Podemos anticipar que liberar el tercer pivote coloccando el disco pequeño encima
del disco grande sería un error. La anticipación de las consecuencias negativas corrige el trayecto y
permite colocar el disco pequeño encima del mediado en segundo pivote. La tercera meta es
mover el disco grande del 1er pivote al tercero.

El análisis del espacio del problema es una descripción abstracta que dificilmente puede ser repre-
sentada e implementada en distintos modelos computacionales. Sin embargo, se encuentra
vinculada al modelo formal “Sistema de Producción” (Newell,1973) Está constituido por reglas
con condiciones y acciones (si cumple condición, ejecuta acción).

Las reglas de condición-acción representan el conocimiento para la aplicación de un operador. Las


condiciones específicas cuándo se puede aplicar el operador y las acciones describen las conse-
cuencias de su aplicación. Las representaciones de los distintos estados del problema se empare-
jan con aquellas reglas que satisfagan las condiciones especificadas y entonces se dispara la acción
correspondiente.

Los sistemas de producción fueron diseñados para modelar el proceso de solución de problemas,
pero se han extendido a otros ámbitos de aplicación y han sido propuestos como modelo de
funcionamiento cognitivo en gral. El razonamiento condicional se encuentra representado como un
sistema de producción. Diversos modelos cognitivos alternativos basados en éstos, comparten un
lenguaje teórico común que fomenta la comunicación entre las diversas disciplinas.

Los problemas bien definidos o cerrados como la Torre de Hanoi, no son representativos de la
mayoría de los problemas. Sin embargo, facilitan la investigación sobre el proceso de solución
porque:
– el análisis de la tarea es riguroso. El sujeto conoce las reglas y procedimiento pues estos son
dados por el enunciado. Permite obtener un diagrama en el que se identifican todas las rutas
posi- bles. Se cuenta con una descripción formal que permite estudiar la generación de la
solución e identificar cómo se aproxima el sujeto a ese estado meta por los sucesivos
movimientos entre los diferentes estados del espacio del problema. Se podría estudiar cómo
mejora el rendimiento con el ejercicio y cómo se puede ser “experto”.
– Estos problemas no requieren conocimientos específicos y esto permite una mínima interven-
ción de los conocimientos previos del sujeto.
– La estructura bien definida permite generar problemas semejantes para así poder estudiar el
proceso de transferencia del aprendizaje bajo distintas circunstancias.

3.3. Representación del espacio del problema

Según Newell y Simon 1972, las personas representan el ambiente de la tarea como espacio cons-
tituido por posibles estaados en los que se realizará la búsqueda de la solución. El ambiente es una
descripción externa del problema, y el espacio es la representación interna que hace el sujeto de
dicho ambiente. En la generación del espacio del problema se debe considerar la interacción entre
las fuentes de información externas e internas. Las externas se encuentran definidas por el am-

M.Goretti González 11
biente de la tarea y las internas por conocimientos que tiene el sujeto sobre situaciones similares
y sobre la propia información que se va acumulando durante el propio proceso de solución.

En los estudios sobre fuentes de información externa se han utilizado versiones isomórficas de los
problemas bajo el supuesto de que si la estructura del espacio para los procedimientos de bús-
queda heurística es idéntica, cualquier diferencia observada en el rendimiento se deberá a diferen-
cias en la representación de los enunciados. Versiones diferentes a la Torre de Hanoi son los pro-
blemas de Los Monstruos y se presentan en dos versiones: 1) Los monstruos se pasan los globos, y
2) Los monstruos cambian el tamaño de los globos que sostienen.

Ejemplo: PROBLEMA DEL MONSTRUO: MOVIMIENTO.

3 mostruos sostenían 3 globos de cristal. Tanto los mostruos como los globos tiene tres tamaños diferentes,
pqño, mediano y grande. El monstruo pqño sostenía el globo grande, el mediano el el globo pequeño y el
mostruo grde, el globo mediano. Puesto que es una situación sin sentido de simetría, procedieron a
intercambiárse los de modo que luego tenga cada mostruo uno proporcional al tamaño. Se tenían que respe-
tar las normas:
– solamente se puede mover un globo cada vez.
– Si un monstruo tiene dos globos, sólo se puede mover el más grande de los dos.
– No se puede mover un globo a un monstruo que sostiene uno mayor.
– ¿qué secuencia se seguirá para resolverlo?

Ejemplo: PROBLEMA DEL MONSTRUO: CAMBIO.


3 monstruos extraterrestres sostenían tres globos de cristal. Debido a las particularidades de su planeta, los
monstruos y los globos son de diferentes tamaños (monstruo pqño - globo gde, monstruo mediano – globo
pqño, monstruo grande – globo medio) Puesto que era contraria a su idea de la simetría procedieron a
contraer y expandir los globos de modo que se pudiera conseguir el que sostuvieran a un globo proporciona-
do. Las normas complicaban la solución:
– Solamente se puede cambiar un globo cada vez.
– Si dos globos tienen el mismo tamaño, solo se puede cambiar el globo que sostiene el monstruo de ma-
yor tamaño.
– Un globo no puede cambiar al mismo tamaño que un globo que sostiene un monstruo de mayor tamaño.
– ¿Cuál es la secuencia de cambios para resolver este problema?

En el isomórfico de movimiento, los globos pasan de un monstruo a otro como en los discos en los
pivotes del problema de la Torre de Hanoi. En el problema isomórfico de cambio los globos perma-
necen con el monstruo, quien puede cambiar el tamaño de los globos. Ahora se han cambiado los
papeles que desempeñan los pivotes y los discos: el globo es como el pivote y el monstruo como
disco. Tanto en la Torre de Hanoi como en el problema isomórfico de movimiento, las imposiciones
recaen sobre el tamaño de las unidades que pueden moverse (discos y globos) ubicadas en un
mismo sitio (pivotes y monstruos) En el de cambio, las imposiciones sobre el cambio del tamaño
del globo recaen sobre el tamaño de los monstruos (discos) que sujetan globos (pivotes).

TORRE DE HANOI MONSTRUO-MOVIMIENTO MONSTRUO-CAMBIO


1. Sólo se puede mover un disco c/vez 1. Sólo se puede mover un globo cada 1. Sólo se puede cambiar un globo
vez cada vez
2. Sólo se puede mover el disco de 2. Si un monstruo tiene dos globos, sólo 2. Si dos globos tienen el mismo tamaño,
encima se puede mover el más grande de los dos. sólo se puede cambiar el globo que
sostiene el monstruo de mayor tamaño
3. Un disco de mayor tamaño no 3. No se puede mover un globo a un 3. Un globo no puede cambiar al mismo
puede colocarse encima de uno más monstruo que sostiene un globo más tamaño que un globo que sostiene un
pequeño. grande. monstruo de mayor tamaño.

M.Goretti González 12
Los resultados pusieron de manifiesto que los problemas isomórficos presentaban diferentes nive-
les de dificultad a pesar de compartir la misma estructura del espacio del problema. Se correspon-
dían con las distintas imposiciones y modalidades de presentación. Se encontró que el problema
más difícil era la versión isomórfica de cambio presentada por escrito y el problema más fácil había
sido el clásico de la Torre. La explicación se centra en los distintos niveles de carga de memoria de
trabajo que eran necesarios para la solución. Kaplan y Simon 1990 estudiaron la influencia del
ambiente en la tarea con el “tablero de damas mutilado”. Está asociado al insight descrito por la
Gestalt y plantea:
Tablero de damas de 64 cuadrados. Pueden cubrirse con 32 piezas de dominó de forma que cada pieza cubra
dos cuadrados. Si se eliminan dos en los extremos ¿se podrían cubrir los 62 restantes con 31 piezas de domi-
nó?

Cuando los sujetos se enfrentan a éste, emplean mucho tiempo intentando encontrar un patrón
que permita colocar las 31 piezas sobre el tablero mutilado sin éxito. El espacio del problema es
grande y el enunciado no impone restricciones sobre el heurístico de búsqueda por lo que al final
terminan abandonando el problema. Es imprescindible cubrir el tablero de damas mutilado con 31
piezas. En este los cuadrados adyacentes son siempre de dos colores alternos (rojos y negros) y
que al colocar una pieza de dominó se cubrirá una cuadrado rojo y otro negro. Al eliminar dos cua-
drados del mismo color (negro) quedan 30 negros y 32 rojos.

Kaplan y Simon se plantearon estudiar la facilitación en la resolución de este problema por medio
de la presentación de distintos indicios del concepto de paridad (comparar) que pudieran restrin-
gir la representación del espacio del problema. Presentaron:
1. tablero don todos los cuadrados en blanco,
2. tablero con cuadrados en dos colores,
3. tablero en blanco con palabrs de los colores escritas dentro de los cuadrados [negro][rojo]
4. tablero en blannco con palabras escritas [pan] y [mantequilla].

Los resultados manifestaron que tardan menos en responder que no se podía resolver los enfren-
tados al tablero con las palabras “pan” y “mantequilla”. Estas transmitían el concepto de paridad
necesario para obtener la solución. Le seguía el grupo con el tablero de las palabras escritas de los
dos colores, el de dos colores y el de los cuadros en blanco.

La explicación de la dificultad del problema es que se parte de una representación inapropiada y


para resolverlo hay que reiniciar la búsqueda de otra representación del espacio del problema con
un número mayor de restricciones. Cuando se variaron las formulaciones de los problemas de
modo que enfatizaran el concepto de paridad se encontró que los sujetos lograban resolver el pro-
blema y que algunas formulaciones eran mejor que otras. Los autores comentan que la experiencia
fenomenológica del insight de la Gestalt puede explicarse como proceso de búsqueda semejante al
utilizado con el resto de los problemas, pero en este caso se busca una reestructuración del espa-
cio del problema. La dificultad de estos problemas se puede predecir por la disponibilidad de las
fuentes de información del ambiente de la tarea que permiten constreñir dicha búsqueda.

La Teoría del Control Progresivo sostiene que los sujetos utilizan el heurístico de subir la cuesta
para resolver problemas asociados al insight , resolviéndose cuando se relajan las imposiciones
sobre el espacio del problema. Esta Tª explica cómo se alcanza un puno muerto en el proceso,
cuáles son las condiciones necesarias para que surja el insight y por qué este es tan poco frecuen-
te.

M.Goretti González 13
En estas investigaciones se utilizó el problema de los 9 puntos. Según los autores, el estado meta
no se encuentra bien definido en la mayoría de los problemas asociados al insight y los sujetos
seleccionan un criterio de progreso satisfactorio hacia unas metas parciales que se infieren de la
descripción del problema o de estado interno generado en el proceso en sí. La reestructuración del
espacio del problema puede ocurrir, por la influencia de fuentes externas como por la propia
información generada internamente.

Los sujetos no logran resolverlo debido al gran nº de movimientos posibles que parecen ajustarse
al criterio de un cuadrado. Se llega a un punto muerto cuando el heurístico de búsqueda ya no
puede más estados que cumplan el criterio de progreso satisfactorio. Este fracaso permite relajar
las imposiciones del espacio del problema para buscar otros estados. El sujeto puede volver a una
solución anterior tentativa en la que utilizó una línea para unir los puntos fuera de los límites ima-
ginarios del cuadrado. El insight es poco frecuente pues se ha dee ajustar al criterio de llegar a la
cuarta línea. Es necesario anticipar mentalmente el trazado para darse cuenta del fracaso del crite-
rio satisfactorio y reestructurar el problema sin los límites imaginarios del cuadrado.

La teoría del cambio representacional se centra en la información interna como obstáculo para
una buena representación del espacio del problema. La que se hace inicialmente puede ser inade-
cuada porque el conocimiento previo y las experiencias anteriores activan la construcción del
problema infructuoso. Para reestructurarlo nuevamente existen los mecanismos:
1. relajación de las imposiciones: decremento en la activación de algún elemento de conoci-
miento que restringe la aplicación de los operadores comprendidos en el espacio del pro-
blema (v.g. Fijación funcional observada en el problema de las cajas de Duncker – función
contenedora de la cajita de cerillas opera como soporte de la vela.)
2. disgregación de las agrupaciones con significado del problema: implica ruptura de las co-
nexiones establecidas por los componentes de una unidad con significado (v.g. El efecto
einstellung en el problema de las jarras de Luchins). Ahora la unidad que hace falta
disgregar son los procedimientos aprendidos que conducen a una representación
inapropiada. Ello permitirá bloquear la aplicación mecánica y reestructurar el espacio del
problema de modo que se puedan encontrar los procedimientos que resuelven los
problemas críticos.

4. EL SOLUCIONADOR DE PROBLEMAS EXPERTO

Entonces estas tareas minimizan la intervención de la experiencia anterior para resolver el


problema. La información se encontraba disponible y limitada en el propio enunciado del proble-
ma, reduciedo los efectos de la recuperación del conocimiento almacenado. El diseño de estas
tareas analiza e identifica los aspectos generales y básicos de los procesos implicados en la
solución de problemas. Identificados se analizará el conocimiento en la representación del espacio
del problema.

4.1. Características grales del solucionador experto.

El estudio de la naturaleza del “experto” se enfoca desde una perspectiva absoluta o relativista. La
perspectiva absoluta se centra en la identificación, descripción y evaluación de la pericia. Es nece-
sario contar con una definición operativa de experto y con instrumentos de medida que puedan

M.Goretti González 14
cuantificarlo. La perspectiva relativista aborda el estudio del experto en comparación con el nova-
to. La pericia se sitúa en un continuo con distintos grados de conocimientos y años de experiencia
en los que se pueden ubicar los sujetos. Los estudios del solucionador experto han adoptado ésta
bajo el supuesto de que las capacidades y procesos básicos de expertos y novatos son semejantes
y que las diferencias entre ambos se deben a los conocimientos adquiridos en el ejercicio de una
actividad determinada.

1. Los EXPERTOS generan lo mejor de forma más rápida. De Groot 1946 abordó el estudio de
las diferencias en conocimiento y experiencia en el juego de ajedrez. Utilizó protocolos ver-
bales en amplia muestra con distintos niveles de maestría. Ello permitió identificar las dife-
rencias entre jugadores según iban tomando decisiones sobre sus movimientos. Los resul-
tados mostraron que diferencia en el comportamiento de un jugador experto era la rapidez
con la que podía considerar las mejoras jugadas sin necesidad de búsqueda exhaustiva
(captan rápidamente la estructura de las posiciones de las piezas, exploraban los posibles
movimientos, evaluaban las consecuencias de estos movimientos y elegían las mejores ju-
gadas).
Chase y Simon,1973 encontraron que el experto de ajedrez identificaba configuraciones del
tablero asociadas con los mejores atrones de jugadas. Expertos y novatos recordaban
aprox.el mismo nº de piezas y sus posiciones en el tablero cuando estas piezas se situaban
al azar. El rendimiento de los expertos era significativamente superior cuando las piezas se
encontraban en una configuración de posibles jugadas. Organización establecida por
agrupaciones (chunks) de unidades con significado.
2. Detectan y reconocen mejor aspectos de la información que pasan desapercibidos para los
novatos discriminando entre lo relevante y lo que no. Chi, Feltovich y Glaser , 1981 mostró
que estudiantes de cursos avanzados representaban un problema basándose en el ppo
abstracto subyacente y los novatos en elementos superficiales (los bomberos expertos
representan el incendio dinámicamente, considerando condiciones antecedentes al fuego,
al cómo será su evolución más probable, ... los novatos se percatan de características de la
llama, color,...)
3. Analizan durante más tiempo. Gestionan de diferente forma los recursos limitados del
procesamiento. Los expertos dedican más tiempo al análisis del problema (En radiología se
encontró que los expertos empleaban más en fase preliminar al diagnóstico) Esto les
permite resolver el problema de forma más rápida y correcta.

4. Seleccionan las mejores estrategias. Los procesos básicos son similares en ambos grupos
pero los expertos eligen el mejor procedimiento (V.g. Los profesores de física resuelven pro-
blemas trabajando desde el estado inicial hacia la meta, mientras que los estudiantes lo
hacen hacia atrás, comenzando en el estado meta). También se ha encontrado que en diag-
nóstico médico rutinario los profesionales se basan en los datos y los novatos lo hacen
desde la hipótesis. En los expertos la búsqueda heurística está condicionada por
conocimiento estructurado y específico del dominio.

5. Desarrollan sus actividades con menor esfuerzo . Con la práctica se produce automatiza-
ción progresiva del rendimiento, reduciéndose la carga de recursos de procesamiento. De
inicio lento y secuencial, consume recursos, y luego es todo lo contrario y menos
deliberado. (Los jugadores expertos de ajedrez son capaces de jugar no solo una sino varias
partidas a la vez de forma mental). Esto hace que se liberen recursos para otros procesos.

M.Goretti González 15
6. Tienen mejor autocontrol. Muestran auto-control del estado de comprensión y del proceso
de solución (los expertos evaluaban mejor la dificultad de problemas de física y además
estimaban mejor el nº de piezas de ajedrez recordadas y el nº de veces que necesitan ver
una posición en el tablero para poder recordarla).

7. Aprovechan mejor las oportunidades que tienen para incrementar sus fuentes de
información y los recursos disponibles. De Groot 1946 encontró que los jugadores expertos
seguían aprendiendo al descubrir jugadas nuevas evaluando consecuencias de los movi-
mientos hipotéticos de una jugada. La práctica deliberada permite corregir los puntos
débiles e incrementar la pericia.

4.2. Desarrollo de una destreza

Los enfoques más tradicionales sobre el rendimiento experto dicen que se adquiere destreza por la
formación y experiencia. Limitado por sus propias capacidades y habilidades innatas. Entienden
que cualquier persona que se implique activamente en su profesión puede alcanzar el nivel de ex-
perto cuando aumentan los años de experiencia.

El desarrollo de este rendimiento se describe como secuencia de retos con distintos niveles de
dificultad que el sujeto va dominando y superando a lo largo de los años. Estos niveles de
maestría son como situaciones de solución de problemas diferentes que deben resolverse para
conseguir el siguiente nivel. De inicio serán las tareas sencillas las que den resultado, y
aumentando con la experiencia y formación, se darán soluciones a tareas más complejas hasta al-
canzar nivel experto.

Alcanzar una destreza habitual de la vida cotidiana (conducir...) implica paso por tres fases:
– Fase cognitiva: se aprende estructura de la actividad (reglas y procedimientos) recibiéndose
re- troalimentación bastante clara de los errores. Los novatos gradualmente aprenderán a
evitar errores y se aproximarán a sus expectativas en la siguiente fase.
– Fase asociativa: se logra nivel funcional estable y satisfactorio. Con más entrenamiento se
alcanza la última.
– Fase automática: rendimiento estable y óptimo con un mínimo esfuerzo.

Los sujetos consiguen alcanzar este estado automático porque se implican en la comprensión y re-
presentación de la estructura de la actividad a desarrollar para pasar a continuación a las dos fases
siguientes que persiguen la mejora y automatización. Actividades recreativas (juegos o deportes)
presentan una estructura sencilla que permite reconocer patrones y configuraciones fácilmente.

Bajo este supuesto, por la instrucción y los años de experiencia, la perspectiva tradicional
encuentra difícil explicar por qué existen diferencias tan marcadas entre las personas con
capacidades semejantes y con una misma formación y antigüedad, y por qué el nivel de excelencia
tan sólo lo consiguen unos cuantos. Hatano e Inagaki 1986 distinguen entre expertos rutinarios y
expertos adaptativos.
– Experto rutinario: es eficaz destacado en rapidez, exactitud y automaticidad, falta de
flexibilidad y capacidad de adaptación ante situaciones nuevas.
– El experto adaptativo: es capaz de utilizar el conocimiento flexible y creativamente, con una
comprensión más profunda de los ppos y del marco conceptual de su destreza. Muestran pre-

M.Goretti González 16
disposición a seguir aprendiendo desarrollando destreza. Los nuevos problemas son desafíos a
superar.

El adaptativo aspira a alcanzar nivel de excelencia que supere la fase de automatización, desarrolla
destreza que le permita apoyar un aprendizaje continuado. Por tanto, requiere experiencia como
práctica deliberada para poder contrarrestar la fase de automatizacióon y así adquirir control y ha-
bilidad en la monitorización del propio rendimiento. Reestructuran, reorganizan y refinan su repre-
sentación de conocimientos y procedimientos. Los expertos no saben más que los novatos, sólo lo
saben de forma diferente.

4.3. Inteligencia y creatividad

Un problema existe si tenemos una meta y no sabemos alcanzarla. El proceso de solución es


proceso de búsqueda a través del espacio del problema qe está constituido por el estado inicial,, el
estado meta y los operadores que permiten avanzar entre los estados intermedios y una serie de li-
mitaciones impuestas sobre los posibles trayectos hacia la solución. La solución inteligente de
problemas sería el elegir el heurístico apropiado en un espacio del problema bien estructurado.

Es común suponer que inteligencia y creatividad se encuentren relacionadas con la solución de


problemas. Desde el enfoque del PI, Wenke y Frensch 2003 entienden que la inteligencia es una
habilidad intelectual constituida por facultades y procesos cognitivos básicos que son comunes a
todos. Son estables e influyen sobre el rendimiento en una amplia variedad de tareas.

Para explicar este funcionamiento inteligente Sternberg, 1985 propone la Tª Triárquica de la


Inteligencia constituida por las teorías componencial, contextual y de la experiencia. Una persona
no es inteligente por sobresalir en todos los aspectos. La persona inteligente es la que conoce sus
puntos fuertes y débiles para saber capitalizar su fortaleza y compensar o corregir su debilidad.

La teoría componencial distingue:


1. los metacomponentes: procesos ejecutivos de orden superior utilizados en planificación,
control y evaluación de los procesos implicados,
2. los componenetes de actuación y evaluación empleados en la ejecución, y
3. los componentes de adquisición, retención y transferencia para aprender nueva inform.
1. METACOMPONENTES - reconocer y definir un problema, seleccionar
(los más importantes) componentes de orden inferior; seleccionar una o más
TEORÍA representaciones mentales, seleccionar estrategia para
COMPONEN- combinar comp. inferiores, asignación de recursos, control
CIAL de los procesos de solución y evaluación de la solución

2. COMPONENTES DE > identificación de atributos, comparación y componenen-


ACTUACIÓN Y RENDIMIENTO. tes de control (codificación, inferencia, extrapolación,
justificación, aplicación, respuesta,...
3. COMPONENTES DE ADQUISICIÓN,
RETENCIÓN Y TRANSFERENCIA - Codificación , combinación y comparación selectiva
TEORÍA - Adaptación
CONTEXTUAL - Selección
- Modelado
TEORÍA DE LA > Enfrentamiento a situaciones novedosas
EXPERIENCIA > Automatización

M.Goretti González 17
Los metacomponentes contribuyen en la explicación de las diferencias individuales en inteligencia
y creatividad. Sternberg identifica siete expuestos en la tabla anterior. Los implicados en la
identificación, definición y representación son especialmente críticos para analizar las DDII en inte-
ligencia y creatividad en los problemas abiertos o mal definidos. Los aspectos tradicionalmente
asociados con el pensamiento divergente o creativo se podrían vincular con estas primeras etapas
del proceso de solución y los aspectos del pensamiento convergente o analítico con las etapas
posteriores.

El proceso creativo conduce a resultado divergente, novedoso y adaptativo, comprende


habilidades intelectuales, conocimiento, estilos cognitivos, rasgos de personalidad y motivación.
Por tanto el pensamiento divergente y flexible permite identificar y definir problemas de diferentes
formas y desde perspectivas alternativas no convencionales, además de reorganizar la información
con el fin de obtener representaciones novedosas. Aumenta la probabilidad de de encontrar patro-
nes nuevos de información o detectar sutilezas o anomalías ocultas en la información considerada
por otros como irrelevantes. La tolerancia a la ambigüedad, disposición gral hacia la identificación
de problemas, actitud abierta hacia nuevas experiencias, actitud crítica hacia normas establecidad,
alto nivel de auto-confianza y alta motivación intrínseca, son otras VV que influyen en el proceso
de solución creativa. (¡Me encanta este párrafo!)

5. LA SOLUCIÓN DE PROBLEMAS POR ANALÓGIA

El razonamiento analógico se considera un procedimiento cognitivo que se aplica a dominios de


conocimientos desconocidos (poco familiares) basándose en situaciones previas conocidas. Por
ejemplo, el sist.hidraúlico del sist.circulación de la sangre, modelo planetario y la estructura
atómica o teorías científicas basadas en analogías que permiten mejor comprensión de un
determinado fenómeno e incluso el avance de la propia ciencia.

El concepto crítico en el proceso de solución de problemas por analogía es la transformación de


correspondencias de una estructura relacional entre un dominio familiar y uno nuevo. Estos
deben compartir una estructura similar, aunque en otros aspectos sean diferentes. El paradigma
básico consiste en el diseño de dos sesiones experimentales consecutivas con el fin de que se pro-
duzca la conexión entre el problema análogo previo y el problema meta. En primera sesión se
presenta el probl.análogo e historietas irrelevantes. Se lee la historieta donde está el problema y su
solución, y luego contestan a una serie de preguntas.

Problema de la FORTALEZA
En un pequeño país gobernaba un dictador desde su fortaleza. Estaba situada en el centro y se encontraba
rodeada de granjas y poblados. Un general rebelde ha jurado tomar la fortaleza para derrocar al dictador.
Sabía que con un ataque conjunto con los soldados lo podía conseguir. Quería hacer un ataque directo, pero
se enteró que el dictador había puesto minas en cada uno de los caminos. Estaban colocadas de modo que
podían pasar sobre ellas pequeños grupos de hombres sin peligro, puesto que el dictador necesitaba que sus
tropas y trabajadores entraran y salieran de la fortaleza. Cualquier grupo numeroso podría hacer estallar las
minas y cortaría el camino y destruiría vidas y poblados cercanos. Al general se le ocurrió un plan sencillo,
dividió al ejercito en pequeños grupos y los mandó por caminos diferentes. Cuando estuvieron preparados,
dió señal por el wasap y cada grupo avanzó por una ruta distinta. El ejercito completo llegó a la fortaleza a la
vez, el general tomo la fortaleza y derrotó al dictador.

Transcurrido un tiempo (minutos o semana) pasa la segunda sesión en la que los sujetos deben

M.Goretti González 18
resolver el problema de la Radiación de Duncker, 1945. El grupo control pasa por esta sesión.

PROBLEMA DE LA RADIACIÓN DE DUNCKER.


Supongamos que soy médico y tengo un paciente con un tumor maligno en el estómago que es inoperable.
Pero si no se destruye, el paciente morirá. Existe un rayo que puede utilizarse, pero si llega al tumor con alta
intensidad, el tumor se destruiráa. Desafortunadamente, con intensidad alta los rayos destruirán tejidos
sanos. Con intensidad baja, el rayo es inofensivo, tanto para el tejido sano como para el tumor. ¿qué tipo de
procedimiento podría seguirse para destruir el tumor con este rayo y evitar al mismo tiempo la destrucción de
los tejidos sanos?

Los resultados como en los de Duncker, encontraron que el problema de la radiación resultaba di-
fícil de resolver: 10% del grupo control, encontraron solución. 30% del grupo experimental lo logra-
ron mostrando haber establecido la analogía. Sin embargo es un incremento muy pequeño. Si a
los que no lo habían resuelto se les daba pistas, el 75% de estos, lo resolvían, por tanto, la pista
forzó el proceso de solución. Se puede entender a este razonamiento analógico como complejo,
aunque se entienda como procedimiento de búsqueda heurística, pero entre dos representaciones

Los procesos básicos del razonamiento analógico:


– acceso y recuperación de la memoria a largo plazo de repres.problema análogo.
– Extrapolación de las correspondencias entre el análogo y el problema “meta”.
– Transferencia y aplicación de estas correspondencias para obtener la solución. Pueden darse
otros procesos: reestructuración, generación de reglas y la inducción de nuevos esquemas.

La Teoría de los Esquemas de Razonamiento Pragmático añade que el raz.analógico se encuentra


determinado por las metas del sujeto y que los dos dominios de conocimiento deben estar repre-
sentados en un nivel óptimo de abstracción. La representación buscará maximizar el grado de co-
rrespondencias entre ambos dominios, y así se evitarán nivel concreto y detallado con relaciones
irrelevantes y nivel abstracto con omisiones de correspondencias importantes. Consta:
– estado inicial con subcomponentes (meta, recursos, operadores, restricciones) y
– plan de solución y resultados.

Los dominios distintos (militar y médico) comparten una estructura y solución semejantes. Consta
de relaciones verticales o cadenas causales, y de correspondencias horizontales. Los componentes
del estado inicial se relacionan causalmente con el plan de solución donde la meta se convierte en
resultado, los recursos lo posibilitan y las limitaciones impiden la aplicación de otros planes
alternativos.

La dificultad para resolver este problema podría ser el acceso y recuperación del problema
análogo. El mayor obstáculo para establecer la analogía puede ser por los dominios distintos. Esta
disparidad entre ambos (militar, médico) explicaría que los sujetos no estuvieran predispuestos a
buscar solución para un problema médico en aquello que conocen sobre estrategias militares. La
mayoría recurría a analogías médicas y pocos a la militar. La complejidad y el desafío de la investi-
gación es el explicar cómo se tiene acceso a ese conocimiento almacenado tan distinto al
problema a resolver.

Los problemas de transferencia y aplicación pueden encontrar dificultad en la adaptación del co-
nocimiento del problema anterior al problema nuevo. En la Transferencia se ponen en correspon-
dencia ambos espacios del problema dando lugar a distintas extrapolaciones (las minas y el poder
destructivo de un rayo de alta intensidad resulta menos obvia). En la adaptación pueden surgir

M.Goretti González 19
problemas con ligeras modificaciones (se tiene que inferir la reducción de la intensidad del rayo
por su correspondencia con la división de tropas). Se asume que se debe dar comprensión a la re-
presentación almacenada para que se pueda transferir y adaptarse para resolver el problema
meta.

Meta -> capturar la fortaleza -> destruir tumor.


Recursos -> tropas de gran número -> rayos de gran intensidad.
Operadores -> dividir, mover y atacar con las tropas -> reducir intensidad de rayos, mover la
fuente, administrarlos.
Restricciones -> gran número de soldados no puede ir por un solo camino -> no se pueden
aplicar rayos de alta intensidad.
PLAN DE SOLUCIÓN -> enviar simultáneamente varios grupos desde distintos lugares -> administrar
rayos a la vez de baja intensidad desde varios puntos.
Resultado -> soldados capturan al dictador -> los rayos destruyen el tumor.

En un esquema convergente
Meta -> utilizar fuerza para legar a objetivo.
Recursos -> fuerza suficientemente grande
Operadores -> reducir intensidad de la fuerza, mover fuente de la fuerza, aplicar fuerza
Restricciones -> no se puede aplicar con seguridad la fuerza por una sola vía.
PLAN DE SOLUCIÓN : aplicar fuerza de baja intensidad en varias vías y de forma simultánea.
Resultado: objetivo alcanzado por aplicación de la fuerza.

5.1 El proceso de Transferencia Analógica

La solución de problemas por analogía da lugar a transferencia positiva y negativa. Problemas simi-
lares aparentemente, pueden resolverse de formas diferentes y otros distintos de la misma forma.
Una de las disposiciones más aceptadas es la diferenciación entre semejanza superficial y
estructural (Gentner,1983) :

– La estructural hace referencia a aspectos comunes y relevantes para problemas análogo y


meta.
– La semejanza superficial, comprende los aspectos comunes pero irrelevantes y que se
encuentran en los argumentos, redacción, guión y contexto de los problemas.

Por transferencia positiva se entiende el acceso, la recuperación y extrapolación de corresponden-


cias basado en semejanza estructural. La transferencia negativa se entiende cuando se han recu-
perado y extrapolado aspectos basados en la semejanza superficial irrelevantes para la solución.
No obstante, la semejanza superficial puede facilitar el acceso puede facilitar el acceso y
recuperación espontánea y contribuir a la transferencia a la positiva. Algunos estudiios indican que
ambas semejanzas intervienen en la recuperación pero la estructural determina el proceso de
transferencia y la aplicación de las relaciones análogas relevantes. Otras investigaciones
manifiestan interacción entre semejanza y experiencia de los sujetos. Los expertos utilizan
estructuras abstractas accediendo a los análogos más fácilmente. Aún así generalmente, parece
que nos apoyamos en la superficial saliente y prominente para acceder y recuperar información, y
luego nos guiamos de semejanzas estructurales para transferir y aplicar al problema meta. fin!

M.Goretti González 20
PSICOLOGÍA DEL PENSAMIENTO GRADO 2012 - 2013

TEMA 9 – PENSAMIENTO EN CONTEXTO

INTRODUCCIÓN

El pensamiento en contexto se presenta en dos líneas de trabajo: una que estudia el pensamiento
cotidiano, siendo informal y como argumentación. Y otra que estudia el pensamiento en la
práctica, investiga procesos inferenciales, de cálculo y de resolución de problemas en entornos
cotidianos condicionados por la cultura. Algunos autores consideraban que la psicología había des-
cuidado el estudio de este tipo de pensamiento.

Limon 2005 explica que no existe unidad conceptual y metodológica dentro de este campo de
estudio, y sí una gran variedad de conceptos que se usan para aludir al pensamiento informal
(cotidiano, no formal o práctico) y los diferentes fenómenos que se incluyen dentro de éstos:
argumentación, solución de problemas poco estructurados o la toma de decisiones en
incertidumbre,entre otros. Respecto a la metodología se aprecia gran amplitud de procedimientos
fuera de la experimentación en laboratorio.

A diferencias de los tipos de razonamiento estudiados en capítulos anteriores, el pensamiento que


se desarrolla en situaciones cotidianas no suele tener una forma lógica clara. Normalmente,
ponemos en primer plano los aspectos prácticos, retóricos, argumentativos e informales y no tanto
los lógico-formales.

Dentro del primer grupo de trabajos, tenemos el razonamiento informal : es el cotidiano de la vida
diaria que no sigue las formas estandarizadas de la lógica deductiva. El pensamiento cotidiano es
la construcción de modelos situacionales que permiten representar y comprender los problemas
de la vida, donde se dan además sesgos y argumentaciones. La argumentación es la actividad cog-
nitiva y discursiva que se realiza cuando se da un diálogo entre dos o más personas dándose opi-
niones, se rebaten, ponderan, se justifican, se piden pruebas, se las juzga a éstas,...

El pensamiento en la práctica hace referencia a todos aquellos que se ponen en marcha en


contextos de práctica cotidiana como los laborales, de intercambio comercial,... Son estudios reali-
zados desde la perspectiva socio-histórico cultural que junto con la psico cognitiva parecen los en-
foques predominantes de la actualidad. La teoría socio-hitórico cultural, inspirada en Vygotsky
entiende que el pensamiento es una actividad cognitiva realizada con y a través de las herramien-
tas culturales entre las cuales destacan el lenguaje, sistemas de reglas, la lógica, la matemática,...

El razonamiento informal está presente en escenarios como los electorales: ¿qué programa
político me parece más convincente? Las propuestas de los candidatos ¿ofrecen razones y
evidencias que las sostengan? En otras situaciones son las que se dan en los juicios cuando los ju-
rados tienen que organizar y sopesar pruebas, testimonios,... y luego tomar una decisión. También
se generan y evalúan argumentos: un político defiende su programa frente a otro, ¿es capaz de
generar aseveraciones claras? ¿Puede incorporar las críticas del adversario a sus propios argumen-
tos y así enriquecerlos? En estos ejemplos el pensamiento supone contemplar las razones de otros,
contraponer y clarificar el propio punto de vista, sacar conclusiones y tomar decisiones. Hay otras
situaciones cotidianas donde el pensar se realiza en los contextos en los que se ejecutan tareas

M.Goretti González 1
prácticas como calcular precios de venta, organizar mercancías para su venta,... en este caso el
pensamiento se fundamenta alrededor de herramientas culturales (sistemas de enumeración,
procedimientos para calcular,...)

Ambas líneas se han reunido en este texto por las razones siguientes:
– Motivo que se vincula con el carácter no-formal del pensamiento informal y las consecuencias
de este cuando se define la racionalidad humana y el valor de los modelos normativos como
modos de evaluación de esa racionalidad. Es un pensamiento que se desarrolla en situaciones
abiertas poco estructuradas (Sternberg,2011) Pero ¿qué tipo de pensamiento es el informal? Si
no se amolda a los cánones de la lógica, entonces ¿se trata de un pensamiento irracional?
Subsiste la idea clásica adoptada en la psico del pensamiento tradicional por la cual se entiende
a la lógica de- ductiva como modelo ideal y normativo del pensamiento. Este enfoque ha
buscado la correspondencia (o falta de ella) entre los modos de pensamieto de las personas y
el modelo lógico deductivo.
Los estudios sobre el pensamiento en contexto muestran una aproximación descriptiva en su
estudio pues se centran en investigar cómo las personas razonan, argumentan y resuelven
problemas en situaciones poco estructuradas. Estas posiciones revivan la polémica sobre la ra-
cionalidad humana y el lugar de los modelos normativos lógicos como modelo de racionalidad.
No significa que los estudios en este pensamiento no se inspiren en modelos ideales o no re-
flexionen sobre el papel de estos.

– En los estudios que asumen una perspectiva retórica, informal y argumentativa, el modelo
ideal de discusión racional lo constituye la imagen de la balanza (metáfora del filósofo Leibniz –
s.XVII ) la cual indica que una creencia racional es aquella que obtenemos sopesando las creen-
cias en los “platillos de la razón”, lo que se traduciría en dar razones a favor y en contra de las
aseveraciones, evidencias, justificaciones,... sin atender a factores extra-lógicos (preferencias,
prejuicios, presiones del entorno) Esta imagen ideal contrasta con los resultados encontrados
por la investigación psicológica. Este desajuste entre modelo ideal y los resultados no suelen in-
terpretarse como déficit en el desempeño de los sujetos pues el interés está puesto en
describir cómo pensamos.
En la tradición socio-cultural la reflexión sobre el papel de los modelos normativos y la raciona-
lidad se plantea de otro modo: se adopta una perspectiva temporal o histórica (tb
historiogenética) en el estudio de los procesos cognitivos. Este estudio debe incluir el cómo se
ha originado dentro de un contexto socio-cultural específico, mediante qué prácticas y qué he-
rramientas, cómo ha ido evolucionando a lo largo de la historia,... Este tipo de estudios ha sido
desarrollado por Netz,1999 el cual mostró que los procedimientos deductivos surgieron en el
siglo V a.C. como producto de las prácticas cognitivas y simbólicas realizadas por los matemáti-
cos griegos. Situar el origen social y cultural de la deducción permite a los psicológos socio-cul-
turales (Gabucio,2002) entenderla como un modo de pensamiento específico, contextualizado
histórica y situacionalmente. Lo que a la vez, llevaría a proponer que no puede considerarse
como un proceso natural, universal y a-histórico. Por tanto la deducción no podría ser el mode-
lo ideal sobre el cual contrastar todas las formas de razonamiento, sino más bien es un modo
específico y concreto de razonamiento que toma sentido en el contexto de ciertas prácticas in-
telectuales .

– El tercer motivo es de índole metodológico. La investigación experimental realizada en el labo-


ratorio psicológico (tareas descontextualizadas y artificiales) no resulta suficiente para el estu-

M.Goretti González 2
dio de este campo. Se ha tenido que utilizar técnicas y metodologías capaz de estudiar
situaciones que sean lo más cercanas y parecidas a las que las personas realizan cotidianamen-
te con estructuras, materiales, instrucciones e interacciones similares (validez ecológica).

1. RAZONAMIENTO INFORMAL, PENSAMIENTO COTIDIANO Y ARGUMENTACIÓN.


1.1. El razonamiento informal

El adjetivo informal llama la atención sobre los aspectos no formales (¡no me digas!, je,je,je) que se
presentan en el razonamiento. Wason y Johnson-Laird habían descrito sobre ello y el efecto del
contenido en tareas de razonamiento condicional señalando los aspectos extra-lógicos y su influen-
cia. Los estudios sobre este razonamiento sostienen que es limitado entender el razonamiento en
función de su mayor o menor adecuación a los modelos normativos, pues ello no considera la gran
diversidad del pensamiento humano. Este razonamiento informal intenta superar las limitaciones
de la lógica formal apostando por factores lingüísticos, contextuales, pragmáticos e incluso episté-
micos para llegar a una inferencia, argumentación o toma de decisión. Así es por lo que éste
adopta formas retóricas especiales donde se justifican y exponen razones a favor y/o en contra de
alguna conclusión o se delibera sobre algún tema controvertido.

Voss, Perkins y Segal 1991, definen al pensamiento informal en función de los tipos de situación
en los que ocurre y según sus características. Puede darse en situaciones cotidianas, cuando se ha
de elegir a quién votar, cuando se sopesa dónde ir de vacaciones,... También está presente en el
diagnóstico médico, argumentos legales, ralaciones internacionales. Según sus características
incluye procesos de justificación de creencias, de explicación de observaciones y de deliberación,
incorporando argumentos a los mismos.
Diferenciación entre argumentos o razonamiento informal y deductivos:

1º Raíces filosóficas. El razonamiento informal tiene su origen en la retórica de Aristóteles, en cam-


bio el formal e la lógica aristotélica (lógica deductiva).

2º Forma de razonamiento. Uno deductivo consta de dos premisas y una conclusión, definida su
relación por reglas formales que garantizan su validez. Pueden incluso tomar una forma simbólica,
vacía de contenido o información sobre el mundo.
En los informales se agrega o quita premisas, acompañadas del cumplimiento de algunos requisi-
tos de solidez y consistencia que den soporte y coherencia a la conclusión obtenida. Esta solidez y
consistencia se sigue de:
a) evaluar si las razones son aceptables o verdaderas,
b) evaluar en qué medida las razones apoyan a la conclusión,
c) analizar en qué medida se han tenido en cuenta argumentos contrarios a la conclusión.
Por tanto el contenido de este razonamiento es indisocialble de la forma y del contexto de inter-
cambio, diálogo y/o discusión en que ocurre.

3º Puntos de vista sobre un asunto. En el informal, se pueden tener varios puntos de vista siendo
incluso entre ellos incompatibles, pero todos plausibles según las evidencias y razones que lo apo-
yen. No se trata de razonamiento lineal (de premisas --> a conclusión) sino más bien de esquema
ramificado donde se incorporan nuevos argumentos.
Contrasta con el razonamiento deductivo donde una sola perspectiva se presenta de antemano en

M.Goretti González 3
las premisas. Por eso se dan limitaciones en su forma lógica, lo que hace que se resuelvan lineal-
mente.
Tabla 9.1 Diferencias entre razonamiento informal y razonamiento deductivo.
Razonamiento informal Razonamiento deductivo
Retórica Lógica
Forma del razonamiento: agregar o sustraer premisas Premisas dadas
según el conocimiento del razonador.
El argumento siempre tiene un contenido. “Vacío” de contenido o contenido formal, abstracto y
Importancia del contenido sobre el que se razona. artificial.
Requisitos de solidez y consistencia argumental. La forma del razonamiento deductivo garantiza su
validez.
Considera múltiples perspectivas sobre un mismo tema Sostiene un único punto de vista.
Es habitual encontrar numerosos argumentos para pers- Un argumento fuerte y válido hace que se desestimen,
pectivas contradictorias sobre un caso sin que esto im- no se quieran o busquen otros porque solo en el caso de
plique conclusiones inconsistentes. falacias se obtienen argumentos contradictorios.
La información es incompleta, se puede completar con La información está presente en las premisas
información del sujeto o de otras fuentes.
El contexto influye en cómo se argumenta. No influye el contexto
En el razonamiento informal la estructura suele ser El desarrollo del razonamiento deductivo se hace a
ramificada, donde cada rama tiene muchos pequeños través de pasos, como en prueba matemática
pasos.

1.2. El pensamiento cotidiano como modelado de escenarios y argumentación.


1.2.1. La construcción de modelos situacionales y
la aparición de sesgos en el pensamiento cotidiano.

Perkins y cols. han estudiado cómo razonamos cotidianamente, qué sesgos aparecen al razonar, la
relación con la inteligencia general y los modos de mejorar los aspectos disposicionales y habilida-
des de pensamiento cotidiano. Para este autor, el pensamiento cotidiano elabora modelos de
situación (modelos situacionales). Estas situaciones pueden ser reales o hipotéticas, pero casi
siempre se presentan abiertas, múltiples y dilemáticas. Tenemos el ejemplo del “Problema de
Perkins”:
Preguntaban si el aumento de presupuesto en la educación pública llevaría a una mejora en
el servicio. Frente a este asunto, las personas elaboraban modelos situacionales imaginan-
do uno o más escenarios empleando su conocimiento causal, intencional y de sentido
común. Las evaluaban y tomaban una o varias posiciones frente a ella.

Los escenarios construidos aparecen vinculados a argumentos, estos basados en razones y eviden-
cias, orientados a apoyar el modelo construido, favoreciendo el modelo del razonador o siendo
contrario a éstos, aportando puntos de vista diferentes. Los contra-argumentos pueden provenir
del interlocutor y del propio razonador (entra particularmente en un proceso de deliberación o
evaluación de arg.contrapuestos).

Un buen razonador podría elaborar un mapa más o menos complejo sobre el asunto sopesando
razones a favor y en contra. En el ejemplo: pueden darse razones que apoyan la idea de que más

M.Goretti González 4
dinero ayuda a mejorar la educación pública y razones que creen que ese efecto no se producirá o
que la educación se puede mejorar a través de otros programas. Es evidente que los escenarios
construidos podrían estar sesgados por el punto de vista del sujeto o incompletos si el razonador
carece de conocimientos sobre el asunto.

Para comprender los errores y sesgos Perkins aplicó un procedimiento en tres fases:
1ª Se les pedía a los sujetos que dieran su opinión espontánea sobre un tema (Si aumentar
el presupuesto de la educación pública mejoraría su calidad) Debían emitir el grado de
confianza que tenían en su opinión y grado de interés en el asunto.
2ª Recogidas las opiniones , se les instruía a poder completarlas y escribirlas.
3ª Los investigadores tenían el objetivo de apoyar explícitamente la producción de
argumentos. Daban orientaciones metacognitivas como señalar la necesidad de completar
opiniones parciales, dar razones a favor y en contra, y de hacer una evaluación imparcial de
argumentos propios y ajenos. Se completó con pruebas de inteligencia verbal para ver si
correlacionaban con el pensamiento cotidiano.

Los datos se analizaron de diferentes formas:


– Contar los argumentos producidos a favor del escenario propio (de mi lado) y argumentos del
otro lado.
– Se evaluó la calidad de cada argumento en dos dimensiones:
- a) justificación que se ofrecía para el argumento a favor.
- b) forma en que se trataba el argumento en contra (escala de 0 -pobre- a 4 – com-
pleto).

Los resultados indicaron el cómo se lleva a cabo el pensamiento cotidiano, y los sesgos que apare-
cen. Construimos casi siempre escenarios incompletos y sesgados, caracterizados sobre todo por
el sesgo del punto de vista propio, constituyéndose más como la norma que como la excepción.
Se encontró además que los participantes tenían grandes dificultades para producir argumentos
complejos y equilibrados en contextos cotidianos.

Estos sesgos pueden diferenciarse de los que ocurren en el pensamiento formal pues un escenario
construido desde un solo punto de vista estará sesgado siempre, ya que las perspectivas diferentes
resultan relevantes y necesarias para moldear adecuadamente la situación. En cambio es
irrelevante e innecesario en el razonamiento formal: las premisas contienen toda la información
necesaria para obtener la conclusión. Un argumento bien construido lógicamente con un punto de
vista constituye una demostración desde el punto de vista formal. Perkins asegura que los sesgos y
la construcción de escenarios incompletos o fragmentarios en los razonamientos cotidianos son
debilidades (no debilidades formales).

Una de las hipótesis de Perkins y su grupo, es que la dificultad para producir escenarios completos
y argumentalmente equilibrados, podría relacionarse con la motivación (escaso interés de alguno
de los temas: índole social, económico, político,...) Sin embargo, los participantes se habían
considerado medianamente interesados. Cuando se analizó la relación etre interés y desempeño
se observó que no existía correlación significativa entre una y otra variable. Otros resultados
indican que si las personas muestran un interés previo al tema, considerado este controvertido,
desarrollan un modelo situacional más elaborado. La influencia de la motivación sobre la calidad
de los razonamientos cotidianos sigue estando abierto a estudio y debate.

M.Goretti González 5
Otra hipótesis es la que señala la posible relación entre inteligencia y razonamiento cotidiano.
Perkins obtiene un resultado interesante para derivarla a la educación, clínica,... Se muestra que
aquellos sujetos que puntúan más alto en inteligencia producen más cantidad de argumentos “de
su lado” y más completos. Sin embargo no se obtienen correlaciones entre inteligencia y
producción de argumentos “del otro lado”. Por tanto, esto evidencia que los recursos cognitivos los
empleamos en buscar más argumentos que apoyen nuestras ideas que el querer explorarlas
profunda y equitativamente. Digo yo que seguiremos creyendo en la diversidad...porque mira que algunas nos
comemos el coco explorando y profundizando, je,je,je

Perkins y su equipo desarrolla una investigación vinculada a la enseñanza del pensamiento, en el


marco del Proyecto Zero de la Universidad de Harvard. Se profundiza sobre el pensamiento coti-
diano y se propone un marco teórico: el modelo triádico.

1.2.2. La enseñanza del pensamiento: aspectos metacognitivos y disposicionales

En algunos de los trabajos de Perkins y cols. se propone reforzar las habilidades metacognitivas
(reflexión sobre el propio pensar) y los aspectos disposicionales mas generales (hábitos de pensa-
miento y disposición del sujeto a deliberar y reflexionar cuando cree que la situación lo estima).
Perkins 1991 desarrolló un estudio donde se daban indicaciones precisas a los participantes para
que generaran varias razones posibles y que atendieran a diversas perspectivas.

– Los resultados indicaron un aumento de las razones “del otro lado” con un cremiento del 150%,
por lo que se considera que si se reciben orientaciones adecuadas, se es capaz de atender a los
di- versos matices de los problemas y de modelar las situaciones de un modo más completo. En
cam- bio cuando se estudió comparativamente programas para la enseñanza del pensamiento
los resultados no fueron evidentes.
– El autor seleccionó varias modalidades de enseñanza (debates en clases de instituto, programa
para desarrollar habilidades grales de pensamiento en clase de Arte, curso en Escuela de
Educación donde se daba razonamiento exploratorio y curso de Escuela de Leyes) y a todos se
les orientaba para que atendieran a la multiplicidad de perspectivas. Solo los dos primeros
mostraron mejoras en el razonamiento cotidiano.

La clave para el éxito parece estar en que los programas promuevan habilidades metacognitivas
específicas para razonar. Un estudio pedía a los participantes que dieran todas las razones que se
les ocurriera a favor y/o en contra de un determinado problema, luego añadían comentándoles
que tenían que pensar razonees para sostener la conclusión contraria aún sin estar de acuerdo.
Como respuesta a este andamiaje metacognitivo, aumentó en un 700% los argumentos “del otro
lado” y un 109% los de “mi lado”, inhibiendo la aparición de sesgos y de argumentos incompletos.

En otro estudio se comprobó que estas habilidades podían incorporarse de modo efectivo en las
estrategias estables de los sujetos a través de “formación”. Una vez pasado por esa experiencia
formativa podían recurrir a estrategias metacognitivas sin la guía externa del experto.

La mejora de las estrategias metacognitivas ayuda a lograr un cambio de perspectiva centrado en


cómo elaborar modelos adecuados y completos. Esto modifica la propia manera de pensar, aban-
donando la idea del “tiene sentido para mí” pasando a sostener una epistemología crítica. La e-
pistemología del “tiene sentido para mí” es una idea ingenua, entendida unilateralmente, simple y
conforme con las propias creencias. Este individuo abunda en razones que refuerzan sus ideas

M.Goretti González 6
previas y construye un modelo con el cual sintoniza. Los problemas pensados desde una
epistemología crítica se entienden como dilemáticos (múltiples perspectivas relativas,
provisionales y no absolutas). El razonador contrasta su conocimiento recurriendo a diversas fuen-
tes y experiencias cuando busca activamente las inconsistencias de su punto de vista. A la vez se
acompaña de afectos positivos hacia la objetividad y el “libre juego” de razones.

En trabajos más recientes, Perkins, ha relacionado el “pensar bien” con los aspectos disposiciona-
les del pensamiento. Propone un enfoque triádico formado por:

– Capacidad general de desarrollar pensamiento: facultad para pensar eficazmente sobre un


tema de ofrma sostenida dando explicaciones alternativas a explicaciones causales propuestas
– Agudeza intelectual: (disposición) correcta percepción de las ocasiones que requieren
pensamiento no siendo ignoradas.
– Inclinación: disposición que muestra una persona invirtiendo esfuerzos en meditar diferentes
temas, lo que se relaciona con la curiosidad, importancia del tema, hábitos, perseverancia,...
explicando esto las diferencias individuales.

Los tres elementos de la tríada se articulan en el proceso de pensamiento pero pueden ser distin-
guidos analítica y empíricamente. La distinción entre agudeza intelectual e inclinación permite
comprender situaciones en las que un pensador percibe que una situación requiere pensamiento
creativo y sin embargo, renuncia a hacerlo.

Según Ritchhart 2002, los maestros que crean disposiciones en sus estudiantes son aquellos que
utilizan la cultura de la clase para favorecer el pensamiento. Éste es un hábito que se pone en prác-
tica en múltiples ocasiones. Identificó algunos elementos de estas prácticas:
– oportunidades que daban a estudiantes para elegir y autoevaluar su pensamiento,
– aliento a la autonomía,
– independencia intelectual y tiempo para pensar.

El cultivo de la inclinación al pensamiento se hacía de varias formas: explícitas e implícitas,


modelado del profesor al mostrarse él mismo entusiasmado con alguna reflexión.

Los docentes también atendían al desarrollo de la capacidad de pensar, instaurando rutinas de


pensamiento:
– tormentas de ideas – a nivel grupal o individual- que favorece apertura y flexibilidad mental.
– Pregunta habitual acerca de “¿por qué?” para promover la explicación del propio pensamien-
to.
– Adoptar una posición para que asumieran regularmente diferentes posiciones.

1.3. Los procesos de la argumentación.

Kuhn critica a la psicología del pensamiento clásica que estudia los aspectos lógicos del razona-
miento descuidando componentes retóricos y argumentativos. Señala que muchas investigaciones
se centran en conocer qué piensan los sujetos sobre problemas sociales o económicos (v.g. Paro)
descuidando el cómo se desarrolla esa actividad de pensamiento. Ella investiga cómo realizamos el
proceso de argumentación, cómo se contempla el punto de vista propio y ajeno,... y como estas

M.Goretti González 7
habilidades se relacionan con la metacognición y creencias epistemológicas.

La autora afirma que la argumentación forma parte de un proceso discursivo basado en el diálogo.
Persigue dos objetivos:
a) detectar los argumentos dados por un oponente y usarlos a favor de la propia
argumentación, y
b) determinar la posición del oponente para descubrir vacíos o errores que puedan ser
aprovechados para contra-argumentar.

Como Perkins, 2001 considera que a los razonadores jóvenes les resulta muy difícil prestar aten-
ción a los argumentos opuestos. Se centran en los que refuerzan y apoyan la propia posición, por
tanto, los argumentadores noveles descuidan el otro aspecto de la argumentación: prestar aten-
ción a las razones del oponente y utilizar estrategias para influir en ellas.

1.3.1. Habilidades de argumentación


Kuhn y otros indagan en los argumentos espontáneos que dan adolescentes y adultos sobre la
pena de muerte y los cambios que se registran en el grupo, posteriormente a la condición experi-
mental. En este estudio:
– Se formaron 2 grupos experimentales (adolescentes y adultos) y dos de control. Dentro de cada
uno se trabajaba en parejas.
– Participaron en una serie de 5 discusiones semanales en las que debían compartir y debatir sus
argumentos a favor y en contra. El objetivo era llegar a consenso.
– El grupo control no participaba en esas discusiones semanales.
– Se realizó pre- test en los que completaban una escala de 13 ítems valorando diferentes opinio-
nes sobre el tema. El punto medio indicaba indesición al respecto. Una vez valorados los ítems,
los sujetos argumentaban por escrito su elección.
– En el post -test , 6 semanas después, los grupos completaron la misma tarea valorando si el
participar en el estudio había favorecido un cambio de perspectiva.
– Los argumentos del pre- test se clasificaban según razones funcionales (las que aludían a utili-
dad o conveniencia de pena de muerte – complejas) o no funcionales (otros aspectos
aludidos). Otro grupo era el que mencionaba a emociones (afirmaciones sin justificar que alu-
dían a aspectos morales). Otra dimensión era la estructuración de los argumentos (listas o es-
tructura integrada) y, otros en donde se acompañaban los argumentos de datos o evidencias.
– Luego se analizaron aspectos metacognitivos referidos a la propia argumentación o referidos a
otras personas (yo conozco a otras personas que darían otra opinión, pero ésta es la mía).

– Resultados:
> Cambios cualitativos observados en los argumentos del pre – test y del post – test.
- de opinión formada a no formada.
- de no argumentar a hacerlo.
- de argumentos no funcionales y no justificados a argumentos funcionales.
- de los de “un solo lado” a de “ambos”.
- presentación de evidencias, y
- la introducción de aspectos metacognitivos.
Se crearon 4 categorías: 1º todos los cambios en una dirección progresiva (arg.funcionales,
justificaciones, razones y/o aspectos cognitivos), 2º todos los cambios regresivos (no se
introdujeron mejoras), 3º cambios tanto progres como regresivos, 4º no hubo cambios.

M.Goretti González 8
> Cambios cuantitativos entre el pre- test y el post-test.
Incremento o disminución de la cantidad de arg dados en el pretest y el post- test. Los grupos
experimentales mostraron más cantidad de cambios. Los producidos eran: de neutrales a
moderados y de polarizados a moderados. En gral, los sujetos creían haber cambiado mucho
más de lo que realmente lo habían hecho.

> Cambios en las habilidades de argumentación.


En las parejas que discutieron sus arg se evidenciaban cambios en las habilidades de
argumentación mientras que en el grupo de control no se observaron y sí se dio peores algunos
aspectos que mejoraron en los otros.
- En adolescentes y adultos no se dio por igual. Los adolesct pasaron de considerar argumentos
de “un lado” a tener de “ambos”, incorporaron incluso nuevos que les permitieron cambiar sus
opiniones y mostraron tener habilidades metacognitivas. Los adultos registraron cambios
limitados: de arg de “un lado” a de “ambos” y la construcción de funcionales justificados.
- La edad y la madurez cognitiva parecen influir en los cambios registrados. Los adultos se
muestran menos dispuestos a cambiar y los adolescentes cambian con más frecuencia. Debe
matizarse esto... pues los adolescentes del grupo control fueron menos permeables a los
cambios. Exp.adolescentes > exp.adultos > control adolescentes (en relación al cambio)

- Otra diferencia de la V edad es que los adultos además se mostraron más hábiles en el mane-
jo simultáneo de múltiples alternativas a favor y en contra; y los adolescentes muestran poca
eficacia en ello y no progresan igual que los adultos con la intervención experimental.
Diferencia basada en la demanda cognitiva que implica pensar a la vez en diferentes opciones,
se igual los resultados cuando la forma es simple y solo se dan dos razones.

> Aparición de nuevos argumentos.


Argumentos no mencionados en el pre-test aparecían en el post-test. Una de las hipótesis es
que el proceso de confrontación y de diálogo era el medio que permitía la elaboración de
nuevos argumentos. (¡Si ya lo digo yo... hablar, hablar, exponer,...!) Se indagó aún más trabajando con los
diálogos registrados y efectivamente las nuevas ideas surgían en esos diálogos introducidos por
la persona que luego la exponía en el post-test, tanto en los adolescentes como en los adultos.

Kuhn y col. 1997 encuentra que las habilidades de argumentación mejoran por el intercambio
activo y prolongado entre varios. Estos cambios muestran sin embargo, no ser acusados revelando
gran estabilidad de las opiniones entre el pre-test y el post-test. Muchos no cambian de idea y si lo
hacen, es porque suavizan sus posiciones extremas a moderadas.
Este intercambio aporta nuevos argumentos e implica a los participantes a esforzarse por articular
mejor sus argumentos. Alicia “justificaba” la pena de muerte (acto punitivo por crimen cometido).
Le preguntan los otros por esa justificación como concepto, y es ella la que define criterios ante su
respuesta, mencionándolos como nuevos elementos que amplían su respuesta.

Los argumentos simples evolucionan a complejos: María -”Si nosotros tuviéramos que apretar la
palanca de la silla eléctrica, nos lo pensaríamos dos veces”. No es un argumento en sí, pero revela
la opinión de María . En el post – test ella se reafirma: Con la pena se comete el mismo crimen que
se está castigando”. Entre ella y los interlocutores en las sucesivas discusiones, el mensaje inicial
de María se va enriqueciendo. Los adolescentes además parecían tomar conciencia metacognitiva
durante los intercambios: Teresa: -”Estoy pensando esto, pero al mismo tiempo dudo porque hay

M.Goretti González 9
varias razones por las cuales también estoy en contra”.

1.3.2. Argumentación, metacognición y creencias epistemológicas

La metacognición implica una reflexión acerca de la propia actividad de pensar y de conocer (Vg. se
justifican los cambios de perspectiva o deliberaciones sobre algún aspecto). La actividad metacog-
nitiva se relaciona con las creencias epistemológicas. Éstas creencias se refieren a las que sostie-
nen lo que es el conocimiento y cómo se construye. Si una persona cree que el conocimiento es
absoluto, el juego argumental y el pensamiento crítico es innecesario. En cambio si cree que la
realidad no es directamente conocible tendrá una concepción evaluativa del conocimiento. Las
creencias epistemológicas están sometidas a un proceso de desarrollo de simple – absolutista – a
complejo – evaluativo. Proceso este que se relaciona con el desarrollo cognitivo y con el área de
conocimiento sobre el que se reflexiona. (Parece más sencillo llegar a creencias evaluativas sobre
el conocimiento del mundo social que del mundo físico)

Kuhn entiende el “pensar” como el desarrollo de contextos retóricos y argumentativos que exigen
la consideración conjunta de varios puntos de vista, propios y del otro. Expone que lo que
diferencia a los buenos pensadores de los no tan buenos, es la habilidad para percibir la
importancia de considerar el punto de vista del oponente.

2. PENSAMIENTO EN LA PRÁCTICA

Esta perspectiva se inspira en la psicología socio-histórico cultural de corte vigotskiano. Según


Sylvia Scribner 2002 el pensamiento se desarrolla siempre en un contexto, ya sea laboratorio o
situación cotidiana, donde se toma decisión o se realiza tarea laboral. Desde la perspectiva cultural
y socio-histórica de inspiración vygotskiana, el pensamiento se encuentra situado en contextos de
práctica (escuela, trabajo, vida cotidiana,...y laboratorio de psicología).

La psicología cultural entiende también que el pensamiento se apoya en y es producto del uso que
las personas hacen de las herramientas culturales materiales y simbólicas (lápices, ordenadores,...)
presentes en los contextos de práctica e interacción. La relación entre los procesos cognitivos y las
herramientas culturales tiene una dimensión histórica o temporal. A lo largo de la historia surgen
diferentes herramientas que permitieron la explicitación y los diferentes modos de pensar. Un
caso, según Gabucio (2008) es el origen de la deducción. Fueron los matemáticos griegos quienes
desarrollaron en el siglo V a.C un tipo de notación (diagramas) y de lenguajes matemáticos, al
tiempo que realizaban prácticas muy específicas, como el pensamiento en voz alta. Esta combina-
ción de recursos simbólicos con procedimientos especializados dio lugar a la aparición de prácticas
cognitivas singulares.

Es por tanto, el pensamiento deductivo el producto de prácticas sociales y culturales y la cuna


donde se originaron formas de pensamiento abstracto y descontextualizado. Hoy nos apoyamos en
esquemas silogísticos para obtener una conclusión por el hecho de que estos esquemas surgieron
previamente en el seno de prácticas sociales y culturales donde tenían sentido. Ello modifica el
modo en que se entiende la relación entre lógica y psicología, ya que el interés está puesto en
investigar cómo se piensa. Es por lo que los modelos deductivos u otros sistematizados por la
lógica, matemática,..., no podían exponer de modelos normativos “externos” al propio pensa-

M.Goretti González 10
miento.

Gabucio 2008 apuntaba que los seres humanos hemos aprendido a deducir gracias a los modelos
normativos, siendo estos herramientas culturales que participan en la regulación del pensamiento,
pero sin representar un ideal adecuado para todas las situaciones y contextos.

2.1. El pensamiento desde la perspectiva vigostkiana. Los estudios pioneros.

Lev Vygostki y Alexander Luria inauguraron una novedosa forma de entender y estudiar la activi-
dad psicológica. Inspirados en la filosofía materialista marxista entendieron que toda actividad
psicológica se realiza con la mediación de los productos de la cultura: lenguaje, escritura, sistemas
notacionales. Propusieron el estudio de los diversos planos de la génesis funcional psicológica:
filogénesis, historiogénesis, ontogénesis y microgénesis.

El lenguaje es fundamental en la formación de la conciencia y sus procesos, y para poder


comprender el papel mediador de éste Vygostky recurrió a la explicación ontogenética. El lenguaje
es un instrumento de comunicación y de creación de conciencia. Proceso que se produce segú lo
llamado por el autor: ley de doble formación. Primero es instrumento de comunicación
intersubjetiva (el cuidador habla al bebé) para luego ser herramienta de comunicación
intrasubjetiva (el niño se apropia de los usos y estructura del lenguaje). Así luego, se convierte en
instrumento de comunicación interna como pensamiento que regula la conducta propia. Vygostki
y Luria estudian el valor que estos elementos toman en la estructuración del pensamiento: cómo
cambia cuando se modifican los elementos contextuales (cultura analfabeta y cultura letrada con
nuevas formas económicas de producción y modos de vida) y elementos culturales (instrucción
escolar, escritura, cálculo,...)

Interesados por estudiarlo realizaron en Uzbekistán “laboratorio natural” para comprobar las
hipótesis socio-culturales. Se trataba de comunidades rurales con economía de subsistencia
gralmente analfabetas y con formas de organización social prácticamente feudales que habían sido
incluidas en programas de formación, alfabetización y de colectivización de la tierra y de los modos
de producción de la revolución soviética. El estudio fue muy amplio pues incluyó los procesos de
percepción, abstracción y generalización, deducción y conclusión, razonamiento y resolución de
problemas, imaginación y finalmente, autoanálisis y autoconciencia.

Pusieron a prueba una serie de hipótesis: entre ellas una por la cual vinculaban estas variaciones
con formas diferenciales de generalización y abstracción, base para los procesos de formación de
conceptos. Se estudió tres grupos:
a) sujetos analfabetos que conservaban sus modos tradicionales de organización económica y
social,
b) sujetos con escaso nivel de instrucción y que comenzaban a participar en experiencias de
colectivización económica, y
c) sujetos con una mayor escolarización y alfabetización que participaban en experiencias
económicas colectivas.
Se ofrecía a los participantes una representación de cuatro objetos: 3 de la misma categoría.
Tenían que decir qué objetos eran “parecidos”; “se pueden juntar en grupo”; “nombrar con una
palabra en común” y cuál “no sirve”; “no puede ser nombrado con palabra igual a los otros”.
Los objetos escogidos podían formar parte de una categoría o formar parte de una situación

M.Goretti González 11
práctica: martillo, sierra, leño, hacha habría dos posibilidades de clasificación (herramientas, o
bien por la asimilación a una situación práctica de “cosas para cortar y serrar la leña”).

El primer resultado que observaron es que en muchas ocasiones las instrucciones que daban a
reunir los objetos análogos eran entendidas y usadas por los sujetos como reunir los objetos
adecuados para una finalidad concreta. Cambiaron teórica por práctica.

La tarea de agrupar objetos según un mismo indicio era realizada muy frecuentemente como una
operación de asociación de los objetos partiendo de su introducción en una determinada situación
práctica. El martillo no era portadora de características abstractas que pudieran servir de base para
la agrupación. Cuando esto se contraargumentaba e indicaba que el” leño” debía ir aparte porque
no estaba hecho del mismo material que el martillo, sierra o hacha, o que éstas eran herramientas
y leño no, los sujetos contestaban que ésos no eran aspectos esenciales y que quien lo pensara no
comprendía nada.

Los investigadores encontraron que los analfabetos operaban reproduciendo la situación práctica.
Los sujetos que tenían poca escolaridad realizaban la tarea utilizando ambas tendencias de genera-
lización: práctica y teórica, (partían de situaciones inducidas por el experimentador a situaciones
imaginarias). Y finalmente, para los que habían terminado algún curso escolar, la clasificación
según una categoría teórica fue accesible y predominante.

Entonces, los resultados evidencian que en el primer grupo, el principio práctico predomina de
forma absoluta entre los sujetos que viven en zonas alejadas de los centros urbanos, son
analfabetos y conservan formas feudales de organización social y económica. En el segundo grupo,
(algún curso de escolarización y participaban en trabajo social en economías colectivas) se daba un
cierto escalón de transición, donde actúa el principio de clasificación categorial junto con el situa-
cional. En el tercer grupo, los sujetos identifican el criterio que les permite organizar los concep-
tos de la serie bajo etiqueta más general. Esos criterios pueden ser funcionales o cualquier otro
que indique semejanza, y se derivan de las exigencias de organización de la alfabetización y las
formas colectivas del trabajo.

La explicación de los autores es que el pensamiento no ha cambiado desde dentro sino que se
transforma en la medida en que cambian también las formas de producción que imponen nuevas
formas de organización social. Las organizaciones taxonómicas son relevantes en el contexto
escolar, donde prima el saber abstracto y descontextualizado. El pensamiento va cambiando junto
con y en relación mutua con el contexto.

2.2. El estudio del pensamiento en la práctica desde la psicología cultural. Algunas precisiones
metodológicas.

A partir de los estudios anteriores se abrió campo de estudio del pensamiento en tareas cotidianas
con gran interés por caracterizar y describir los contextos en los que estas actividades se
desarrollan y los procesos psicológicos intervinientes. La mayoría de estas investigaciones han
recurrido a métodos como la observación sistemática de situaciones cotidianas, la observación
participante, la recogida de datos a través de entrevistas en profundidad, caracterización de
entornos de actividad,... con el fin de investigar de forma ecológicamente válidas.
Para Bronfenbrener las investigaciones psicológicas ecológicamente válidas deben atender al

M.Goretti González 12
menos a tres aspectos:
– mantener la integridad de las situaciones reales,
– deben ser fieles a los contextos culturales y sociales más amplios de los que provienen los
sujetos,
– deben mantener cierta consistencia entre la definición de la situación hecha por los participan-
tes y la realizada por los investigadores, así como con los resultados y las manipulaciones ex-
perimentales: correspondencia entre el punto de vista de los sujetos y las definiciones
conceptuales implícitas y explícitas de los investigadores.

Para la psicología cultural una investig psicológica no puede hacer inferencias sobre actividaddes
cognitivas cotidianas basándose en la utilización de situaciones experimentales escasamente signi-
ficativas para las personas y poco vinculadas con los contextos. Muchas de las investigaciones
siguientes responden a metodología que incluye estudios de campo, experimentales y cuasi-expe-
rimentales y estudios experimentales con tareas cognitivas estándares.

2.3. El pensamiento en la práctica laaboral. Un estudio en la fábrica de lácteos.

Sylvia Scribner destaca que el marco de práctica de la cognición más relevante en la vida adulta es
el trabajo (niños-escolar). Ella ha elegido los ambientes laborales para estudiar el pensamiento y la
memoria en prácticas rutinarias, y explica que su enfoque busca “descubrir las propiedades funcio-
nales del pensamiento en acción observando los fenómenos reales en condiciones naturales.
Observar las prácticas de la cognición que se llevan a cabo en el trabajo, es entender que cada
puesto representa una práctica y que las tareas específicas son acciones orientadas a objetivos, y
todo ello enmarcado en un sistema de producción que le da formas y límites específicos.

Scribner y cols. realizaron un estudio en planta de lácteos. Durante 6 meses observaron a


diferentes trabajadores en sus tareas: pre-cargadores (preparaban pedidos) con tarea exigente
pues debían mover grandes pesos y preparar los pedidos en breve tiempo; conductores
transportaban la carga a los supermercados y cobraban la mercancía.

El procedimiento incluyó primera fase de observación de tareas y una segunda de sesiones


experimentales. Objetivo era precisar la experiencia laboral en las habilidades de memoria y
pensamiento. Se trabajó con expertos en sus tareas y con novatos trabajadores de la planta, y
novatos ajenos (oficinistas y estudiantes).

1º Los pre-cargadores recibían pedidos en impresos u órdenes de salida. Tarea sencilla pero debía
realizarse con prisa y precisión. Requería una manipulación de información simbólica por la dis-
crepancia existente entre las unidades de medida en que se expresaban los pedidos (cuarto litro,
medio litro, litro,...) y las unidades manejadas dentro de la fábrica: 4 litros, 8 medios o 16 cuartos
de litro. La conversión se hacía automáticamente pero como resultado el precargador recibía
órdenes en las que debía preparar una caja más tantas unidades o bien una caja menos algunas.

Parecía interesante estudiar las estrategias que aplicaban frente a estas órdenes mixtas. Los inves-
tigadores observaron atentamente las órdenes, la disposición de la mercancía cuando iniciaba el
trabajo, la organización de las cajas durante la preparación y por último, los pedidos ya preparados.
Mostraban variedad de estrategias para el mismo pedido: soluciones literales o bien,
interpretaban la orden según la disponibilidad de la mercancía (claves contextuales dadas por la

M.Goretti González 13
presencia de cajas medio llenas o vaciar). Estas estrategias que implicaban transformaciones sobre
la información contenida en la orden se denominaba estrategias no literales.

Los investigadores postularon que la transformación de los datos del pedido con cierto esfuerzo
mental se relacionaba con el ahorro de esfuerzo físico, medido por las unidades de producto que
debían trasladar. Estrategias óptimas eran las que suponían una transformación de los datos para
menor esfuerzo físico. Los precargadores utilizaron 30 veces estrategias literales, de las cuales 25
eran estrategias óptimas y utilizaron 23 veces no literales, todas éstas óptimas.

Luego se pasó a la fase experimental, donde se compararon las estrategias aplicadas a cien proble-
mas que simulaban a los de la fábrica, por parte de los precargadores expertos y los grupos
novatos. Se recreó ambiente material y se incluyeron las órdenes de pedido, cajas llenas, vacías y
parciales. Como resultados:
– 1º Los precargadores eligieron estrategias no literales óptimas el 70% de las veces.
– 2º El factor experiencia en el trabajo de la fábrica distinguió desempeño de los trabajadores de
la planta frente a los novatos unos y otros. Los conductores y otros de la planta no quedaron
muy atrás de los precargadores. Los oficinistas ajenos a la fábrica usaron estrategias no literales
óptimas sólo en la mitad de los problemas. Los estudiantes aplicaron soluciones literales, lo
que les llevó a hacer un gran esfuerzo físico, y en estos dos últimos se empleo más técnicas de
conteo
– 3º Los precargadores apenas contaban y aplicaban en su conjunto estrategias más holísticas
con un gran peso de la configuración perceptiva. Esa facilitación de la preparación se observaba
en la fase de pre-movimiento, cuando tenían que decidir cómo hacer el pedido basándose en
las cajas que tenían y con ello, qué estrategia iban a usar. El tiempo invertido en tomar
decisiones fue menor entre los precargadores que entre los novatos, pues los primeros se apo-
yaban en la información perceptiva y los segundo contaban y usaban técnicas enumerativas
más lentas.

Scribner y cols. estudiaron a los conductores que transportaban y ponían el precio a los pedidos
que servían. Debían cumplir con su trabajo en jornadas que comenzaban temprano y hacerlo con
cierta eficacia para no dejar ningún pedido sin entregar. Además eran responsables de cobrar la
mercancía. Poner los precios a los recibos de entrega era un trabajo simbólico y abstracto. Calcula-
ban precio por la cantidad de cada producto a entregar y del total de la entrega. Aún así, la planta
les daba una lista de precios expresada en unidades por lo que el cálculo resultaba directo y senci-
llo.

Los conductores habían inventado algunas formas más sencillas para realizar las cuentas basándo-
se en la caja como unidad. 4L = 8 ½ L = 16 ¼ L La caja de leche se convertía en medidor simbólico,
y se usaba a modo similar a como lo hacían los precargadores. Estos usaban las cajas como un
mediador perceptivo que facilitaba las sumas y las restas en la preparación de los pedidos y los
conductores como mediador simbólico. Por ejemplo, el sr.B había entregado 32 cuartos de leche
con chocolate y en vez de multiplicar el precio por cantidad, usaba la “chuleta” donde tenía precio
de caja. Scribner 2002, comentaba sobre un veterano que usaba hasta 25 estrategias de cálculo
diferentes por cajas y unidades para resolver los problemas de cálculo.

La importancia de ello es la comprobación de que la estrategia de la caja se usaba siempre y


cuando facilitara el cálculo e implicara menos esfuerzo mental y esto sucedía cuando los

M.Goretti González 14
conductores tenían los precios por caja. Cuando se llevó a cabo la tarea en laboratorio se observó
que los conductores usaban tanto la estrategia del precio de caja como la del precio unitario. Los
estudiantes se aferraban a lo del precio literal por unidad y cuando adoptaban la estrategia por
caja la usaban en todos los casos suponiendo un gran esfuerzo de cálculo.

Scribner y cols. obtienen las conclusiones:


– En el plano metodológico la observación no está reñida con la experimentación, sino que
puede precederla. Las observaciones de tareas permite describirlas mejor en términos
materiales, organizacionales y cognitivos, para luego replicarlas en laboratorio.
– En cuanto al pensamiento en acción o práctico entienden que las estrategias de solución
dependen del conocimiento que se despliega en el lugar de trabajo. Las habilidades de
pensamiento se forman y dependen de las condiciones físicas, simbólicas y organizacionales en
las que se desarrollan.
– El pensamiento experto se vincula con la experiencia en el trabajo. Una de las características de
los expertos fue la variabilidad demostrada en las estrategias de resolución de problemas, que
a primera vista parecían muy estereotipados. Encontraban la operación adecuada “a la oca-
sión”.
– Afirmaban que “el pensamiento práctico experto en el trabajo está orientado a objetivos y
varía de manera adaptativa con las propiedades cambiantes de los problemas y las condiciones
cambiantes en el ambiente de la tarea”.

Los estudios cognitivos del trabajo comienzan a perfilarse y sus conclusiones son parciales . Aún así
es importante estudiarlos en estos contextos, pues contribuyen a la configuración de formas de
pensamiento flexibles y creativas.

2.4. Pensamiento matemático y cultura.


2.4.1. “En la vida diez, en la escuela cero”. Pensamiento matemático en contexto.

Carraher, Carraher y Schliemann 1991 estudiaron cómo los niños brasileños que vendían cocos, y
otras frutas de forma ambulante, utilizaban las matemáticas en la calle y en la escuela. Entrevista-
ron y observaron a niños de entre 9 y 15 años que asistían irregularmente a la escuela, mientras
vendían mercancías. Dividieron el estudio en 2 etapas:
– 1ª etapa, se dirigían a los niños mientras vendían y actuaban, haciéndoles preguntas sobre las
transacciones comerciales mientras estas ocurrían real o simuladas. Recuerda el método al
clínico-crítico piagetiano en el cual el examinador plantea una situación, explora las respuestas
infantiles espontáneas, pide justificación de las mismas y ocasionalmente cotraargumenta:
examen informal.
El cliente -entrevistador pidió 10 cocos y la cuenta. Lo calculó “Tres son 105, más tres son 210
(pausa) faltan cuatro. Es ... (pausa) 315... parece que es 350”. Este cálculo puede representarse
de varias maneras, donde 35 x 10 es el más habitual desde el punto de vista escolar. Se había
resuelto mediante subproblemas, demostrando así su competencia para utilizar otro proceder
diferente al escolar.
– En examen formal se ofrecieron problemas en forma de operaciones aritméticas y se
presentaron problemas de tipo escolar: María compró x plátanos, cada plátano costaba tantos
cruzeiros ¿cuánto dinero gastó? Se respondieron 63 preguntas de matemáticas en ex.informal y
99 en el formal.

M.Goretti González 15
Los resultados indicaron una influencia decisiva del contexto en la solución de problemas
matemáticos. Los niños y adolescentes respondieron correctamente al 98,2% de los cálculos y
problemas informales, mientras que sólo lo hicieron el 36,8% de los cálculos y el 73,7% de los pro-
blemas formales. A los niños vendedores les resultaba más fácil resolver problemas escolares que
aislados formados por una secuencia de pasos arbitrarios de contenido simbólico. Estos algoritmos
que se enseñaban en la escuela podían presentar obstáculos en el razonamiento.

Existen múltiples procedimientos para resolver correctamente los problemas planteados, aunque
éstos no coincidan con los enseñados en la escuela. Se destacó la descomposición del problema,
por al cual el sujeto juntaba las respuestas de subproblemas más sencillos y componiendo la solu-
ción. Lo interesante es que esos chunking de resultados se basaban en formas culturales
previamente establecidas como podía ser el vender tres cocos a un precio determinado.

Los autores concluyeron que los usos de las matemáticas en la calle y en la escuela no eran los
mismos. Las diferencias se notaban en los objetivos de las tareas, en las herramientas utilizadas y
en las restricciones mostradas. En la calle los objetivos eran hacer cálculo correcto para no per-
der dinero. En la escuela se les pedía que utilizaran símbolos y procedimientos que debían aplicar-
se a problemas escolares carentes de significado vital. En cuanto a las herramientas culturales y
cognitivas , en la venta callejera se utilizaba la oralidad y cálculos mentales en lugar de escritura de
representación matemática (ambientes formales). Las restricciones de la venta callejera estaban
presentes en el uso del dinero “de verdad, en el cuidado de la tarea y velocidad, en la invención y
el uso de procedimientos; en la escuela restringidas por el uso de símbolos, cumplimiento de pr
estandarizados, cultuura escolar,...

Se muestra enorme interrelación que existe entre la cognición, texto social, cultural, económico,...
Los autores ponen de manifiesto la funcionalidad que adoptan estos procesos diferencialmente
implantados en contextos formales o informales.

2.4.2. Resolución dde problemas y matemáticas cotidianas.

Saxe se interesó por el estudio del pensamiento matemático en contexto. Él asume que los cam-
bios cognitivos se producen en el interjuego de la actividad individual y colectiva. Los cambios
cognitivos se dan en las actuaciones concretas de un individuo, quien utiliza unas herramientas
culturales que están presentes históricamente en su cultura y medio material. Estas herramientas
forman parte de actividades regladas por la actuación del grupo (uso del dinero) lo que supone un
marco que las restringe pero que puede ser rebasado en la actuación concreta de un sujeto y/o
grupo cultural, por meido de la innovación y cambio de los usos canónicos.

Saxe estudia la génesis y los procesos de cambio que se dan en prácticas matemáticas entendidas,
al mismo tiempo, como individuales y sociales. El autor estudió la actividad realizada por los niños
y adolescentes de entre 10 y 12 años que vendían dulces en las calles. Quiere la comprensión
matemática surgida a lo largo de todo el circuito de compra-venta de dulces. Buscaba en primer
lugar caracterizar las prácticas de la venta ambulante y las operaciones requeridas para ello; y
comparar las matemáticas utilizadas por los no vendedores urbanos y rurales.

El análisis etnográfico de los niños vendedores reveló un ciclo de cuatro fases:

M.Goretti González 16
– Fase de compra: el niño adquiría los dulces al mayor enn cajas de 30 a 100 unidades.
– Fase de preparación para vender: el vendedor modificaba el precio pagado al mayor y
transformaba en precio de venta.
– Fase de venta: el vendedor vendía sus bienes a los consumidores.
– Fase de preparación para la compra: volver a proveerse de mercancías eligiendo la tienda al
mayor que ofreciera mejor precio.

Según el autor, este ciclo muestra diferentes objetivos matemáticos que se inscriben en una
variedad de procesos (macrosociales, manejo de inflación, microsociales,...) Cuando se realizó el
estudio la inflación en Brasil era del 25% y los vendedores no tenían estabilidad en el precio de
compra al mayor, por tanto estaban obligados a manejar valores numéricos inflados, de muchas
cifras y con billetes que continuamente perdían valor y cambiaban de denominación.

Los procesos sociales (microsociales) sse referían a los modos en que los vendedores desarrollaban
convenciones que facilitaban su tarea (ofrecer cierta cantidad de unidades a un precio establecido)
Esto reducía la complejidad de la venta pero obligaba a comparar proporciones en dulces y ganan-
cias. Los de más edad ofrecían sus dulces en más de una proporción: 2 chocolates por 500 y 5 por
1000.

Las estrategias sociales mediaban en el establecimiento y desarrollo de los objetivos matemáticos:


en fase de preparación para la venta, tras algunas negociaciones acordaban los precios de venta
para minimizar la competencia entre ellos. Preparaban paquetes de una cierta cantidad de unida-
des para la venta por un precio determinado (3 unidades x 1000). Estos niños, la mayoría analfabe-
tos, vaciaban la caja de dulces y volvían a rellenarla con los agrupamientos de 3 un. Los niños con
más experiencia también lo hacían “vaciar para volver a llenar” como modo de contar la ganancia
final. Al meter 3 x 1 dentro, contaban “uno”, “dos”,... según los grupos preparados, tanta ganaban.
Para el vendedor inexperto eso podría haber sido el contar la cantidad de unidades. La regla cultu-
ral que usaban para dar por concluida esta fase de preparación para la venta era que con la venta
debían obtener el doble del precio de compra de la caja. Si la proporción proveniente de una
convención usada en los medios rurales para calcular los precios de venta se cumplía, salían a lla
calle a hacer su trabajo. Si no se cumplía recalculaban. Los que tenían más experiencia lo hacían
con la proporción unidad-precio, bajando o subiendo la cantidad de 3 por 1000. En la fase de
venta, podía surgir el regateo y entonces los vendedores debían recalcular las proporciones de los
precios.

La primera conclusión a la que llega Saxe 2002 es que las operaciones matemáticas requeridas en
la venta callejera de dulces son la representación de valores numéricos grandes, el cálculo
aritmético con esos valores y la comparación de proporciones.

Saxe entrevistó a niños que apenas tenían instrucción escolar y que formaban trees grupos:
vendedores de 10 a 12 años, niños no vendedores con la misma edad y comunidad, y niños no
vendedores de comunidad rural. Se les presentó problemas de representación de números,
aritméticos y de comparación de proporciones. Solo los vendedores se topaban a diario con bille-
tes de varios valores y con problemas de proporciones, por lo que se esperaba encontrar
diferencias entre estos grupos en la matemática que majenaban.

Todos los niños entrevistados mostraron un conocimiento numérico correcto siempre y cuando pu-

M.Goretti González 17
dieran apoyarse en aspectos figurativos y númericos de los billetes, pero no leyeron correctamente
las cifras cuando se presentaban simplemente escritas. Sí fueron capaces de reconocer monedas y
billetes de menor y mayor valor estableciendo relaciones ordinales y cardinales entre ellos.

Los niños vendedores realizaron mejor tareas aritméticas sencillas como sumar un fajo de 12 bille-
tes a 8600 cruzeiros o restar una cantidad menor a otra mayor. La estrategia utilizada era reorgani-
zar los billetes.

Los problemas de proporciones eran poco habituales en la matemática cotidiana de los niños
rurales, bastante habitual en los urbanos no vendedores y muy habituales en los niños vendedo-
res. Tenían que determinar en cuál de dos proporciones obtendrían más ganancias y debían justifi-
car sus respuestas.

Los vendedores calcularon y justificaron mejor, típicamente calculaban un término común que les
permitía establecer una comparación y así calcular correctamente la proporción y la ganancia.

La comprensión matemática de estos niños, se iba generando a medida que participaban en


prácticas culturales. A la vez , la venta se inscribía y se entrelazaba con un marco-cultural y
económico más general y con otros más locales como los provistos por la interacción social, la con-
vención de las compras y ventas, el cálculo de precios,...

La actividad cognitiva de resolver problemas está guiada por unos objetivos concretos, vinculados
a cada una de las fases de compra-venta. Esa actividad, aparece dentro de una práctica social
concreta como es la venta callejera, reglada previamente por la vida social, la cultura, la econo-
mía,...

Saxe realizó estudio en la comunidad de Oksapmin investigando los usos de sistemas notacionales
Matemáticos y el cálculo en
dos períodos, uno de ellos
comprendido entre 1978-80 y
el otro en 2001.

Reseña que la comunidad de


Oksapmin había vivido hasta
los añ 1940 en relativo aisla-
miento y su economía
consistía en el cultivo de ali-
mentos, crianza y caza de ani-
males pequeños. Utilizaban
Tomada de http://gse.berkeley.edu/faculty/gsaxe/Research..html

exclusivamente un sistema para contar basado en 27 partes del cuerpo cada una ccon una dife-
rente denominación y gestos para referirse a ella. Una de las dificultades es que la parte corporal
que representa al 21 recibe el mismo nombre que la 29, lo cual el contexto de uso y gesto que se
utilice son fundamentales para comprenderlo. Este sistema se conservó sin cambios hasta media-
dos de los 60 cuando las comunidades comenzaron a tener más intercambios económicos con
otras comunidades. Otro elemento fue la creciente escolarización. En el 2001 los niños y jóvenes
estaban casi todos escolarizaods mientras que los adultos habían recibido unos pocos cursos. En la

M.Goretti González 18
década de los 60 se introducía el dinero en las comunidades repercutiendo en la forma en que los
Oksapmin cuentan y usan actualmente el dinero. (Usan números Pidgin). En los 80, Saxe documen-
tó cómo el sistema de conteo Oksapmin, basado en el cuerpo, era utilizado en transacciones
comerciales en las primeras tiendas abiertas en la comunidad y enla resolución de problemas
matemáticos. Los cambios con los que debían lidiar los Oksapmin eran:
– paso del uso de una numeración tradicional del cuerpo a la numeración Pidgin, similar a la del
inglés (uno,dos,tres,...)
– uso de la moneda kina, que relacionaban con la antigua libra y los chelines.

En ese escenario de diferentes instrumentos culturales y de formas de práctica provocadas por los
cambios económicos y culturales, Saxe y Esmonde 2004 realizaron dos estudios encaminados a
caracterizar el uso de sistemas de conteo y del dinero, que hacían un grupo de personas Oksapmin
de diferentes edades y niveles de escolarización cuando realizaban compras pequeñas.

Los resultados obtenidos en el primer estudio fueron un uso exclusivo del sistema tradicional en
los ancianos y un uso variado de sistemas de conteo en los otros grupos (oksapmin,pidgin y mixto).
El segundo estudio buscaba indagar aún más en algunos aspectos de las transacciones comerciales
para ver su práctica diferencial por parte de los diferentes grupos estudiados. Seleccionados
algunos casos de venta en cada una de las tiendas, se entrevistó al vendedor pocas horas después
de haber realizado la transacción, hablándose de 4 situaciones que variaban en dos condiciones:
compradores ancianos o adultos mayores y si tenían o no el cambio exacto para pagar 2x2. En
ambas condiciones contaba el comprador con 5 kinas o bien en billetes y monedas o un solo billete
de 5 kina.

Los vendedores decían que los ancianos solían comprar producto a producto mientras que los
adultos mayores compraban los dos o más que necesitaban de una sola vez. Tanto si tenían el
cambio justo como si tenían que recibir cambio.

Los vendedores calculaban el precio y el cambio de forma conjunta con los adultos. Al recibir el
cambio lo solían contar y antes de comprar establecían lo que iban a pagar por su compra. En los
ancianos compraban de forma secuencial. Cuando no tenían el dinero exacto y necesitaban dos
cosas aplicaban dos estrategias: compraban uno, pagaban y con el cambio compraban el otro; o
preguntaban cuánto recibirían por el cambio en la compra del primer producto y entonces sabían
si podían comprar más o no (¡pues esto me suena a mí de hacerlo pequeña para saber cuántas chuches me podía
comprar...je,je,je!)

Saxe y Esmonde 2004, afirman que los vendedores se han convertido en verdaderos
administrado- res o agentes que facilitan y median en las prácticas de compra. Anticipan y
simplifican las compras sobre todo de las de los ancianos. En los intercambios en las tiendas,
ambos, empleados vendedores y compradores, hacen uso de diferentes sistemas notacionales de
artefactos físicos y diferentes lenguajes de representación como recursos para llevar adelante las
transacciones (se da laboratorio natural). Estos estudios muestran que el pensamiento en la
práctica está situado en un escenario cultural y social, lleno de restricciones y de posibilidades. La
actividad concreta de pensar se realiza junto con otros y está profundamente interrelacionada con
las herramientas culturales, prácticas sociales, reglas, sistemas notacionales,...

M.Goretti González 19

También podría gustarte