Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. Introducción
El razonamiento es uno de los procesos cognitivos básicos por medio del cual utilizamos y aplicamos
el conocimiento. Si no hiciéramos inferencias tendríamos que depender de un conocimiento
específico y puntual para cada una de las situaciones a las que hiciéramos frente. Por ejemplo: un
compañero nos dice que su hijo de 8 años es más alto que su sobrino de nueve, pero más bajo que
su hija de siete. De ello podemos inferir: – su hijo e hija son más altos que su sobrino, – su hija de 7
años es la más alta de los tres, (inferencia deductiva) Puede ser válido o no. – su sobrino de nueve
años es el más bajo de los tres, – su sobrino es el mayor en edad, – sus hijos y su sobrino son primos,
– su sobrino es muy bajito, (ejemplo de inferencia inductiva) Es probable o no. – sus hijos son muy
altos. Podemos decir que el razonamiento permite “pasar de una información a otra”, dado que a
partir del conocimiento de uno o más resultados que se encuentren relacionados podemos derivar o
alcanzar una conclusión.
Siguiendo con el ejemplo podemos ver cómo de unos enunciados se deriva a la conclusión y como
en otros casos se ha ido más allá de lo expresado en los enunciados. Las investigaciones sobre el
razonamiento acudieron a la lógica en busca de un criterio para evaluar el curso de las inferencias e
identificar las propias leyes del razonamiento humano.
Las investigaciones psicológicas sobre el proceso de razonamiento han diseñado sus tareas
experimentales de acuerdo con la formalización y el concepto de validez del análisis lógico. Éstas
suelen comprender premisas y conclusiones que serán evaluadas por los sujetos con respecto a su
consecuencia lógica. Los enunciados a partir de los cuales razonamos son las premisas y el enunciado
que se deriva de los otros se denomina conclusión, formando el conjunto de éstos lo que
denominamos argumentos. Tenemos que tener claro que en el caso de la deducción hablamos de un
argumento válido o inválido y en la inducción el argumento es más o menos probable. En uno
deductivo las conclusiones se siguen necesariamente de las premisas mientras que en uno inductivo
las premisas sugieren o apoyan la conclusión.
2. Lógica y razonamiento
En el razonamiento deductivo se parte de unas premisas para alcanzar una conclusión que se siga
necesariamente de las mismas, mientras en el inductivo la conclusión está más o menos apoyada por
las premisas. El deductivo se ha descrito como un procedimiento dirigido “hacia abajo” en el sentido
de que a partir de lo general se llega a lo particular y el razonamiento inductivo como procesamiento
“hacia arriba” en el que se llega a lo general a partir de lo particular. Esta metáfora direccional en la
que el razonamiento asciende o desciende por una especie de “escalera teórica” ha sido empleada
por Platón, Aristóteles y en múltiples tratados de lógica.
Skyrms indica que uno de los errores más extendidos es la diferenciación entre deducción e inducción
como aquellos argumentos que proceden de lo general a lo específico para el caso de la deducción y
de lo específico a lo general para el caso de la inducción. La diferencia no se determina por la
generalidad o particularidad de sus premisas y conclusiones sino por las definiciones de validez
deductiva y de fuerza inductiva.
Un argumento es válido sólo si es imposible que su conclusión sea falsa mientras que sus
premisas son verdaderas y que un argumento inductivo es fuerte sólo si es improbable que
su conclusión sea falsa cuando sus premisas son verdaderas.
El conjunto de inferencias, deductivas e inductivas, se define como la transición de uno o más
enunciados en la que las premisas aportan información para poder alcanzar una conclusión. Sin
embargo, las conclusiones deductivas son tautológicas y comprenden sólo la información que viene
expresada en las premisas mientras que las inductivas son probabilísticas, ya que van más allá de la
información contenida. En el razonamiento deductivo la verdad de las premisas garantiza la verdad
de las conclusiones, mientras que en el razonamiento inductivo las conclusiones son más o menos
probables dependiendo del grado en que se encuentren apoyadas por las premisas.
Desde sus inicios en la filosofía griega, la lógica perseguía la identificación de unas leyes de
razonamiento que fueran universales y por ello se centró en el análisis de la forma y la estructura de
los argumentos. Desde Aristóteles, la deducción era el estudio de las conexiones entre proposiciones.
Las proposiciones son enunciados en los que se afirma o niega algo y en los que se establece una
relación entre sujeto y predicado. El análisis de la deducción se centraba en el establecimiento de
conexiones encadenadas de un silogismo o grupo de silogismos por medio de la cópula “es”. El
silogismo es un argumento que establece una nueva conexión entre las proposiciones a través de un
término medio que las relaciona: “Todos los A son B, Todos los B son C, luego Todos los A son C”. B
es el término medio que ha permitido la conexión.
Frege a finales de siglo XIX, considera que las proposiciones pueden tratarse como funciones
matemáticas, desarrollando un marco de análisis más potente y flexible que la silogística aristotélica.
Es a principios del siglo XX, cuando Whitehead y Russell, desarrollan el cálculo de predicados y
amplían el análisis de las proposiciones a otras formas relacionales que no eran la cópula “es”. Esta
lógica matemática emplea símbolos por analogía con las matemáticas, logrando así el cálculo con
notación simbólica y posibilitando la operación sin la contaminación de los contenidos. La deducción
se entiende como el proceso mediante el cual unos enunciados se derivan de otros de un modo
puramente formal y esta derivación se realiza por la aplicación de las reglas de deducción.
De acuerdo con esta notación y utilizando tareas que ejemplifican argumentos con una estructura y
principios lógicos: las proposiciones se representan por letras (p,q,r,s) y los operadores (términos de
enlace) por unos símbolos que determinan la forma de una proposición lógica. La representación
simbólica de las proposiciones son variables y la representación de los operadores son constantes y
se corresponden con los términos “y”, “o”, “no”, “sí,... entonces” y “si... y solo si”.
Los términos de enlace u operadores conectan entre dos proposiciones excepto en el término “no”
que actúa sobre una. Si se ha de utilizar más de un operador lógico se utilizan paréntesis para indicar
el operador que domina. De no haber paréntesis el menos fuerte es la negación, seguido de la
conjunción y la disyunción que tienen la misma potencia y el condicional es el más fuerte.
→ > conjunción = disyunción > negación
Algunos ejemplos:
- “Si estoy enferma entonces estoy en la cama y veo la televisión”.
El condicional actúa como término de enlace entre proposición estoy enferma
(antecedente) y estoy en la cama y veo la televisión (consecuente). El consecuente
está formado por una conjunción.
P → (q Λ r)
- “Si estoy enferma entonces estoy en la cama y a la vez veo la televisión”.
Es una conjunción entre la proposición estoy enferma y entonces estoy en la cama y a
la vez veo la televisión. La primera conjunción está constituida por dos preposiciones
con el condicional como término de enlace.
(P → q ) Λ r
El paréntesis indica que la conjunción domina en esta agrupación.
A continuación se presentan las reglas de inferencia que permiten pasar de una proposición a otra.
Las proposiciones formalizadas reciben el nombre de fórmulas lógicas y éstas de corresponden con
las premisas de un argumento. Las reglas de inferencia permiten dar el paso lógico que conduce de
las premisas a la conclusión. Un argumento válido se da cuando la conclusión es una consecuencia
lógica de las premisas gracias a la regla de inferencia.
Ejemplo I
“Si sales a jugar, te pones las zapatillas de deporte. Si llevas las zapatillas de deporte, te pones el
chándal. Luego, si sales a jugar te pones el chándal”.
1a premisa: “Si sales a jugar, entonces te pones las zapatillas de deporte” se simboliza A B
2a premisa “Si llevas las zapatillas de deporte, entonces te pones el chándal” se simboliza B C
La conclusión “Si sales a jugar te pones el chándal” se simboliza como A C
La deducción sería la siguiente:
(1) A B P (1er paso Premisa)
(2) B C P (2º paso Premisa)
Ejemplo II
“Si eres socio de un club de fútbol, no tienes que comprar las entradas para los partidos.
W¬O
Manuel va al partido del domingo y es socio del club de fútbol.
G^W
En consecuencia, no tiene que comprar la entrada”
¬O
La deducción sería:
(1) W ¬O P
(2) G Λ W P
(3) W S 2 (simplificación)
(4) ¬ O PP 1,3
Los dos primeros pasos son las premisas y en el tercero se deduce W por la regla de simplificación en
el paso 2. El 4º paso, la conclusión, se deduce aplicando el modus ponens a los pasos 1 y 3.
Se puede saber si un razonamiento deductivo es válido cuando a partir de premisas que son
verdaderas se sigue una conclusión verdadera por la aplicación de las reglas de inferencia
anteriormente indicadas, pero este conjunto de reglas no agota el nº de inferencias válidas. Para
tratar cada caso de inferencia proposicional existe un método general que permite demostrar la
validez de un argumento. Se conoce como tablas básicas de verdad, método semántico o teorías de
modelos y es un método rápido y mecánico para comprobar la validez de un argumento. Se parte del
supuesto de que cualquier proposición sólo puede tener dos valores: V o F.
Se establecen todas las combinaciones posibles de los valores de verdad de las proposiciones
(premisas y conclusiones) y se busca alguna combinación en la que las premisas sean verdaderas y la
conclusión falsa. Si no la hay, el razonamiento válido se encontraría en la línea en la que las premisas
y la conclusión sean todas verdaderas.
Ejemplo de inferencia válida de modus tollendo tollens:
Las proposiciones son (p) y (q), las premisas p q y ¬ q y la conclusión ¬p. Se
construye la tabla de verdad comenzando por asignar los valores a las proposiciones
del argumento: p y q siempre con dos valores de verdad (V o F). La tabla es 2 x 2 y se
corresponde con el nº de combinaciones posibles de los valores de verdad. El nº de
posibles combinaciones de los valores de verdad dependerá del nº de proposiciones
(n) siendo la regla 2n.
En el siguiente paso se determinan los valores de verdad para las premisas y la conclusión del
argumento. Por último, se buscan las líneas en las que pueda darse una conclusión falsa a partir de
premisas verdaderas para comprobar si el argumento no es válido. En cambio, si encontramos
conclusiones V a partir de premisas V, el argumento es válido.
No hay ningún caso que siendo las premisas V se alcance una conclusión falsa y en la cuarta línea
encontramos el razonamiento válido.
Ejemplo de argumento inválido conocido como falacia de afirmar el consecuente:
La tercera línea indica que hay una combinación posible
en la que siendo verdaderas las premisas se puede
obtener una conclusión falsa. Por tanto este argumento
no es válido y es un error frecuente en el razonamiento
humano.
Falacia de negar el consecuente: si llueve entonces me quedo en casa. No llueve, luego no me quedo
en casa.
Hasta aquí la estructura lógica de las proposiciones, pero para examinar la forma lógica de la propia
proposición, se utiliza el cálculo de predicados que permite analizar la estructura interna
descomponiendo una proposición en términos y predicados. Un término es una expresión que
nombra un único objeto y el predicado es aquello que se dice de los términos. Se suelen utilizar las
letras F, G, H,... para predicados y letras x, y, z para los términos, colocándose el predicado delante
del término que va entre paréntesis. “Jaime es un estudiante” Jaime es el término (x) y “es un
estudiante” es el predicado, simbolizándose como “F(x)”.
En el cálculo de predicados también se distingue entre términos generales o específicos. La
cuantificación de la generalidad puede ser universal o existencial. El cuantificador universal se
corresponde con todo, cualquiera, para cada x, cada x, para todo x y el cuantificador existencial con
algún, algunos, algunas (existe al menos un objeto al que se le puede aplicar el predicado).
La simbolización:
Para el cuantificador universal (A invertida) y para el existencial es la E invertida (Э).
Una vez formalizadas las proposiciones, el razonamiento en el cálculo de predicados consiste en
eliminar los cuantificadores para aplicar las reglas de inferencia sobre las proposiciones y volver a
introducir los cuantificadores cuando sean necesarios. La regla de especificación universal permite
sustituir el cuantificador por cualquier término, dado que si la proposición es cierta para todo, lo es
para cualquier término específico.
Ejemplo: Todos los médicos son hombres prudentes. Luis es médico. Por tanto,
Luis es un hombre prudente.
Deducción:
Otro problema es la justificación de la inducción. Este problema se centra en determinar por qué se
consideran válidos los juicios sobre casos futuros o desconocidos.
Una solución es mostrar que la validez del razonamiento inductivo se basa en la ley de
uniformidad de la naturaleza por la que se puede suponer que el futuro será
semejante al pasado. Pero la naturaleza es variable en algunos aspectos: a veces se
puede generalizar con muy pocas observaciones y otras veces muchas observaciones
no garantizan la generalización.
Francis Bacon rechazó la aplicación de un principio general y propuso unas tablas de
investigación en las que la inducción procedía por exclusión y desestimación. Esta
inducción por eliminación supone la proyección de nuestras experiencias en forma de
hipótesis experimentales.
Podemos comprobar que la inducción es una tarea mucho más compleja que la deducción.
Si se asume que la naturaleza es uniforme en algunos aspectos, entonces el problema
está en determinar cuáles son las regularidades que se pueden proyectar a situaciones
futuras.
Para poder identificar las regularidades que son proyectables hace falta determinar
cuáles son los aspectos de la naturaleza que se suponen son uniformes. Esta
encrucijada se conoce como “el nuevo acertijo de la inducción” y el problema de la
construcción de una lógica inductiva todavía no está resuelto.
El análisis de la causalidad y el cálculo de probabilidades constituyen dos avances hacia
el desarrollo de un sistema de lógica inductiva.
El análisis de las causas y de los efectos es un aspecto importante tanto del razonamiento científico
como del cotidiano. Si se conocen las causas se tiene control sobre los efectos, de forma que se
puede producir la causa para obtener el efecto deseado o se elimina la causa para prevenir el efecto
no deseado. David Hume propuso un conjunto de reglas para determinar la relación causal y estas
nociones fueron desarrolladas por John Stuart Mill.
Los métodos de Mill son procedimientos para determinar si una causa es suficiente o
es necesaria para producir un determinado efecto, siempre que se tenga información
sobre la presencia o la ausencia de otras causas y sobre la presencia o ausencia del
efecto en estas situaciones.
Las causas son las condiciones que producen un efecto y que pueden ser suficientes, necesarias o
suficientes y necesarias.
Ejemplo: La presencia de oxígeno es una condición necesaria para la combustión, pero
no es suficiente.
Si se quiere producir un efecto, hay que buscar las condiciones que son suficientes (el
oxígeno no serviría para producir el efecto de combustión).
Cuando se busca prevenir el efecto, entonces basta con identificar las condiciones
necesarias (si se quiere prevenir la combustión, se puede eliminar el oxígeno).
Seis principios por los que se rigen las condiciones necesarias y suficientes (Skyrms):
1. Si A es una condición suficiente para B, entonces B es una condición necesaria para A.
Si una buena nota es condición suficiente para el aprendizaje, entonces el aprendizaje es condición
necesario para una buena nota.
Si alguien va conduciendo es condición suficiente para afirmar que tiene 18 años, entonces tener 18
años es una condición necesaria para conducir.
2. Si C es una condición necesaria para D, entonces D es una condición suficiente para C.
Si el haber oxígeno es condición necesaria para la combustión, entonces la combustión es condición
suficiente para decir que hay oxígeno.
3. Si A es una condición suficiente para B, entonces la ausencia de B es suficiente para la ausencia
de A.
Si una buena nota es suficiente para el aprendizaje, entonces la ausencia de aprendizaje es condición
suficiente para la ausencia de una buena nota.
Si hay combustión es suficiente para que haya oxígeno, entonces la ausencia de oxígeno es condición
suficiente para ausencia de combustión.
4. Si C es una condición necesaria para D, entonces la ausencia de D es condición necesaria para la
ausencia de C.
Si el oxígeno es condición necesaria para la combustión, entonces la ausencia de combustión es una
condición necesaria para la ausencia de oxígeno.
Si ser el más rápido en una carrera es condición necesaria para ganar una carrera, la ausencia de
ganar una carrera es condición necesaria para no ser el más rápido.
5. Si A es una condición suficiente para B, entonces la ausencia de A es una condición necesaria
para la ausencia de B.
Si una buena nota es condición suficiente para el aprendizaje, entonces la ausencia de una buena
nota es condición necesaria para la ausencia de aprendizaje.
Si cortarse es condición suficiente para sentir dolor, entonces la ausencia de herida es condición
necesaria para la ausencia de dolor.
6. Si C es una condición necesaria para D, entonces la ausencia de C es una condición suficiente
para la ausencia de D.
Si el oxígeno es condición necesaria para la combustión, entonces la ausencia de oxígeno es
condición suficiente para la ausencia de combustión.
Los métodos de Mill son unos procedimientos para descubrir y comprobar las condiciones que son
suficientes y/o necesarias para la ocurrencia de un efecto. Mill propone cinco métodos para guiar la
búsqueda científica de las regularidades.
El procedimiento general consiste en clasificar en unas tablas las observaciones sobre
la presencia y ausencia de las supuestas condiciones para la ocurrencia de un fenómeno
con el fin de eliminar aquellas circunstancias que no varían regularmente con el
fenómeno observado.
La propiedad o efecto que se analiza se llama propiedad condicionada (E) y las
propiedades que son condiciones necesarias o suficientes de una propiedad
condicionada se llaman posibles propiedades condicionantes.
Los métodos consisten en la observación de un nº de ocurrencias en las que se encuentran ausentes
o presenten las condiciones que se supone pueden ser suficientes o necesarias para producir E.
El método directo de concordancia identifica las condiciones NECESARIAS y requiere la búsqueda de
la ocurrencia de la propiedad condicionada en un abanico de circunstancias.
Se requiere la construcción de una tabla en la que se recoge un número x de
ocurrencias en las que las propiedades condicionantes pueden estar presentes o
ausentes cuando se produce la propiedad condicionada.
Se reúne un nº variado de circunstancias diferentes en las que ocurre el fenómeno
(propiedad condicionada o E), para ir eliminando aquellas propiedades condicionantes
que se encuentren ausentes cuando el fenómeno se encuentre presente.
Así se identificará la propiedad condicionante que es condición necesaria del
fenómeno observado. El principio de eliminación enuncia que “cualquier propiedad
que se encuentre ausente cuando el efecto está presente no puede ser una condición
necesaria”.
Ejemplo: La propiedad condicionante C es la condición necesaria, dado que D se elimina en la
primera ocurrencia, la B en la segunda y la propiedad A se elimina en la tercera ocurrencia
El método de diferencia se utiliza para identificar las condiciones SUFICIENTES pero cuando las
propiedades condicionantes se encuentren PRESENTES en una ocurrencias determinada (una
ocurrencia particular señalada por *).
Ejemplo 1: la propiedad condicionante D es la condición suficiente.
Pero en el ejemplo 2, en la ocurrencia determinada * no se puede identificar una única condición
suficiente (en A, C y D son 3 P) y por tanto se procede a la observación de más ocurrencias de
acuerdo con el principio de eliminación del método inverso de concordancia. Requiere como mínimo
la observación de dos ocurrencias: una en la que el fenómeno investigado esté presente y otra en la
que falte. La propiedad B sólo se elimina en ocurrencia particular *, sin embargo en la 1 y según
método inverso de concordancia se elimina la propiedad A y en la ocurrencia 2 la D. De esta forma,
la C se identifica como condición suficiente.
El método combinado identifica las condiciones tanto SUFICIENTES como NECESARIAS. Tenemos el
método directo para las necesarias y dos para las suficientes.
El doble Método de Concordancia combina el Directo y el Inverso de Concordancia.
El Método Conjunto combina el Método Directo y el de Diferencia.
Ejemplo: en la tabla siguiente se aprecia cómo la propiedad condicionante C es la condición tanto
SUFICIENTES como NECESARIA. En la ocurrencia 1 se han eliminado las propiedades B y D, en la
ocurrencia 2 la propiedad A, en la ocurrencia 3 las propiedades B y D y en la 4 la A.
En todas sus variantes hay que tener en cuenta que sólo hay dos principios de eliminación:
1. una condición necesaria del efecto no puede estar ausente cuando el efecto está
presente, y
2. una condición suficiente del efecto no puede estar presente cuando el efecto está
ausente.
El principio de eliminación
enuncia que “cualquier
Identifica las condiciones propiedad que se encuentre
Método directo de concordancia
NECESARIAS ausente cuando el efecto está
presente no puede ser una
condición necesaria”.
El principio de eliminación es:
“una propiedad que se
Método inverso de concordancia Identificar las condiciones encuentre presente cuando el
Se juega con el efecto ausente SUFICIENTES efecto está ausente no puede
ser una condición suficiente”.
Ejemplo práctico
Supongamos que en el hotel hay un huésped con intoxicación y queremos averiguar cuál ha sido el
alimento que pudo ocasionar dicha intoxicación.
Se utilizará el Método Inverso de Concordancia y reducir así la búsqueda a dos platos a dos platos
principales y a dos postres.
Identifica la condición suficiente -causa- mediante la búsqueda en diferentes casos de
la ausencia tanto de las propiedades condicionantes -posibles causas- como de la
propiedad condicionada – efecto).
El principio de eliminación que subyace en este método es: una propiedad que se
encuentre presen cuando el fenómeno está ausente no puede ser una condición
suficiente del fenómeno.
Se seleccionan al azar los huéspedes que comieron en el hotel y que no presenten
síntomas. Se diseña una tabla y se les pregunta lo que han comido, podemos ir
eliminando las comidas que no son condición suficiente para la intoxicación.
Lo que encontramos es que todos no comieron pescado y es el único alimento seleccionado al azar
que éstos no han comido. Podemos identificar al pescado como condición SUFICIENTE de la
intoxicación.
Las inferencias inductivas se encuentran presentes en la categorización, en la comprobación de
hipótesis, en la generalización y especialización, en el razonamiento causal, en la detección de
contingencias, en el razonamiento probabilístico, en la solución de problemas, en la toma de
decisiones, en el razonamiento analógico y en el aprendizaje.
Las investigaciones psicológicas se han interesado en describir y explicar estos procesos inferenciales
basándose en la lógica. Sin embargo, los resultados experimentales obtenidos en las distintas tareas
de razonamiento deductivo e inductivo han puesto de manifiesto que existen unos sesgos o errores
sistemáticos.
Hay factores externos al SP que hacen que se centre en determinada información. Cuando se dice
que una información es saliente se está haciendo referencia a determinados aspectos que sobresalen
sobre los demás creando impacto sobre el sujeto (aunque no sean importantes).
Por ejemplo, los anuncios publicitarios captan la atención de los consumidores
haciendo uso de lo prominente de la información cuando se presentan por medio de
un modelo publicitario o autoridad reconocida, pero que nada tiene que ver con las
características del producto.
También es habitual recurrir a los números o a la tradición para presentar el producto o una postura.
El mero hecho de que la mayoría consuma o asuma una postura, porque
tradicionalmente se ha consumido, influye sobre los sujetos, sin que éstos consideren
la validez o fuerza de los argumentos.
Este impacto ejercido por la información irrelevante para el proceso de razonamiento puede estar
determinado por el interés emocional que tiene, por la concreción de los datos, por el carácter
vívido de la información, por la proximidad temporal y espacial entre los aspectos irrelevantes de la
información y el argumento o por su familiaridad.
Es frecuente recurrir a una autoridad en la materia para defender una postura sin más evidencia que
la persona en cuestión o acreditar o desacreditar la información de una fuente por la simple
asociación con otra.
En algunas ocasiones sin evidencia objetiva suficiente puede ser apropiado confiar en
esa fuente. Sin embargo un argumento defendido por una fuente de información con
una credibilidad baja no hace que el argumento sea inválido y tampoco a la inversa.
Existen errores sistemáticos debido a la propia estructura sintáctica del problema. En los problemas
con silogismos categóricos se ha encontrado el efecto atmósfera y el sesgo de la figura del silogismo.
El efecto atmósfera manifiesta que la cantidad – universal o particular - o la polaridad
– afirmativa o negativa- de las premisas influyen sobre las condiciones que dan los
sujetos.
Ejemplo: cuando las premisas contienen al menos una premisa particular, la
conclusión dada por los sujetos es también particular y en el caso contrario universal y
cuando la premisa es negativa la conclusión es negativa y afirmativa en el caso
contrario.
En relación con el efecto de la figura se ha encontrado que el grado de dificultad y el
tipo de conclusión dependen de la posición del término medio en cada una de las
premisas.
En el sesgo de emparejamiento (razonamiento condicional) se observa que las respuestas de los
sujetos coinciden con los enunciados del problema de la tarea de selección de Wason.
Se presentan 4 tarjetas que contienen el antecedente del condicional por una cara y
el consecuente por la otra. La presentación de la tarea va acompañada de un
enunciado condicional en forma de regla y se pide a los sujetos que giren la tarjeta o
tarjetas necesarias para confirmar o falsar esa regla.
Ejemplo: “si hay un cuadrado azul a la izquierda, entonces hay un círculo rojo a la
derecha” y se pide a los sujetos que comprueben si el condicional es verdadero o
falso.
La mayoría eligen las tarjetas que exhiben los dos términos del enunciado: cuadrado
azul y círculo rojo.
Wason interpretó estos resultados como un sesgo hacia la confirmación de aquello que venía
expresado por la regla.
Evans y Lynch, sostienen que este sesgo está basado en el emparejamiento y cuestionan que ésta sea
una tendencia hacia la confirmación basándose en sus resultados con la negación de los términos.
El mismo problema con términos negativos sería “Si hay un cuadrado azul a la
izquierda, entonces no hay un círculo rojo a la derecha” - negación del consecuente –
o “Si no hay un cuadrado azul a la izquierda, entonces hay un círculo rojo a la
derecha” - negación del antecedente.
En este caso se observa que los sujetos simplemente eligen los términos
mencionados en la regla (cuadrado azul y círculo rojo) y no persiguen la confirmación
de la misma. En el caso de la negación del consecuente, la elección de los sujetos
coincide con la falsación, y en el caso de la negación del antecedente siguen eligiendo
los mismo términos mencionados pero su elección no coincide con las reglas de la
lógica.
Este sesgo de emparejamiento pone de manifiesto la relevancia que adquieren los términos
expresados en el condicional y las dificultades que tienen los sujetos con la negación lógica y
lingüística, mostrando preferencia hacia el procesamiento de información positiva.
Hay casos en donde la información relevante no se puede recuperar fácilmente y por ello se
comenten errores. Sin embargo, la disponibilidad de la información tampoco garantiza que se
seleccione.
El problema clásico de Kahneman y Tversky: “el problema de los taxis” evidencia lo dicho. Se pide a
los sujetos cuál de las dos compañías de taxis pudo haber estado involucrada en un accidente antes
la situación:
Experimento: En una gran ciudad hay dos compañías de taxis con distintos colores:
taxis azules y taxis verdes. Un 85% son taxis azules y un 15% son taxis verdes. Hubo un
accidente y el taxi se dio a la fuga. Un testigo asegura que el coche era un taxi verde.
En una prueba de memoria se encuentra que el testigo puede recordar
correctamente el color de los coches en un 80% de los casos y que se equivoca en el
20%.
Resultados: La mayoría de los sujetos consideraban que el responsable del accidente
había sido un taxi verde. Sin embargo con los datos presentados la probabilidad es
mayor para el taxi azul: 0,85 x 0,20 = 0,17 azul. Existe un 85% de estos, por el 20% de
posibilidad de error, nos daría 17% 0,80 x 0,15 = 0,12 verde. En este caso el 80% de las
veces no se equivoca pero solo hay un 15% de taxis verdes, y así sería probable que el
12% de posibilidades fuera el taxi verde.
A pesar de haber presentado la información relevante, los sujetos se fían más del testigo que de los
datos. Nos topamos con otro factor que es la relevancia. No sólo debe estar disponible la
información sino ser relevante para la situación. En este experimento el rendimiento mejora en las
tareas cuando los sujetos establecen relaciones causales.
Por ejemplo, si se dijera que el número de taxis es igual y que el 85% de los taxis que
tienen accidentes son azules, entonces los sujetos se fijan en las probabilidades a
priori a la hora de dar sus respuestas.
Los errores de razonamiento también pueden deberse por el conocimiento propio o de sus creencias,
haciendo que se razone a favor de ellas.
Se le da más importancia a la evidencia que vaya en consonancia con nuestras
creencias y se suele ignorar o minimizar aquello que las contradice. Se selecciona
sesgadamente la evidencia a favor.
Existe la tendencia también a buscar explicaciones y aceptarlas muy fácilmente cuando
éstas están en consonancia con nuestras creencias, sin la consideración objetiva de los
datos que las apoyan.
Además se puede alcanzar una conclusión precipitada si encaja con nuestro sistema
de creencias.
El sesgo de confirmación manifiesta la tendencia hacia la búsqueda de información que sea
consistente con nuestro sistema de creencias, expectativas o hipótesis y a descartar aquella
información que pueda falsarlas.
Ejemplo 1: en el razonamiento probabilístico se encuentra cuando los sujetos tienen
que evaluar el diagnóstico de una enfermedad en función de los resultados positivos de
una prueba. Los sujetos se basan en la diagnosticidad de la prueba para la primera
enfermedad hipotética, sin considerar cuál es la probabilidad de que los resultados
también sean positivos para el diagnóstico de otras enfermedades alternativas.
Ejemplo 2: también está este sesgo en tareas de inducción en las que el sujeto tiene
que descubrir una regla. Por ejemplo en la de “Tarea 2 4 6” donde se pide descubrir
cuál es la regla de la serie. El experimentador tiene en mente una regla muy general
como “cualquier serie de números ascendentes”. Es habitual observar que los sujetos
se empeñan en ir comprobando reglas, como los múltiplos de 2. Y ante las respuestas
de los sujetos el experimentador dirá siempre “sí” puesto que cumplen la regla
general, pero la del sujeto no es la del experimentador. Los sujetos sólo generan reglas
con series positivas de acuerdo con la regla y no generan alguna que pueda falsar sus
hipótesis.
En general, se adoptan las estrategias que persiguen confirmar y no falsear e incluso se muestra la
persistencia inadecuada al seguir defendiendo el argumento en el que se cree a pesar de la evidencia
contraria. No obstante, Evans indica que ello puede deberse a una restricción propia del sistema que
se centra en procesar información positiva y no a una tendencia hacia la confirmación.
Por ello, cree que este sesgo de confirmación pone de manifiesto las dificultades para
comprender las negaciones lingüísticas y lógicas. Este sesgo refleja la predilección del
sistema por lo positivo. Es un sesgo bastante persistente que centra la atención en
una hipótesis en particular buscando activamente la información positiva.
No obstante (Mynatt, Doherty y Tweney), los sujetos muestran cierta sensibilidad
ante la información que falsa sus hipótesis cuando ésta se presenta expresamente.
Cuando se presentan reglas con contenido, los sujetos intentan verificar las hipótesis si se
encuentran en consonancia con su sistema de creencias y tienden a desconfirmarlas cuando piensan
que pueden no cumplirse en todos los casos. El contenido y el contexto de los problemas influyen en
el razonamiento. Se distinguen tres tipos de contenidos:
1. Contenido abstracto. En el razonamiento condicional “Si p, entonces q”, se formularía “Si
A, entonces 7”
2. Contenido conocido, pero arbitrario. Se formularía como “Si es un artista, entonces pertenece
a la sociedad de amantes del cine”.
Lleva términos de uso cotidiano, pero que no tienen relación directa con los
conocimientos o sistemas de creencias de los sujetos.
3. Contenido familiar: “Si eres psicólogo cognitivo, entonces conoces los principios de
razonamiento humano”.
Este sí mantiene una relación directa con la experiencia del sujeto.
Por contexto se entiende el marco o el escenario en el que se sitúa el problema de
razonamiento. El contexto se hace explícito en el diseño de las tareas experimentales
mediante el uso de instrucciones o descripciones verbales o escritas que acompañan al
problema.
El contenido familiar puede en algunos casos facilitar el rendimiento y en otros sesgar sus respuestas.
En las tareas de silogismos categóricos es habitual presentar un argumento deductivo
y pedir a los sujetos que juzguen su validez (que viene determinada por la estructura
sintáctica no por contenido). La verdad de la conclusión se juzga en función de la
verdad supuesta de las premisas.
Sin embargo, cuando las conclusiones entran en conflicto con las creencias, se
aceptan como válidos argumentos que no lo son, pero cuyas conclusiones están en
consonancia con el sistema de creencias y se rechazan otros que siendo válidos
muestran una conclusión discordante.
Ejemplo: silogismo categórico que utiliza efecto de la atmosfera para tratar los sesgos debidos a la
estructura sintáctica del problema. Efecto atmósfera: cuando las premisas contienen al menos una
premisa particular, la conclusión es particular y en el caso contrario universal.
De acuerdo con este efecto los sujetos aceptan como válido el argumento por la atmósfera universal
de las premisas.
No obstante, rechazaríamos la validez del argumento si se dotara de la información que sigue:
Claramente vemos, como el efecto del contenido ha facilitado el rendimiento de los sujetos al
eliminar el sesgo que produce la propia estructura formal del argumento. Ahora bien, las creencias
previas también pueden producir sesgos. Cuando la conclusión del argumento se encuentra a favor o
en contra del sistema de creencias de los sujetos, éstos lo consideran válido o no, respectivamente.
Entre el sesgo de confirmación y el de creencias previas existe una estrecha relación, aunque es una
dirección distinta.
El de confirmación pone de manifiesto la búsqueda de evidencia para confirmar
hipótesis, el de creencias previas, muestra que los sujetos evalúan la evidencia
sesgándola hacia la conclusión que sea congruente con estas creencias.
Según el modelo del escrutinio selectivo los sujetos parecen examinar la conclusión y si
ésta es plausible, entonces tienden a aceptarla sin analizar la validez del argumento.
Ejemplo: Todos los animales son seres vivos Todos los perros son seres vivos Todos los
perros son animales. En este caso la conclusión es plausible y por lo que no nos
molestamos en comprobar si sigue de las premisas o no, aceptándola sin más.
En el capítulo de razonamiento condicional se verá que el mero hecho de razonar sobre contenidos
conocidos no produce en todos los casos los efectos de facilitación esperados. Esto ha provocado que
los factores de contenido se asocien al contexto también, entendiendo que éste va vinculado con los
aspectos pragmáticos del razonamiento. Los efectos de facilitación vendrían explicados por la
vinculación que los sujetos hacen entre el problema y los objetivos o metas hacia las que encaminan
el razonamiento.
Ejemplo: en el condicional se proponen unos esquemas de razonamiento para
situaciones de regulación, tales como permisos (Cheng y Holyoak). Cuando se
presenta el problema como una situación de permiso, “Si limpias tu habitación,
entonces irás al cine”, el sujeto entenderá el contexto y lo vinculará con metas u
objetivos anteriores que pondrán en marcha un conjunto de inferencias correctas.
También se ha encontrado que el contenido puede inducir a sesgos cuando es representativo del
dominio, pero irrelevante estadísticamente. Los juicios por representatividad (capítulo razonamiento
probabilístico) pueden inducir a sesgos al basarse en la similitud entre conocimiento del sujeto y
aquello sobre lo que está razonando.
Ejemplo: “problema de los dos hospitales” de Kahneman y Tversky, los sujetos ignoran
el tamaño de la muestra al considerar que la información presentada es
representativa como para que la probabilidad de nacimientos de niños y niñas sea
igual en un hospital grande frente a uno pequeño.
La ley de los grandes números pone de manifiesto que cuanto mayor sea el número de
observaciones más probable es que el resultado se aproxime al resultado real y
cuanto menor sea es más probable obtener resultados extremos.
Para resumir, hay que indicar que los sesgos son una consecuencia directa de las restricciones o
limitaciones propias del sistema que, por otra parte, es un sistema eficaz y adaptado al medio en el
que se encuentra inmerso. Simon señala que en pocas ocasiones el sistema de procesamiento
cuenta con la estrategia exacta para resolver el problema que tiene delante y debe aproximarse a la
solución por medio del “principio de la racionalidad restringida”. Todo ello hace que en el marco
teórico del razonamiento humano, se siga debatiendo sobre racionalidad o irracionalidad del
pensamiento.
4. El concepto de racionalidad
Cuando la psicología se plantea estudiar experimentalmente el razonamiento consideró que la lógica
era el marco de referencia para explicarlo. Sin embargo, los resultados de las investigaciones
manifestaron que los sujetos no siempre se ajustaban al criterio del razonamiento lógico ya que
factores ajenos a los principios lógicos ejercían una fuerte influencia. Esto conducía a un resultado
incómodo para la psicología, pues entonces había que aceptar que somos irracionales.
Desde la hipótesis básica de los modelos computacionales, el SP está preparado para la manipulación
de símbolos, que implica la formalización de unas estructuras simbólicas susceptibles de ser
interpretadas en función de los conceptos de uso común que utilizamos para conceptualizar el
dominio. La psicología del pensamiento se entendería como el estudio de las estructuras simbólicas y
de los procedimientos para su manipulación y la lógica sirve como modelo normativo.
Los errores encontrados han provocado que se consideren irrelevantes los principios lógicos para el
razonamiento humano. Los resultados experimentales descubren ilusiones cognitivas o comprueban
la formación en lógica de los sujetos, asignando falacias dónde no las hay. Otros enfoques sostienen
que en la explicación de los sesgos se ha subestimado el papel de la lógica. El problema principal
radica en las distintas posturas teóricas que se han adoptado en la explicación de los errores.
Las que adoptan un enfoque sintáctico entienden que los errores no demuestran fracaso de razonar
lógicamente, sino la existencia de determinadas condiciones que conducen a error, no que no
puedan razonar. Los errores ocurren cuando la competencia lógica se traduce en actuación.
El error estaría en la comprensión de las premisas y las respuestas sesgadas pueden
explicarse en función de la interpretación de las mismas. Henle sostiene que se
pueden cometer errores en la interpretación del argumento (premisas y conclusión) u
omitir o añadir una premisa al argumento.
Hay varios modelos cognitivos que se generaron en consonancia con la hipótesis de un sistema
deductivo formal. Aunque con variaciones específicas, en todos subyace la idea de una
representación simbólica de las premisas y la aplicación de unas reglas lógicas y abstractas con el fin
de obtener una conclusión. Los sesgos del razonamiento pueden explicarse por fallos en el proceso
de interpretación o por la capacidad limitada de la memoria de trabajo, intentando mantener la
viabilidad de la hipótesis de un sistema lógico.
En líneas generales, la perspectiva sintáctica asume que existen dos componentes fundamentales en
el razonamiento:
1) Un componente deductivo que comprende reglas sintácticas libres de contenido.
2) Un componente de interpretación que establece la correspondencia entre los
enunciados del lenguaje y el conjunto de reglas sintácticas.
Este conjunto de reglas sintácticas no tienen que ser equivalentes a las reglas lógicas,
sino que comprendería el repertorio de reglas de inferencia que utilicen los sujetos de
forma natural. Así, si el contenido y contexto influyen al interpretar, la actuación de
los sujetos se explicaría por su adherencia a las reglas sintácticas aplicadas a dicha
interpretación.
La facilitación con contenido familiar puede deberse a la facilidad con la que la
información se ha procesado por el resto de los componentes del sistema como la
representación y el mantenimiento de la información en la MT.
La tarea de Wason ha sido base de numerosos trabajos. Pocos fueron capaces de responder
correctamente a la tarea, inicialmente 4%, y luego de entre 6-33%.
El resultado mostró que el contenido del material presentado incide sobre el
rendimiento, facilitándolo cuando es contenido concreto. No obstante, no todos los
contenidos concretos producen facilitación y algunos autores indican que si existe
experiencia previa se da mayormente esta facilitación.
Esta inconsistencia de los efectos del contenido con problemáticas para las teorías
sintácticas ya que el sistema deductivo no puede interpretar el significado en un
contexto concreto, ni decidir si las premisas tienen o no sentido, ni buscar datos para
la solución. El sistema sintáctico sólo proporciona formas y reglas que permiten
organizar y analizar los datos.
Esta polémica ha provocado que los factores de contenido vayan asociados al contexto que se
vincula a su vez con los aspectos pragmáticos del razonamiento. La teoría de los esquemas de
razonamiento pragmático propone que los sujetos cuentan con reglas de razonamiento que son
específicas del dominio.
Estos dominios no son concretos sino que tienen un nivel intermedio de abstracción
de forma que los esquemas se aplicarían a un conjunto de acontecimientos, tales
como las situaciones de regulación (permiso, contratos sociales, advertencias,...).
Los efectos de facilitación se explican por la vinculación que se hace entre el problema
y los objetivos o metas a las que se dirige el razonamiento.
Existe polémica sobre la racionalidad ya que supone distinguir entre estructura lógica y contenido
(no lógico) y entre comprensión y reglas sintácticas. Smedslund nos indica que las explicaciones del
modelo lógico son circulares pues sólo se puede deducir la naturaleza de la interpretación de una
regla si se asume que se razona de forma lógica y sólo se puede descubrir que se razona lógicamente
si sabemos que ha interpretado la premisa. La teoría de la competencia lógica supone un sistema
lógico hipotético, pero al igual que en las teorías de la competencia lingüística, el modelo de
competencia no es una teoría que pueda verificarse de forma empírica. Los factores de actuación no
se pueden especificar completamente ya que dependen de las características específicas del
problema. La situación experimental no garantiza que los sujetos comprendan los requisitos de la
validez deductiva, ni que la comprensión de las premisas enunciadas coincida con la del
experimentador.
Se razona de acuerdo con un procedimiento semántico adecuado, pero limitado por la capacidad de
la memoria de trabajo. Según estos autores, la racionalidad viene reflejada en el metaprincipio
semántico de validez: “Una inferencia es válida sólo si su conclusión no puede ser falsada por un
modelo de las premisas”.
Sin embargo, se ha considerado este enfoque semántico tan formal como el sintáctico
y que la teoría de los modelos mentales se puede entender como un modelo mental
lógico en el que se describe el procedimiento formal para la búsqueda semántica de
contraejemplos.
El procedimiento semántico (método de la Tª de los modelos) analiza el significado de
los operadores lógicos y el sintáctico (método de la Tª de la demostración) utiliza las
reglas de inferencia para delimitar este significado, pero ninguno de los dos considera
el contenido del argumento.
Si la racionalidad se explica cómo competencia semántica es necesario recurrir al conocimiento del
sujeto y a los procesos para la recuperación del mismo. Algunas perspectivas consideran este
requisito. Los esquemas de razonamiento pragmático plantean que reglas y contenido se almacenan
conjuntamente y están organizados como esquemas, los heurísticos de Tversky y Kaheman para
explicar los sesgos de razonamiento probabilístico aluden a los procesos de recuperación y
organización del conocimiento aunque no se comprometen con una representación explícita del
mismo.
Oaksford y Chater apuntan la interpretación alternativa a la teoría de los Modelos Mentales basada
en los procesos de recuperación de memoria en el marco de los modelos conexionistas. Aquí se
explicaría la búsqueda de contraejemplos por la bondad de ajuste entre el patrón de activación
generado por el argumento y el conocimiento representado por el sistema. Además, la propia
generación de los modelos mentales de las premisas depende del conocimiento.
Por último, algunas propuestas consideran la coexistencia de los dos sistemas de razonamiento
(Procesos duales). La consideración de la coexistencia de los procesos duales no es nueva y su
ámbito de estudio comprende procesos como el aprendizaje, la atención, razonamiento,…
En estas propuestas se contrastan los procesos rápidos, inconscientes y automáticos frente a los
lentos, conscientes y controlados.
Stanovich distingue entre:
Sistema1 (procesamiento rápido e implícito – evolutivamente más antiguo y
computacionalmente más rápido y potente) y,
Sistema2 (procesamiento explícito con respuestas que pueden satisfacer criterios
normativos de la racionalidad– moderno, lento y con mayor demanda de recursos).
Sloman propone un razonamiento reflectante que es un sistema conexionista cuyo cómputo refleja
estructuras de semejanza y relaciones de contigüidad y un razonamiento deliberado (sistema de
representación simbólica basado en reglas).
Ventaja: permite que los procesos de razonamiento sean rápidos y económicos y no
hace falta un proceso de análisis ya que su resultado ya forma parte de la propia
representación.
Desventaja: depende de la experiencia anterior y del contexto. El sistema basado en
reglas requiere procesos más lentos y costosos, aunque su aplicación es más general y
no depende del contexto.
Ambos sistemas de razonamiento tienen funciones distintas:
El sistema conexionista aprovecha los recursos de procesamiento al obtener sus
inferencias el conocimiento representado y que puede generalizarse a otros
semejantes.
El de reglas utilizará sus recursos de procesamiento para las situaciones concretas
novedosas y en las que sea necesaria la precisión de las inferencias.
Esta distinción, como señalan los autores, es una forma de describir el razonamiento pero no una
propuesta psicológica. La distinción psicológica la hacen entre el tipo de procesamiento:
Implícito (sistema conexionista en el que se representa el conocimiento tácito
dependiente de la experiencia).
Explícito (limitado por la capacidad de memoria de trabajo, por un procesamiento
secuencial y costoso y por depender del sistema implícito).
En este sentido la propuesta también comprende la coexistencia de dos tipos de
razonamiento.
Evans también señala la distinción entre estos dos procesos, intentando delimitar dos tipos de
funciones en el razonamiento:
Heurísticos (seleccionan lo relevante - implícito) y,
Analíticos (operan sobre la información seleccionada – explícito).
Evans se inclina por la Teoría de los Modelos Mentales y sostiene que esta teoría
puede constituir una teoría del razonamiento en general, tanto deductivo como
inductivo, y que el metaprincipio semántico de validez tiene mayor realidad
psicológica.
Críticas:
– Se sostiene que la teoría de los Modelos Mentales no está exenta de problemas y tanto ésta
como la basada en reglas podrían ser valiosas para explicar el razonamiento de distintos
sujetos o del mismo en distintas situaciones.
– Se critica la distinción entre los dos tipos de Racionalidades considerando que la racionalidad2
no aporta, ni ha aportado buenos modelos de racionamiento.
Se considera el concepto de racionalidad1, investigando los procesos de razonamiento en tu
interacción con el mundo real ya que experimentalmente el razonamiento no ocurre
aisladamente sino que depende del contenido, el contexto y las metas.
– Se defiende que no hay dos tipos de racionalidad, sino un solo sistema que puede ajustarse al
modelo normativo si las circunstancias pragmáticas son adecuadas.
– Sigue existiendo polémica con respecto al modelo normativo del sistema explícito (R2).
– No hay una especificación del procesamiento implícito, ni criterio para establecer el grado de
eficacia que se espera del sistema implícito (R1).
– La limitación entre ambos sistemas es difusa: puede haber metas que el sistema explícito se
proponga alcanzar y puede haber inferencias conforme a un modelo normativo que sean
implícitas.
– No se concreta la interacción entre ambos sistemas, ni se determinan las circunstancias que
ponen a uno frente a otro.
Seguimos con una idea CIRCULAR DE RAZONAMIENTO: Si se considera que el sujeto resuelve
correctamente la tarea de acuerdo a modelo normativo, el razonamiento es explícito. Será implícito
si el sujeto tiene experiencia con el problema como para que se haya automatizado lo que fue en su
día explícito. Si se equivoca pero hay metas personales entonces es razonamiento implícito o
explícito con problemas de MT.
1. Introducción
La “inducción categórica” constituye uno de los procesos básicos del funcionamiento cognitivo por
medio del cual las personas reconocen y clasifican su entorno de clases. Estas categorías se
consideran los cimientos o estructuras a partir de las cuales vamos a poder seguir clasificando,
interpretando, generando inferencias y comunicándonos con todos aquellos que compartan una
estructuración categórica en común.
Entre las varias funciones de la inducción categórica son fundamentales dos para las diferentes
perspectivas teóricas que existen sobre el tema:
El ahorro cognitivo que supone la agrupación de las experiencias particulares en
clases. Los sujetos extraen aquello que puede ser común a un conjunto de objetos o
situaciones.
Ejemplo: todas las experiencias con los tipos de manzana (reineta, golden,
macintosh,...) se agrupan bajo la categoría de “manzana”.
La categorización constituye una de las formas paradigmáticas de la inferencia
inductiva que permite agrupar las experiencias particulares en una clase general.
La posibilidad que ofrece la pertenencia categórica de inferir más información que la
que haya sido presentada en una situación determinada.
Permite aplicar a un nuevo ejemplar de la categoría, información conocida sobre lo
que previamente ya ha sido agrupado.
Ejemplo: encontrándonos con un nuevo ejemplar categorizado como manzana,
podemos generar unas expectativas sobre este objeto, sin necesidad de comprobarlo,
como por ejemplo que sea comestible y crezca en un árbol.
En el capítulo se trata el proceso de inducción categórica como el proceso mediante el cual se
agrupan en un conjunto varios ejemplares particulares. Se analiza qué hace que un conjunto de
objetos se agrupan en una categoría y cómo se realiza.
Primero un breve análisis de los principios estructurales que han sido propuestos para
estudiar cómo las experiencias particulares se agrupan en clases y la combinación
conceptual.
Después principios generales que comparten los enfoques sobre el proceso de
categorización.
Por último, dos modelos computacionales alternativos.
2. La estructuración conceptual
En una de las concepciones más extendidas sobre cómo se produce la inducción categórica resalta el
papel que desempeña el conocimiento que se tiene sobre las propiedades de los ejemplares, de modo
que la descripción de estas propiedades permite averiguar cómo los ejemplares se agrupan en
clases. De esta forma encontramos que las categorías se han definido por sus propiedades y sus
reglas de formación se refieren a las relaciones que se establecen entre estas propiedades.
Las principales teorías psicológicas hasta principios de los 70 compartían los supuestos del enfoque
clásico, pero pronto los resultados experimentales subrayaban la falta de especificación de las
propiedades definitorias de algunos conceptos.
No había una definición consensuada que agrupara al conjunto de propiedades
individualmente necesarias y conjuntamente suficientes para los conceptos
“naturales”, además muchas veces no podían establecer los límites entre un concepto
y otro tan claramente como cabría esperar.
Los conceptos no se ajustaban fácilmente a una representación por definiciones. Es
un enfoque demasiado restrictivo que no incluye las excepciones ni los ejemplares con
limites imprecisos. Si se intenta solucionar con una definición más general entonces la
categoría pierde poder discriminatorio.
El uso que hacían los sujetos de los conceptos también era contrario a los principios defendidos por el
enfoque clásico. En investigaciones de Rosch, se encuentra que algunos ejemplares e consideraban
más típicos o más representativos del concepto que otros.
No todos los ejemplares de una categoría eran iguales, aunque la igualdad era lo
esperado de acuerdo con las propiedades definitorias. Ejemplo: “Petirrojo”, era
miembro más típico de categoría “ave”, que una “Gallina”.
Además, los efectos de tipicidad permitían predecir el comportamiento en una amplia
variedad de tareas. Ejemplo: si se pide a los sujetos si es o no un ejemplar de una
categorías, las R son más rápidas con ejemplares típicos.
Se aprender primero los ejemplares típicos y en tareas de producción de categorías se
recuperan antes.
Además, este enfoque ofrece una explicación de la estructuración conceptual en niveles jerárquicos:
– Nivel supraordenado: grado más alto de generalidad. Ejemplo: fruta.
– Nivel medio básico (intermedio): donde se ubicaría el prototipo. . Ejemplo: concepto
manzana. Comprendería el mayor número de propiedades que comparten los
ejemplares de una categoría y el menor nº de propiedades de otras categorías de
contraste.
– Nivel subordinado: es el más concreto. Ejemplo: manzana reineta.
Malt y Smith presentan las puntuaciones de tipicidad que se obtuvieron cuando los sujetos
evaluaban en una escala de 1 a 7 varios ejemplares de los conceptos fruta y ave.
Resultados: existen importantes variaciones en las puntuaciones de tipicidad de los
ejemplares. Dentro de las frutas la manzana sería el más típico (seguido de
melocotón, pera, uva, fresa,...) y el menos calabaza. Dentro de aves: petirrojo, pájaro
azul, gaviota,... el menos pingüino.
Los resultados de este estudio cuestionan la adecuación del enfoque clásico al poner
de manifiesto que no todos los ejemplares eran equivalentes en cuanto a su
pertenencia categórica.
Los datos ponen de manifiesto también que los efectos de tipicidad parecen deberse
a las propiedades no necesarias, cuestionando la viabilidad del enfoque clásico de la
categorización.
Datos: se representa una tabla con diez ejemplos de orden decreciente de tipicidad con algunas
propiedades dadas por los sujetos para los ejemplares. A cada propiedad se le da una puntuación
que es igual al número de ejemplares que tienen esa característica. La suma de estas puntuaciones
constituye su puntuación de parecido familiar.
La puntuación de parecido familiar es una medida directa de la frecuencia de las
propiedades del concepto siendo los ejemplares con las puntuaciones más altas en
parecido familiar, los que comparten el mayor número de propiedades con los de su
categoría, y el menor con los miembros de otras.
Es una medida indirecta de la semejanza de un ejemplar con respecto a los otros
miembros de la categoría. Una puntuación alta significa que el ejemplar comparte
muchas propiedades con el resto de ejemplares y es similar a muchos de ellos.
El parecido familiar también se encuentra correlacionando con la tipicidad: los más
típicos presentan las puntuaciones más altas.
El orden de los ejemplares parece deberse a las propiedades no necesarias, pues la
propiedad necesaria “tener plumas”, contribuye de la misma forma en cada uno de
los ejemplares.
Sin embargo, este enfoque también tiene críticas sobre todo respecto a la determinación de la
semejanza.
Los resultados sobre los efectos de tipicidad dependen del criterio de semejanza, de
las categorías particulares que se han elegido y de los ejemplares que se han puesto a
prueba.
Ejemplo: dos ejemplares de dos categorías distintas, tales como “naranja” y “pelota”,
son más semejantes entre sí con respecto a la forma que dos ejemplares de una
misma categoría, como naranja, plátano o fresa.
También, Roth y Shoben encontraron que el prototipo puede ser muy diferente en función del
contexto.
Ejemplo: el prototipo de aves varía en función de los siguientes contextos: “El pájaro
voló sobre el mar (gaviota)” o “el cazador disparó a ese pájaro (una perdiz)”.
Aunque la propuesta de unas propiedades prototípicas es sumamente útil y
descriptiva de la categorización humana, no es suficientemente flexible como para
explicar la sensibilidad que muestran los sujetos a la variabilidad tanto de los
ejemplares como de las propiedades constituyentes de la categoría, a algunas
relaciones tales como el rango de valores y la correlación entre propiedades y al
contexto en el que se realiza la categorización.
Una postura conciliadora es la de los modelos mixtos al proponer que los sujetos cuentan con ambos
tipos de propiedades, pues en determinados casos se necesita recurrir a las propiedades definitorias
o diagnósticas.
Teniendo en cuenta que las prototípicas son más accesibles, éstas se utilizan para la
categorización y se recurre a las diagnósticas sólo en casos especiales, como cuando
hay que arbitrar una categorización dudosa.
Así, se entiende prototipo como heurístico por medio del cual se utilizan las
propiedades no necesarias y se recurre a las propiedades diagnósticas sólo en casos
muy determinados (categorizar a una ballena como mamífero).
Algunos autores como Armstrong y Gleitman y Gleitman sostienen que las
propiedades diagnósticas no tienen que ser necesariamente definiciones, no tienen
que ser ni fijas ni inamovibles.
3. La combinación de conceptos
Hasta ahora se ha tratado la categorización como centrada sólo en conceptos individuales aunque en
la experiencia la información conceptual se combina para producir conceptos como sofá cama,
sangre azul,… Esta capacidad infinita para la formación de conceptos complejos a partir de una base
conceptual finita se conoce como la composicionalidad del pensamiento. Ilustra la productividad y
flexibilidad del proceso de categorización y la dificultad de caracterizar monolíticamente al sistema
de procesamiento humano.
En la representación del conjunto de ambos conceptos, la intersección entre ambos no puede ser
mayor que sus conjuntos constituyentes.
Esta teoría permite calcular el grado de pertenencia categórica de un ejemplar por medio de la
función
CA: U [0,1]
Esta función de pertenencia expresa el grado, en un intervalo de entre 0 y 1, en que
un ejemplar x de un Universo de discurso (U) pertenece al conjunto difuso A.
Para el caso de la conjunción de dos conjuntos A y B, CA^B, se establece que el valor de
la pertenencia categórica de un concepto compuesto x es el mínimo de sus valores de
pertenencia a sus dos conjuntos constituyentes:
Sin embargo, Osherson y Smith, encuentran que las predicciones de la teoría de los conjuntos difusos
no se cumplían en los juicios de tipicidad sobre la conjunción de conceptos y proponen un modelo que
denominan Modelo de modificación selectiva para poder explicar el proceso de combinación
conceptual dentro del marco teórico de los prototipos.
Su desarrollo fue debido a querer explicar algunos resultados sobre los juicios de tipicidad de
conceptos compuestos por la combinación sustantivo-adjetivo. Los sujetos consideraban que la
tipicidad de un concepto compuesto era mayor que la de algunos de los conceptos simples que lo
constituían.
Resultado 1: si se evaluaba la tipicidad de un ejemplar particular de “sangre roja” éste
era mayor en el compuesto “sangre roja” que en “sangre” a secas.
Resultado 2: estos juicios de tipicidad eran mayores cuando los conceptos compuestos
reunían conjunciones incompatibles como “sangre azul” en las que los adjetivos
denotan un valor poco frecuente. El grado
de tipicidad de un ejemplar de “sangre azul” para el concepto compuesto “sangre
azul” frente al concepto simple “sangre” era mayor que la tipicidad de un ejemplar de
“sangre roja” frente al concepto simple “sangre”.
Resultado 3: al evaluar la tipicidad de un ejemplar compuesto que no pertenecía a esa
categoría, por ejemplo un ejemplar de “sangre roja” dentro de la categoría o
concepto “sangre azul”, se encontraba que la tipicidad era menor para el caso del
concepto compuesto que para el concepto simple (cuando se evaluaba con respecto a
“sangre azul” que cuando lo era respecto a “sangre”).
El procedimiento para la combinación conceptual asume que cada constituyente del concepto
compuesto desempaña un papel distinto y asimétrico, y éste no puede explicarse por la simple
intersección de las propiedades de sus conceptos constituyentes.
Ejemplo: la combinación entre “sofá” y “cama” no es igual en “sofá cama” que en
“cama sofá”.
El proceso de modificación selectiva parte de la identificación del concepto que desempeña la
función de sustantivo como marco conceptual sobre el que se va a operar y del concepto que
desempeña la función de adjetivo como aquello que opera o modifica.
Éste último pone en marcha la selección de propiedades que se ponen en
correspondencia entre ambos conceptos y las propiedades seleccionadas adquieren
mayor prominencia y valor diagnóstico.
Ejemplo: el concepto compuesto sofá cama, la propiedad sirve para dormir del
concepto cama (función adjetivo) se pone en correspondencia con esa propiedad o una
análoga del concepto sofá (también se duerme y descansa en ellos) haciéndola más
prominente y diagnóstica.
Los resultados de Medin y Shoben pusieron de manifiesto que el cambio en el valor de una de las
propiedades del concepto provocaba también el cambio en los valores de las propiedades
relacionadas.
Ejemplo: en el caso de evaluar la tipicidad de una “cuchara de madera” y una “cuchara
de metal”, los sujetos consideraban que la “cuchara de metal” era más típica del
concepto simple “cuchara” que la “cuchara de madera”, pero la “cuchara de metal”
era menos típica del concepto “cuchara grande” que la “cuchara de madera”.
De acuerdo con el modelo de modificación selectiva, la diferencia entre “cuchara de
metal” y “cuchara de madera” con respecto al concepto simple “cuchara” está en los
pesos de la dimensión tipo de material. El concepto compuesto “cuchara grande”
tendría un peso mayor en la dimensión tamaño que el concepto “cuchara” y cabría
esperar que si el concepto compuesto “cuchara de metal” es más típico del concepto
“cuchara” que el concepto “cuchara de madera” entonces también tendría que ser
más típico en el caso del concepto compuesto “cuchara grande” dado que en los dos
conceptos anteriores no hubo cambio en la dimensión tamaño. Sin embargo, se
encontró que había una interacción entre las dimensiones tipo de material y tamaño y
se reflejaba en los juicios de tipicidad.
4. El proceso de categorización
Una buena parte de las investigaciones se apoyan directa o indirectamente en la noción de
semejanza.
En las propiedades prototípicas habíamos comentado que determinados ejemplares
se consideraban más típicos o más representativos que otros, y cómo la tipicidad de
un ejemplar era una medida de la semejanza del ejemplar con su prototipo.
En el enfoque de los ejemplares se rechaza la idea de un prototipo y se defiende la
categorización como cómputo de la semejanza entre los ejemplares, en lugar de una
descripción unitaria de la clase como un todo. Este presenta la ventaja de no restringir
mediante una descripción abstracta los ejemplares que se agrupan en una categoría.
La categorización se entiende como el cómputo de semejanza entre las propiedades de
un ejemplar y el resto de los ejemplares. La semejanza es una función acelerada de la
proporción de propiedades que han sido emparejadas.
La semejanza parece ser lo que hace que una categoría pueda juntar un conjunto de ejemplares. Sin
embargo, es un término escurridizo.
Aunque los miembros de una categoría parecen semejantes es recursivo ya que
encontramos que muchas cosas parecen semejantes por el solo hecho de pertenecer
a la misma categoría.
La estimación que hacen los sujetos sobre la semejanza puede estar influida por el
propio conocimiento de que aquello que se compara pertenece a la misma categoría.
Según Tversky, la semejanza se define en función de las propiedades que son comunes y distintivas en
un conjunto de ejemplares, pero que se encuentran ponderadas en términos de su saliencia.
Depende de las ponderaciones de las propiedades, lo que nos permite explicar por qué la
ballena se agrupa a mamífero, a pesar del nº de propiedades en común que posee con los
peces. El conocimiento teórico ha permitido ponderar diferencialmente unas propiedades
frente a otras: se recurre a las propiedades diagnósticas para arbitrar esta categorización.
Tversky demuestra cómo las ponderaciones varían en función del contexto y de la tarea
experimental, dando lugar a que no existe una respuesta unívoca a la pregunta de cuán semejante es
un objeto con respecto a otro. Además, la ponderación de una propiedad tampoco es independiente
de la entidad en la que se encuentra inmersa.
Una propiedad es aquello que por consenso se ha validado en una muestra de sujetos.
Sin embargo, la consideración del conjunto implícito de contraste y el nivel de
especificidad elegido determinan las propiedades que se incluyan en las listas de los
sujetos. Estos no enumeran todo lo que conocen, sino las propiedades relevantes en
esa situación.
Frente a este principio general de semejanza, otros enfoques proponen que es el propio
conocimiento que tienen los sujetos y sus teorías ingenuas sobre el mundo lo que restringe la
construcción y organización categórica.
De esta forma se entiende que la categorización no se da aisladamente sino que los
conceptos se organizan circunscritos al conocimiento estructurado o teorías ingenuas
que tienen los sujetos y que les permite actuar coherentemente.
La categorización basada en el conocimiento organizado permite articular las
relaciones inter e intracategoriales de modo que la estructuración conceptual no se
reduzca a listas de propiedades sino que se encuentre inmersa en un cuerpo de
conocimientos con estructura y coherencia.
Bajo este enfoque de una categorización guiada por el conocimiento podemos incluir aquellas
teorías que asumen una representación de la información en estructuras de conocimiento, tales
como los esquemas, los guiones, los marcos o los modelos mentales.
Abelson ya consideraba que los esquemas o guiones pueden equipararse a una
categoría en la que también cabe el parecido familiar entre diversos ejemplares.
Ahora bien, en contraposición al prototipo, un esquema no necesita especificar los
valores de sus propiedades, sino que estas propiedades (variables) son genéricas y
adoptan valores en función del contexto.
La idea del proceso de inducción categórica será distinta dependiendo del tipo de
estructura que se propaga para representar el conocimiento, por ejemplo, la
aplicación de reglas, la generación de modelos mentales, el emparejamiento de
patrones,...
Las teorías que se explican a continuación explican la flexibilidad de este proceso y pertenecen al
marco cognitivo de los modelos computacionales, aunque sus supuestos básicos son diferentes.
Este enfoque busca la combinación de dos aspectos clave: 1) la flexibilidad del proceso de
categorización, y 2) su organización.
La flexibilidad es la ejecución en paralelo de un conjunto de reglas. Aquellas que
muestren ser efectivas serán ponderadas y aquellas que no se modificarán o
eliminarán.
La organización se representa por las agrupaciones de reglas interrelacionadas con
condiciones o acciones que se solapan.
Estos aspectos procedimentales son comunes a los de los sistemas de producción de
Newell y Simon, que se basan en el emparejamiento cíclico y la ejecución de reglas de
condición-acción. La actividad se puede describir en términos de un ciclo de tres
pasos:
El emparejamiento de los hechos y reglas para determinar cuáles satisfacen las
condiciones.
La selección de un subconjunto de las reglas emparejadas para que sean
ejecutadas.
La ejecución de las reglas seleccionadas para que lleven a cabo las acciones
específicas.
Estas reglas están organizadas en función de los patrones de las condiciones y acciones dando lugar a
dos tipos de organización:
– La organización implícita: si la acción que es consecuencia de una regla satisface la
condición de una segunda regla, entonces la ejecución de la primera conducirá a la
ejecución de la segunda.
– La organización explícita: la conexión entre reglas viene indicada directamente y las
reglas que se activan conjuntamente quedarán conectadas con el tiempo formando
un conjunto interrelacionado de reglas.
Cuando las categorías no son mutuamente excluyentes, las reglas correspondientes pueden activarse
simultáneamente, de forma que, por ejemplo, un animal peludo con cola, puede categorizarse como
perro, gato o ardilla.
Cuando son mutuamente excluyentes, pueden disparar acciones que entran en conflicto, se
establecen reglas que inhiben a las reglas conflictivas.
En la figura 3.4 se ve cómo se complementan las reglas de la figura anterior con las reglas inhibitorias
que enlazan directamente con los nodos C. Se representan con líneas discontinuas debajo de los
nodos y hacen referencia a reglas tipo “si el nodo C3 está activado, entonces el C2 está inactivo”. Así
se puede integrar de forma flexible la presentación de información parcial o fragmentada.
Además, cada una de las reglas cuenta con un valor de apoyo y una ponderación (figura 3.5).
En este caso concreto, la información que entra en el sistema apoya de igual forma a
los nodos representados. Sin embargo, la mayor ponderación previa del nodo 1 hace
que se considere la categorización tentativa.
Para evitar que el sistema genere generalizaciones poco plausibles, se cuenta con un
umbral de confirmación que establece un criterio para la variabilidad del conjunto de
propiedades que se están considerando. En este ejemplo no se alcanza el umbral de
confirmación por lo que se requiere mayor información para confirmar la
categorización.
Figura 3.5
En la concepción de este modelo se entiende que estas reglas son un conjunto de expectativas que
se consideran verdaderas siempre y cuando no se contradigan por la información presentada al
sistema.
En ausencia de mayor información, estas expectativas por defecto proporcionan el
mejor esquema para la situación actual.
La probabilidad condicionada de una categoría, considerando la observación de
algunos de los valores de las propiedades de un ejemplar, puede representarse
implícitamente por la fuerza de un conjunto de reglas. Estas reglas se organizan en
jerarquías por defecto que se ordenan por expectativas basadas en las relaciones
subordinadas y supraordenadas.
A través de la organización explícita (por medio de los marcadores que indican una
conexión directa) se enlazan las relaciones entre las categorías.
A través de estas jerarquías por defecto se pretende representar la incertidumbre sobre la que tiene
que operar el sistema: en un nivel las generalizaciones que son útiles y en otro nivel, la información
más específica de las excepciones representándose la uniformidad y la variabilidad que existe en el
ambiente.
Se asume también que los sujetos representan la variabilidad del objeto con respecto
a un tipo de propiedad. El número de ejemplares necesarios para alcanzar una
generalización será función de esta variabilidad.
Cuando existen pocos niveles excepcionales la generalización con pocos ejemplares
será automática. Cuando existen muchas excepciones, entonces serán débiles.
Este es un modelo conexionista que comparte con el anterior algunos principios generales, aunque
este enfoque conexionista parte de otros supuestos.
Uno de estos, en contraposición al paradigma simbólico clásico, se refiere al tipo de
arquitectura del modelo.
El sistema de procesamiento del enfoque conexionista se encuentra constituido por
redes de activación que comprenden un conjunto amplio de unidades de
procesamiento unidas por conexiones con pesos diferenciados.
Estos modelos describen los procesos mentales en términos de los patrones de activación en un
conjunto de unidades y no por unidades particulares.
Las unidades son entidades de procesamiento que asumen unos valores de activación
basados en la suma ponderada de lo que entra en el sistema y de las otras unidades
que están dentro del sistema.
El papel que desempaña una unidad se define por la fuerza de sus conexiones, tanto
excitatorias como inhibitorias. Las conexiones son el medio por el cual interactúan las
unidades.
Computan por medio de las conexiones entre unidades de procesamiento. Se les conoce como
modelos PDP o de procesamiento distribuido y paralelo, queriendo destacar que el procesamiento es
resultado de las interacciones que ocurren entre un número importante de unidades.
Aunque se podría pensar que las jerarquías por defecto (modelo anterior) son
análogas a las unidades, dado que ambas guían la entrada de información en la
búsqueda de buen ajuste, no hay en estos modelos conexionistas ningún análogo de
las variables o de los valores por defecto. No existe ninguna noción sobre una
estructura interna constituida y la aparente aplicación de reglas emerge de las
interacciones entre unidades de activación.
En este tipo de modelo el conocimiento adopta la forma de una red que satisface restricciones, y
éstas vienen impuestas por el contexto.
Aunque en el modelo anterior también las restricciones contextuales desempeñaban un papel
fundamental, en estos modelos no existen entidades representacionales que se correspondan con
conceptos, jerarquías por defecto o esquemas. Estas entidades se encuentran implícitas y emergen de
las interacciones de un amplio conjunto de restricciones.
El modelo que se va a analizar pertenece a los modelos de satisfacción de restricciones, que simulan
un proceso que satisface simultáneamente un nº considerable de restricciones y en el que no hay
solución única. Las restricciones están implícitas en el patrón de interacción y determinan los
estados del sistema, interactuando con la entrada de información.
La relevancia diferencial de las restricciones se refleja en la fuerza de conexión entre unidades. Cada
una de las cuales presenta también un sesgo, reflejando la probabilidad a priori de estar activadas. El
ajuste global que alcanza el sistema es la suma de los grados en que cada par de unidades contribuye
a la bondad del ajuste, más el grado en que las unidades satisfacen las restricciones de la entrada de
información.
En la tabla aparecen los términos presentados para que los sujetos evaluaran su pertenencia
categórica en una serie de habitaciones.
Algunos detalles a tener en cuenta, sería que las propiedades se encuentran distribuidas por toda la
red y la fuerza de sus conexiones hace que el patrón adquiera una configuración determinada.
Estas redes de activación son sistemas de procesamiento que pueden computar estadísticos sobre sí
mismas de forma que reflejen las fluctuaciones de ambiente del que se derivan sus datos.
El procesamiento ocurre por medio de la evolución de estos patrones de activación, que van
actualizando los pesos entre conexiones.
Cualquier configuración inicial con elementos activos e inactivos puede evolucionar hacia una
configuración estable partiendo de unos pesos iniciales.
Se asume que cada vez que entra una estimulación en el sistema, éste se mueve hacia un estado
estable en el que se alcanza una bondad de ajuste máxima (es un sistema reactivo guiado por los
datos).
Cuando entra información en el sistema, todas las unidades ajustan su activación con el fin de
satisfacer el mayor número posible de restricciones. Se podría pensar que el sistema se encuentra
continuamente esculpiendo una superficie en función de aquello que va recibiendo y de las
interacciones con el resto de unidades.
En el enfoque conexionista, y más concretamente en los modelos que se conocen como modelos de
satisfacción de restricciones, se reemplaza el marco simbólico por un nivel subsimbólico,
denominado así por encontrarse entre las conexiones neuronales y los cómputos mentales.
Conviene recordar que los constructos del cómputo mental son datos cognitivos que se explican por
un sistema próximo en su funcionamiento al nivel neuronal.
Los errores encontrados en la realización de estas tareas de razonamiento deductivo ha dado lugar a
distintos enfoques teóricos.
Éstos van desde aquellos que consideran irrelevantes los principios lógicos en la
explicación del razonar hasta los que defienden una lógica mental, que puede estar
más o menos suavizada por el concepto de “lógica natural”, pero en la que hay un
conjunto de reglas abstractas y en la que los errores no demuestran el fracaso de
razonar lógicamente, sino la existencia de determinadas condiciones que conducen al
error.
Según el tipo de argumento deductivo, las investigaciones se pueden agrupar en tres: razonamiento
silogístico categórico (proposiciones con cuantificadores), razonamiento silogístico transitivo
(proposiciones con relaciones internas) y el razonamiento proposicional (proposiciones con el
condicional, bicondicional, negación y disyunción).
Los silogismos también contienen enunciados de cantidad (universal: todos, ninguno; particular:
algún, algunos) y de polaridad (afirmativa o negativa) dando lugar a cuatro tipos de proposiciones:
universal afirmativa, universal negativa, particular afirmativa o particular negativa.
También hay que tener en cuenta la posición del término medio (B) en cada una de las premisas.
Existen cuatro posiciones que dan lugar a cuatro figuras del silogismo categórico.
Existen 256 silogismos posibles de la combinación de los cuatro enunciados en las dos premisas y la
conclusión y en las cuatro figuras (4 x 4 x 4 x 4). Pero de todos ellos, solo 24 silogismos categóricos
son válidos.
El número total de silogismos válidos incluye todas las conclusiones válidas, sean fuertes o débiles.
Se considera que una conclusión válida es débil si se obtiene una conclusión particular cuando se
permite una conclusión universal.
Todos los hombres prudentes evitan el tabaco.
Todos los médicos son hombres prudentes.
En consecuencia, todos los médicos evitan el tabaco.
Pertenece a la Figura 1:
La estructura del modo de este silogismo es AAA porque las dos premisas y la conclusión son
enunciados universales afirmativos. La conclusión universal afirmativa es la conclusión válida fuerte.
Esta conclusión también garantiza la validez de la conclusión débil con la particular afirmativa
“algunos médicos evitan el tabaco” (AAI).
Algunos autores no hacen esta diferencia y solo consideran las conclusiones fuertes en el número de
silogismos válidos, siendo 19 los considerados:
En un estudio que hizo Johnson -Laird y Steedman (1978) se encuentra que no siempre se considera
la segunda premisa como sujeto de la conclusión, produciéndose conclusiones en ambos sentidos.
C – A (que sería lo que se supone sería la forma de cualquier conclusión en cualquier
figura, por eso todos la tienen así en el cuadrito de arriba) y también se concluye con
la forma A – C.
Cuando se consideran ambos tipos de conclusiones, el número total de silogismos es 512. Los
resultados mostraron un efecto de la figura para los silogismos de las Figuras 4 y 1.
En concreto, la mayoría (71%) daban una conclusión A-C para los silogismos de F4 y otro tanto, daba
la conclusión de C-A para la F1.
Desde la estructura lógica tradicional del argumento, las conclusiones A—C se ajustan a un cambio
de orden de las premisas y a un posible cambio de término medio. En el caso de las conclusiones A –
C de la figura 4, lo que se hace es invertir el orden de las premisas y así la figura 4 se convierte en
figura 1. Sin embargo, la posición del término medio no se altera al cambiar el orden de las premisas
en las Figuras 3 y 2.
Los trabajos experimentales sobre el silogismo categórico se centran en el cómo influyen los aspectos
estructurales y de contenido en el rendimiento de los sujetos. El rendimiento de los sujetos ha sido
variable, desde 89% de respuestas correctas hasta un 8%.
La tendencia no lógica del efecto atmósfera en los resultados puede predecir un porcentaje
aceptable de respuestas. Sin embargo, tiene limitaciones:
Los propios autores, reconocieron luego que el efecto solo explicaba la tendencia al
error, pero que no era una verdadera teoría del razonamiento.
También al encontrarse que el efecto es distinto para los silogismos válidos que para
los no válidos, parece que debería haber algún proceso de inferencia además del
sesgo en la respuesta.
Tampoco predice los distintos niveles de dificultad de los silogismos categóricos.
Además, predice que siempre se dará una conclusión, cuando los resultados indican
que no siempre se da conclusión válida cuando la tarea es de producción.
Conclusión: si bien la hipótesis de la atmósfera de las premisas no es propiamente una teoría que
explique la tendencia al error basada en el modo de las premisas, los efectos que predice son
importantes para ser explicados.
La conclusión relaciona C con A apoyándose en B (que comparten A y C), y bajo el supuesto de que
tener en común dicha propiedad hará más probable que C y A se encuentren relacionados. Si le
damos contenido vemos que la conclusión no se sigue necesariamente de las premisas.
El cuadro anterior ilustra por qué la conversión sólo es legítima para los E y I, pues son los únicos que
tienen los mismos valores en su distribución: sujeto y predicado distribuidos en E, y no distribuidos
en I, permitiendo realizar la conversión del enunciado sin que se altere ni su cantidad ni su calidad.
Sin embargo, la conversación en A y O daría lugar a transformar un término distribuido en uno no
distribuido o viceversa, generando una inferencia no garantizada.
Revlis formula una propuesta más concreta basada en la conversión de todas las premisas y en el
supuesto de que se prefiere razonar con estas versiones convertidas de las premisas.
Hay una primera etapa de procesamiento en la que se codifican las premisas y se
convierten quedando representadas ambas versiones.
Luego, se elabora una representación compuesta de las dos premisas y se pasa a la
codificación de la conclusión de modo semejante a la primera etapa.
Por último, hay un proceso de comparación entre la representación conjunta de las
premisas y la representación de la conclusión.
Si ambas con congruentes entonces se acepta el silogismo como válido. Si son
incongruentes se procedería con la comparación de las representaciones en
sus versiones originales sin conversión, hasta encontrar un argumento válido.
Si no se obtiene éste, o se supera el límite de tiempo, se procede o con
modelo para la selección aleatoria de una de las alternativas o bien con un
modelo de selección de rasgos (cantidad y calidad) con similares predicciones
a las dadas por el efecto atmósfera.
El contenido temático del silogismo puede facilitar el razonamiento cuando bloquea el proceso de
conversión debido a que la versión convertida de la premisa entra en conflicto con el conocimiento
del sujeto.
Ejemplo: la conversión de Todos los gatos son felinos en Todos los felinos son gatos,
daría lugar a una premisa contraria al conocimiento del sujeto.
Según los autores, el razonamiento silogístico con contenido es mejor que el abstracto
porque el contenido bloquea la conversión de las premisas en el proceso de
codificación.
Sin embargo, los resultados experimentales son contrarios porque el efecto del
contenido o de las creencias se sigue manifestando incluso en aquellos silogismos en
los que la conversión no altera la validez del argumento.
Con respecto al efecto del contenido o sesgo de creencias, ya Wilkins 1928 había encontrado que el
contenido familiar facilitaba el rendimiento, pero que disminuía si el contenido entraba en conflicto
con la estructura lógica. Algunos de los silogismos de este trabajo fueron generados de forma que las
creencias entraran en conflicto con la estructura lógica de los argumentos. Se obtuvieron así
argumentos válidos cuyas conclusiones eran verdaderas empíricamente.
En líneas generales los sujetos tienden a considerar que un argumento es válido si están de acuerdo
con su conclusión y que es falso si no lo están. Además, Evans, Barston y Pollard encontraron una
interacción entre validez lógica y credibilidad de las conclusiones, siendo el efecto mayor para los
silogismos inválidos que para los válidos.
Se obtuvo que los sujetos aceptaban más conclusiones creíbles que increíbles
independientemente de su validez lógica.
Sin embargo, la diferencia entre la aceptación de conclusiones inválidas creíbles y
conclusiones inválidas increíbles fue mayor que la diferencia entre conclusiones
válidas creíbles.
Evans y cols propusieron dos modelos para explicar cómo se realiza el proceso de evaluación de las
conclusiones: el modelo de escrutinio selectivo y el modelo basado en una mala interpretación de la
“necesidad lógica”.
El modelo de escrutinio selectivo sostiene que los sujetos se centran primero en la conclusión del
argumento y si ésta es coherente con su sistema de creencias, la aceptan sin más.
Sólo cuando las conclusiones son increíbles se procede al análisis lógico del silogismo.
Esta propuesta está basada en los resultados del análisis de los protocolos verbales en
los que se identificaron tres tipos de estrategias para la solución de los silogismos:
- Estrategia “solo la conclusión”: en la resolución del silogismo los sujetos solo
mencionan la conclusión sin alusión a las premisas.
- Estrategia “de la conclusión a las premisas”: mencionan primero la conclusión y
luego las premisas.
- Estrategia “de las premisas a la conclusión”: mencionan antes las premisas.
Los sujetos de los dos primeros grupos 1 y 2, presentaron la mayor tendencia a
responder de acuerdo con la credibilidad de la conclusión.
Aunque explica la interacción entre validez lógica y credibilidad de la conclusión, hay
que tener en cuenta que no explica el modelo el efecto de la lógica sobre las propias
conclusiones creíbles.
Algunos estudios ponen de manifiesto que los sesgos de creencias se siguen dando en
las tareas en las que los sujetos deben generar sus propias conclusiones y en las que
no hace falta un proceso de escrutinio de la conclusión.
El modelo basado en una mala interpretación del concepto de necesidad dice que los sujetos en
realidad no entienden la necesidad lógica.
Un argumento deductivo es válido sólo si es imposible que su conclusión sea falsa
mientras que sus premisas son verdaderas. Si hay una única situación en la que la
conclusión sea falsa mientras que sus premisas son verdaderas hace que el
argumento sea inválido.
Un silogismo con conclusiones posibles, pero no necesarias, se denomina un silogismo
inválido indeterminado y cuando no se sigue ninguna conclusión se denomina
silogismo inválido determinado.
Según este modelo, los sujetos responden de acuerdo con la credibilidad de las
conclusiones en los silogismos inválidos indeterminados, pero cuando es inválido
determinado no se sigue ninguna conclusión y la credibilidad no ejerce ninguna
influencia.
Con esta distinción se explica la interacción: la credibilidad surte efecto sobre los
silogismos inválidos indeterminados y el efecto desaparece en los silogismos inválidos
determinados.
No obstante ambos modelos dejan sin explicar el proceso de razonamiento y solo se centran en la
explicación de los errores para algunos silogismos (inválidos indeterminados).
En el cuadro de oposición se representan las relaciones lógicas que se establecen entre los 4
enunciados categóricos.
Se aprecia que tanto A como E (universales) implican sus correspondientes enunciados subalternos
particulares I y O. Ambos enunciados comparten el sujeto, el predicado y la calidad, pero difieren en
la cantidad.
Ejemplo: la verdad de Todos los hombres son mortales implica la verdad de Algunos
hombres son mortales.
A y E son contrarios porque comparten el mismo sujeto y el mismo predicado pero no pueden ser
ambos verdaderos, aunque puedan ser falsos.
Ejemplo: Todos los hombres son mortales y Ningún hombre es mortal son contrarios.
El par de enunciados A y O y el par E e I son contradictorios pues tienen el mismo sujeto y el mismo
predicado, pero difieren en calidad y cantidad. Dos enunciados son contradictorios si uno de ellos es
la negación del otro y ambos no pueden ser verdaderos o falsos a la vez.
Ejemplo: Todos los hombres son mortales y Algunos hombres no son mortales son
enunciados contradictorios.
Los modelos de conversión también han sido criticados porque no pueden explicar los efectos por la
figura del silogismo.
Estos modelos explican el efecto atmósfera bajo el supuesto racionalista de que el
razonamiento es lógicamente correcto, pero con unas representaciones invertidas de
las premisas y no consideran la figura del silogismo.
Sin embargo, Frase y Pezzoli encontraron un efecto análogo al efecto atmósfera con la
figura del silogismo.
El tipo de figura también presentaba diferentes grados de dificultad, siendo la
cuarta más fácil que la primera.
Johnson- Laird y Steedman
Encontraron que cuando los sujetos tenían que producir la conclusión del
argumento, éstos generaban conclusiones A-C (donde la premisa mayor se
correspondía con el sujeto y premisa menor con el predicado) con la figura 4, y
C-A (la premisa menos se corresponde con el sujeto y la mayor con el
predicado) con las premisas de la figura 1.
La particular afirmativa (I) comprende cuatro representaciones, considerando que algunos implica
por lo menos uno y es compatible con todos.
- Intersección entre A y B.
- B se incluye en A.
- A y B son equivalentes.
- A se incluye en B.
La particular negativa (O) comprende tres: intersección de A y B, B se incluye en A y A y B son
excluyentes.
Para saber si una conclusión es válida hace falta considerar todas las formas posibles en que se
combinan los diagramas de las dos premisas del argumento.
Un argumento es válido cuando la conclusión es verdadera en todos los diagramas
que representan todas las posibles combinaciones de las dos premisas.
Es un proceso bastante costoso, sobre todo porque el número de combinaciones
posibles es generalmente mayor que el producto de los diagramas de las dos premisas
al existir más de una forma de combinarlos.
Erickson propuso una teoría del razonamiento silogístico basada en los círculos de Euler.
Los sujetos representaban cada premisa de forma análoga a la representación
espacial de los círculos. Las distintas interpretaciones posibles de las premisas llevan
asociados unos parámetros probabilísticos que determinan su selección.
En la 1ª etapa también influirá el contenido del argumento. Para evaluar o producir
una conclusión se combinan las representaciones de las premisas en una sola
representación del silogismo.
En la 2ª etapa de combinación se asume que no hace el sujeto análisis exhaustivo de
todas las combinaciones posibles de las interpretaciones de las premisas, sino que
selecciona una combinación de acuerdo con los parámetros probabilísticos.
Newell propone otra aproximación para explicar el razonamiento silogístico por medio de la
representación espacial de los diagramas de Venn.
Los diagramas de Venn son otra técnica lógica para representar las relaciones entre conjuntos. Estos
utilizan círculos que se encuentran sobrepuestos de forma que representen las relaciones entre los
conjuntos del silogismo.
En este método se representa el silogismo en un solo diagrama.
El método de representación consiste en sombrear aquella zona en la que no hay miembros (está
vacía) cuando la relación en el enunciado categórico es universal (afirmativo o negativo) y se
representa con una X las áreas en las que existe al menos un elemento cuando el enunciado
categórico es particular (afirmativo o negativo).
Figura 4.4
Zona sombreada del conjunto (A) representa una zona vacía de elementos del conjunto A-B en la
universal afirmativa, la zona sombreada es una representación de la universal negativa puesto que
ningún elemento es miembro del conjunto A-B.
La X en la particular afirmativa (I) representa que por lo menos un elemento del conjunto A se
encuentra en su intersección con B y la X en (O) representa que por lo menos un miembro del
conjunto A no es del B.
Figura 4.5
Nevell propone una representación simbólica de los diagramas de Venn y unas reglas para combinar
las cadenas simbólicas que luego se comparan con las alternativas de R.
Este modelo pretende acomodar los silogismos categóricos al marco general que
diseñaron Newell y Simon para la solución de problemas.
Se entiende que el razonamiento silogístico es un proceso de búsqueda a través del
espacio del problema y que este espacio se representa de forma análoga a los
diagramas de Venn.
Sin embargo, no se hacen predicciones sobre los errores, ni se aportan datos empíricos que apoyen la
viabilidad del modelo.
Posteriormente, Simon comentó que es probable que la utilización sólo ocurra en
sujetos expertos y que una representación en la línea de los modelos mentales es
preferible, y más acorde con una aproximación del razonamiento silogístico.
Los modelos mentales de conjuntos fue una teoría del razonamiento silogístico en sus orígenes y hoy
constituye un marco teórico general del razonamiento deductivo. Este comprende tres etapas:
I. Etapa de interpretación y representación inicial de las premisas: el sujeto utiliza su
conocimiento sobre el lenguaje y su conocimiento general para comprender las premisas.
Se construye un modelo mental inicial de aquello que viene descrito en las premisas del
argumento.
II. Segunda etapa en la que el sujeto combina las representaciones anteriores para generar una
descripción lo más sencilla posible de los modelos construidos a partir de las premisas.
Esta descripción debe enunciar algo que no se encuentre explícito en las premisas y es la
conclusión tentativa del argumento.
III. Tercera etapa en la que el sujeto busca modelos alternativos para poder falsar la conclusión
tentativa.
Si no los encuentra la conclusión es válida, pero si los encuentra, regresa a la segunda etapa
para seguir probando conclusiones tentativas mediante la búsqueda de contraejemplos.
En la tercera etapa, con el proceso de búsqueda de contraejemplos, se ubica el “aspecto” deductivo
del razonamiento. La dificultad de los problemas se explica en términos de la cantidad de
procesamiento y los errores vienen explicados por las limitaciones de la MT.
El principio de economía propuesto por la teoría asume que el modelo mental inicial sólo
representará la cantidad de información explícita que sea necesaria para la interpretación de la
premisa.
El modelo mental está constituido por símbolos que representan miembros
representativos del conjunto.
Ejemplo: en la universal afirmativa Todos los A son B, “a” es un miembro representativo del conjunto
A y “b” del conjunto B. Cuando un miembro del conjunto se encuentra representado dentro de un
corchete [a], quiere decir que el conjunto de miembros se encuentra exhaustivamente
representado. En este caso no hay miembros “a” que no sean miembros “b”.
En el caso de “b”, sin embargo, no hay una representación exhaustiva y, por tanto, puede haber
miembros “b” que no sean miembros “a”. Una sola representación del modelo mental de la universal
afirmativa comprende las dos representaciones espaciales de los círculos de Euler: relación de
identidad y subconjunto.
Ejemplo: si no hay miembros de “a” que no sean de “b”.
Se representa así pues no sabemos si alguno de sus miembros puede
pertenecer a A.
Los tres puntos (...) indican que podría haber otra clase de miembros que no se encuentran
representados en el modelo inicial, por ejemplo, miembros que no son “a” ni “b”. Son análogos a
una anotación mental que indica la existencia de otros modelos que están implícitos. Pueden
hacerse explícitos (fleshed out) en la medida que sea necesario ampliar la información enunciada en
las premisas.
Ejemplo: en la representación de los miembros que no son “a” y son “b” ( ¬a b ).
En la segunda etapa del modelo se deben combinar los modelos mentales de las premisas en una
sola descripción. Se realiza añadiendo el modelo mental de la segunda premisa al modelo de la
primera mediante el término medio.
Ejemplo: si la segunda premisa es también una universal afirmativa
Todos los B son C, sería:
Ahora bien, la combinación de los modelos mentales de las premisas se complica cuando hay más
modelos mentales alternativos.
Ejemplo:
En realidad ninguno de los tres modelos apoya una conclusión C-A y en los tren modelos la
conclusión válida es Algunos A no son C (O).
La teoría de los modelos mentales explica la dificultad de los silogismos y los errores por el número de
modelos mentales y por el tipo de figura.
Los resultados han puesto de manifiesto que cuanto mayor sea el nº de modelos mentales
necesarios para encontrar una conclusión válida tanto más difícil será el problema y mayor la
probabilidad de error.
La figura del silogismo también determina la dificultad y la probabilidad de que una conclusión sea
del tipo C-A o A-C. Se debe a que las conclusiones se leen en el modelo mental en la misma dirección
en la que se han representado. Cuando las representaciones de las premisas no se encuentran en la
misma dirección hace falta una operación que invierte el orden y/o la relación espacial entre los
términos para poder realizar la combinación de los modelos mentales.
El contenido o las creencias se consideran una fuente error pues pueden influir en la interpretación,
en la combinación de modelos y en el proceso de aceptación o rechazo de la conclusión tentativa.
Si el contenido influye sobre los modelos mentales se está razonando con modelos
mal interpretados.
Cuando el contenido influye en la combinación de modelos puede acortar el proceso
de búsqueda de modelos alternativos si la conclusión tentativa es compatible con el
sistema de creencias, aunque sea inválida.
También podría ocurrir que el sujeto buscara afanosamente más modelos mentales
alternativos cuando la conclusión fuera contraria a su sistema de creencias. Este
efecto estaría influyendo en la búsqueda de contraejemplos.
Cabría esperar que este contenido no influyera en los silogismos con un solo modelo
mental, ya que el contenido afecta a la construcción de modelos alternativos. Sin
embargo, incluso este contenido influye en los silogismos de un solo modelo mental y
proponen que una conclusión increíble también podría actuar de filtro en el proceso
de evaluación, haciendo que los sujetos la sustituyan por una conclusión creíble o que
respondan que no hay conclusión.
Newstead y Evans señalan que con la incorporación del filtro de las conclusiones se está
introduciendo un mecanismo semejante al contemplado en el modelo de escrutinio selectivo,
aunque en este caso la selección ocurre en el proceso de evaluación.
No obstante, los resultados apoyan las predicciones de la teoría de los modelos
mentales frente al modelo de escrutinio selectivo y el modelo basado en la mala
interpretación de la necesidad lógica.
La teoría de los modelos mentales se ha constituido en una teoría general del razonamiento,
ofreciendo la ventaja de explicar en un único marco teórico el proceso y los errores del
razonamiento. Aunque tiene pendiente varios problemas por resolver.
Admite que el proceso de construcción de los modelos mentales se ve influido por el
conocimiento, no analiza esta influencia sino que la da por supuesta.
Sus explicaciones y predicciones se basan en la interpretación semántica de los
operadores lógicos. Se basa en un procedimiento formal para la representación
semántica de los operadores lógicos que unen los contenidos expresados en las
premisas.
La crítica fundamental se centra en que esta teoría se autodefine como semántica,
pero no explica cómo se vincula el conocimiento almacenado con la construcción de los
MM en la memoria de trabajo.
No determina cómo se construyen los MM, ni el orden en la construcción de la
secuencia de posibles interpretaciones, ni se compromete con el tipo de
representación de los MM, ni con el orden de la combinación de los MM.
Resumen: es una perspectiva teórica fuerte que se encuentra apoyada por una amplia y variada
gama de trabajos experimentales. No obstante, el debate entre los modelos mentales y otras teorías
del razonamiento basado en reglas no ha concluido.
Además se pueden introducir relaciones negativas en una de las dos premisas o en ambas (premisas
de igualdad negada).
Si introducimos relaciones negativas en las dos premisas del ejemplo anterior
obtendremos: Luis no es tan pequeño como Juan; Juan no es tan pequeño como
Pedro; en consecuencia Luis no es tan pequeño como Pedro.
Con estas consideraciones se obtienen un total de 32 pares de premisas: 8
afirmativas, 8 con la primera premisa negativa, 8 con la segunda premisa negativa y 8
con ambas negativas.
Considerando que la tarea experimental más habitual consiste en presentar las dos premisas del
silogismo y pedir que se conteste a una pregunta sobre la relación entre “A” y “C” o que se evalúe la
validez de una conclusión, las estructuras básicas se pueden presentar con dos preguntas o
conclusiones alternativas.
También se han utilizado silogismos indeterminados en los que los dos términos de la serie están
situados hacia el mismo extremo de la relación con respecto al término medio, no pudiéndose
alcanzar una conclusión válida sobre la relación entre ambos.
Ejemplo: en el siguiente silogismo los términos A y C se encuentran situados hacia el mismo extremo
B > A y C < B y no podemos inferir la relación entre A y C, solo que son menores que B.
En el trabajo de Störring, el razonamiento con tres términos ha planeado una polémica en el tipo de
representación de las premisas. Se describía cómo algunos sujetos parecían formar un diagrama
mental de las premisas, representándolas mediante imágenes mentales, mientras que otros parecían
resolver el problema de forma verbal.
La polémica ha girado en torno al formato de representación más apropiado para resolver estos
silogismos, que en general se resuelven con facilidad y se cometen pocos errores.
Los resultados experimentales no apoyaron todas las predicciones del modelo operacional.
El trabajo de Hunter fue anterior a su tiempo ya que el razonamiento de series no se
abordó de nuevo hasta casi una década después y con una perspectiva distinta.
Johnson -Laird y Bara encontraron que en los silogismos transitivos también ocurría el
efecto de la figura, donde al igual que en el estudio con los silogismos categóricos, el
tipo de figura favorecía las conclusiones A – C o C – A.
Como anticipada Hunter, el nivel de dificultad de los silogismos estaba relacionado
con el proceso de integración de la información en función del tipo de figura (orden
de los términos).
I. Principios generales
a. Principio de la preferencia direccional
Se basa en la observación de que los sujetos prefieren construir los órdenes espaciales en
determinadas direcciones.
En la cultura occidental se prefiere trabajar de izquierda a derecha y de arriba abajo.
Las relaciones también se representan en estos ejes espaciales.
Se prefiere asignar la relación mejor-peor a un eje vertical en el que el término mejor
se sitúa en el extremo más alto y el peor en el más bajo.
Un silogismo transitivo será más fácil si la primera premisa contiene en primer lugar el
término que se sitúa más arriba o más a la izquierda de los ejes espaciales.
Ejemplo: “A es mejor que B” es más fácil que “B es peor que A”.
También es más fácil representar el silogismo en el que se presente el término que se
sitúa más arriba o más a la izquierda en la primera premisa y el término opuesto del eje
espacial en la segunda premisa.
Ejemplo: “A es mejor que B, B es mejor que C” es más fácil que “B es mejor que
C, A es mejor que B”.
b. Principio de anclaje de los extremos
Postula que la construcción espacial será más fácil cuando se enuncia en primer lugar uno de los dos
extremos de los ejes espaciales.
Las más fáciles serán aquellas que procedan de uno de los términos extremos al
término medio.
Ejemplo: “A es mejor que B” o “C es peor que B” serán más fáciles que “B es
peor que A” o “B es mejor que C”.
De acuerdo con los dos principios, construimos un eje mental marcado por la preferencia direccional
en el que se colocan los tres términos de la serie, obteniéndose la solución mediante la lectura de esta
representación espacial.
En el cuadro siguiente podemos ver, el principio del anclaje de los extremos sólo influye en la segunda
premisa. La segunda premisa de los dos primeros silogismos enuncia en primer lugar uno de los
extremos de los ejes espaciales (C) y son más fáciles. También se ve que este principio no influye
sobre la primera premisa dado que en el segundo se presenta primero el término medio (B) al igual
que en el tercer silogismo.
c. Principio de la congruencia
La recuperación de la información es más fácil si la representación de las relaciones funcionales es
congruente con la pregunta formulada. Los silogismos serán más fáciles cuando esté formulada en la
misma dirección.
Ejemplo: A es mejor que B; B es mejor que C es más fácil cuando la pregunta es
congruente con la relación (¿Cuál es el mejor?) que cuando no lo es (¿Cuál es el
peor?).
Este principio se relaciona con la búsqueda en la memoria y con la dificultad impuesta por el
almacenamiento, mientras que los otros dos principios aluden al proceso de comprensión de las
premisas.
Según Clark, la confrontación es más evidente en las premisas negativas y los datos experimentales
apoyan las predicciones del modelo lingüístico.
Las premisas negativas tendrían un equivalente en la versión afirmativa que daría lugar a las
mismas predicciones en el modelo espacial y a predicciones inversas en el modelo lingüístico:
Ejemplo: A no es tan malo como B, B no es tan malo como C serían equivalentes a A es
mejor que B, B es mejor que C.
Según el modelo espacial, ambos tipos de premisas darían lugar a los mismos
resultados, ya que la preferencia para la construcción de la imagen mental es
en ambos casos de arriba hacia abajo.
El modelo lingüístico, no obstante, predice que la estructura lingüística es
distinta, siendo las premisas negativas más fáciles al conservar el término medio
en la representación proposicional.
e. Críticas a Clark
Algunos autores señalan que Clark parte del supuesto de la equivalencia entre las premisas afirmativa
y las negativas pero esta equivalencia puede no existir en el proceso de comprensión, pues puede que
A no es tan malo como B, no se interprete como A es mejor que B, sino como B es peor que A y
entonces la direccionalidad de abajo arriba, y el marcado léxico vuelven a coincidir en sus
predicciones. Tampoco se puede diferenciar el principio de anclaje de los extremos del modelo
espacial, y el principio de congruencia del modelo lingüístico, pues predicen resultados
convergentes, aunque por razones distintas.
Para los niveles de dificultad de los problemas, la propuesta del modelo mixto intenta integrar los
aspectos del modelo lingüístico relacionados con los adjetivos marcados en la etapa de codificación y
los del modelo de la imagen en la construcción de la disposición espacial en la que los términos se
ordenan en la dirección no preferida.
Cuando la segunda premisa es de igualdad negada, se propone la búsqueda del
término medio si la codificación lingüística de esta premisa tiene como objeto
gramatical al término medio.
Localizado éste, se construye una representación unitaria, situando primero la
primera premisa y luego la segunda.
Si la respuesta está en la segunda premisa, la lectura de la respuesta es inmediata. Si
está en la primera, se realizará un recorrido que llevará tiempo.
Datos experimentales sobre los tiempos de solución de los silogismos se ajustaron mejor al modelo
mixto que a los otros considerados aisladamente. La polémica entre el tipo de representación se
resuelve al proponer que se utilizan ambas pero en distintas etapas.
Ahora bien, es posible que los sujetos desarrollen distintas estrategias a medida que adquieren
experiencia en la solución de los silogismos transitivos.
Durante la tarea experimental, pueden empezar por una representación de las
disposiciones espaciales y a medida que van resolviendo los problemas pueden
cambiar a una representación lingüística o a la inversa.
Las instrucciones o el tipo de presentación de los problemas también pueden influir en la
representación que se adopte.
Ejemplo: si la pregunta se presenta antes que las premisas se adopta una estrategia
lingüística y si la pregunta se presenta después, una estrategia espacial.
También puede que los distintos sujetos utilicen distintas estrategias, siendo ambos modelos viables
para explicar las diferencias individuales.
Esta teoría predice que la dificultad de los problemas dependerá del número de modelos mentales
que puedan construirse.
En los problemas de series de tres términos, la validez y el número de modelos
mentales no se pueden distinguir, ya que los problemas que dan lugar a un modelo
mental son también los que alcanzan una conclusión válida, mientras que no hay
conclusión válida en los problemas que dan lugar a más de un modelo.
Por ese motivo, Byrne y Johnson-Laird 1989 se plantearon el estudio de las relaciones transitivas con
cinco términos en las que la dificultad de los problemas se puede analizar en función del número de
modelos mentales.
Los resultados apoyan las predicciones de la teoría de los modelos mentales frente a las predicciones
del modelo de Hagert 1984 basado en representaciones proposicionales y la aplicación de reglas:
El número de modelos mentales y no el nº de reglas determina la dificultad de los
problemas.
Hay datos a favor de una representación espacial integrada en las investigaciones sobre la memoria
de trabajo y el razonamiento silogístico.
En la teoría de los modelos mentales la sobrecarga de la MT es una de las fuentes
principales de error y a medida que aumenta el número de modelos mentales
también aumenta la dificultad de los problemas. La MT está constituida por un
procesador central apoyado en un almacén fonológico y uno visoespacial. Este último
está encargado de retener en la MT la información visual (color) y espacial
(movimiento).
Si se introduce durante la realización de una tarea de silogismos lineales una segunda
tarea que requiera la utilización de este almacén visoespacial, se esperaría encontrar
un deterioro en el rendimiento de los sujetos al producirse una interferencia en la
construcción y elaboración de las disposiciones espaciales en la MT.
Los resultados experimentales han puesto de manifiesto que la introducción de una tarea
visoespacial secundaria interfería en el rendimiento de los sujetos, apoyando de esta forma la
representación de una disposición espacial en el razonamiento silogístico.
Cabe decir que no ha sido demostrado que esta representación espacial se tenga que concretar en
una imagen mental
1. INTRODUCCIÓN
El razonamiento condicional se centra en las relaciones contingentes reales o hipotéticas que vie-
nen enunciadas por medio de los operadores lógicos, “Si, entonces” (implicación material) y “Si y
solo sí, entonces” (implicación inmaterial). Esta formulación presenta algunas dificultades cuando
se interpreta desde el modelo normativo lógico.
Cabría esperar lógicamente que la próxima vez que nos diga que Pepa va a cenar a casa de sus pa-
dres pensemos que esa noche se queda a dormir Modus Ponens.
Pero si dice: Pepa durmió anoche en casa de sus padres, ¿podríamos inferir que anoche también
cenó con sus padres?
Si se infiere de esta manera, se cometería un error : la afirmación del consecuente.
Si nos hubiera dicho: Pepa ayer no cenó con sus padres y hubieramos inferido que entonces no
durmió en casa de sus padres, cometeríamos el error de la negación del antecedente.
Si sabemos que no se ha quedado a dormir podemos inferir lógicamente que no ha cenado con
ellos Modus Tollens.
Pero si el comentario hubiera sido:
“Si y solo si Pepa va a cenar a casa de sus padres, entonces se queda a dormir”
q se queda a dormir.
M.Goretti González 1
El modus ponens es la inferencia válida más fácil, frecuente y natural. Si asumimos que anteceden-
te y consecuente son verdaderos, cabe deducir que cuando se cumple p, entonces también se
cumple q. El modus tollens es, la inferencia válida más difícil. Se suele responder indicando que no
hay conclusión. No se suele pensar que el consecuente es necesario para que ocurra el anteceden-
te, porque es difícil creer que el que no ocurra el consecuente implique que no ocurra el
antecedente. Otra forma “rara” de expresar la relación necesaria sería : “Pepa va a cenar a casa de
sus padres, solo si se queda a dormir”. Por tanto, si Pepa no duerne en casa de sus padres, no ha
ido a cenar a casa de sus padres.
Modus TOLLENS (MT)
Si p , entonces q Si Pepa va a cenar a casa de sus padres (p),
entonces se queda a dormir. (q)
¬q Pepa no se ha quedado a dormir (¬q) (negación de prmisa menor)
Los dos errores habituales en la implicación material son concluir que no se cumple el consecuente
porque noo se ha cumplido el antecedente (falacia de la negación del antecedente) y que se cum-
ple el antecedente porque se cumple el consecuente (falacia de afirmación del consecuente) . El
antecedente es suficiente para que ocurra el consecuente pero no es necesario y tendríamos que
haber dicho “solo si Pepa va a cenar a casa de sus padres, entonces se queda a dormir”. Cuando el
antecedente es suficiente, su negación no implica que el consecuente no pueda ocurrir con otros
antecedentes.
El consecuente es necesario para que ocurra el antecedente, y con ello el que si no ocurre
consecuente, no pueda darse antecedente, pero si ocurre no implica que se haya dado el antece-
dente.
Falacia de la AFIRMACIÓN DEL CONSECUENTE (AC)
Si p , entonces q Si Pepa va a cenar a casa de sus padres (p),
entonces se queda a dormir. (q)
q Pepa se queda a dormir (q) (afirmación)
Si se hubiera expresado con el bicondicional “si y solo si” - “Pepa va a cenar a casa de sus padres,
entonces se queda a dormir” (equivalencia material) , las cuatro inferencias anteriores hubieran
sido válidas. El bicondicional es expresión poco habitual e incómoda por lo que la falacia de la afir-
mación del consecuente y la negación del antecedente puede deberse a que las personas
interpreten la implicación material como la equivalencia material.
Aún así, las inferencias lógicamente válidas presentan un índice de dificultad. En un meta-análisis
de 65 estudios con 700 sujetos, se obtuvo que cerca del 97% evaluaban como válidas inferencias
modus ponens (más fácil), 74% las inf.modus tollens, 64% la falacia de afirmar el consecuente y el
M.Goretti González 2
56% la falacia de negar el antecedente (más difícil). Además, este intercambio entre condicional y
bicondicional no ocurre con cualquier formulación “si p, entonces q”, sino que depende de diferen-
tes funciones semánticas del condicional (implicación indicativa, causalidad, advertencia,
permiso,...)
Los modelos de reglas mentales parten del supuesto de que los sujetos tienen reglas de inferencias
semejantes a las reglas lógicas y que estas reglas se aplican sobre un representación proposicional
de los argumentos condicionales con el fin de obtener o probar la conclusión. No abarcan todo el
conjunto de reglas lógicas, solo las básicas y las que se utilizan de forma natural y sin esfuerzo,
como en el modus ponens.
Se parte del supuesto general de que los problemas de razonamiento serán más difíciles en
función del número de pasos comprendidos en el procedimiento de prueba y de las propias limita-
ciones de los recursos de procesamiento de la información.
Esta propuesta fue ampliada y revisada en varios trabajos posteriores. En una de las últimas, la
explicación del razonamiento condicional se basa en tres componentes:
1. Entrada léxica, la cual codifica la entrada de la información lingüística del término “si” en
esquemas de inferencia independientes del contexto. Solo se interpreta su significado.
2. Componente: programa de razonamiento: con pasos a seguir desde la información
interpretada hasta la conclusión.
3. Procesos de comprensión pragmática: que junto a la entrada léxica, interpretan el condi-
cional según sea el contexto en que ocurra.
Los esquemas de inferencia para la codificación del término lingüístico “si”, son el modus ponens y
un esquema para demostrar el condicional. El MP concreta la conclusión que se puede inferir a
M.Goretti González 3
partir de la información que se tiene de las premisas. Por ejemplo:
– conclusión --> “voy al cine”.
– a partir de premisas ---> “Si llueve, entonces voy al cine” -> (si p,entonces q); y “ llueve” -> (p)
El esquema para la demostración del condicional permite evaluar la validez del argumento. Permi-
te saber si podemos afirmarlo. Permitirá demostrar que, “Si llueve, entonces voy al cine” , voy al
cine bajo el supuesto hipotético de que llueva. Esta regla introduce suposiciones en el
procedimiento de prueba siemppre y cuando éstas sean consistentes con las premisas, evitando
caer en contradicciones dentro del propio argumento. Braien y cols.1984 propusieron 18
esquemas de inferencias del razonamiento deductivo, reglas básicas y universales. (¡No tenían otra
cosa que hacer!)
Este programa está constituido por rutinas que dan lugar a razonamiento directo y estrategias que
producen el raz.indirecto.
Las rutinas son comunes a todos los sujetos y con poco esfuerzo. Buscan aplicar emparejamiento
entre los esquemas de inferencia y la forma de las proposiciones que constituyen las premisas del
argumento. En el caso del condicional, el emparejamiento ocurre entre el modus ponens y las pre-
misas “si p entonces q” y “p”. En el caso de tener que generar conclusión “q” (voy al cine), y en el
caso de que esta conclusión formara parte de una cadena de razonamiento, entonces la inferencia
se incorporará en el conjunto de premisas con las que se trabaja.
Cuando lo que se tiene es que evaluar la validez de un argumento, se comprueba si existe una
correspondencia o una contradicción entre las proposiciones del conjunto de premisas y la con-
clusión. El emparejamiento entre un esquema de inferencia y una proposición es el mismo, pero la
inferencia que se obtiene pasa a formar parte del conjunto de premisas y se comprueba su
consistencia o contradicción con la conclusión del argumento.
Para explicar las falacias de negar antecedente como la de afirmar el consecuente, como la
M.Goretti González 4
inferencia del modus tollens se recurre al componente 3º de comprensión pragmática. Cuando
los sujetos interpretan “si p, entonces q” también añaden las inferencias invitadas o sugeridas por
el contexto -> “Si no p, entonces no q”. Interpretación que se corresponde con el bicondicional ->
“Si y solo si p, entonces q” violando la prescripción lógica.
Para explicar la inferencia lógica correcta del modus tollens se recurre a las inferencias invitadas
del bicondicional, obteniendo una conclusión válida por una interpretación equivocada. La falta de
respuesta o lo difícil del modus tollens, se explica porque esta regla no forma parte de los esque-
mas de inferencia básicos. Para una conclusión válida se tendría que utilizar la reducción al absur-
do donde: si p es verdadera, entonces q tiene que ser verdadera, pero q es falsa, luego p tiene que
ser falsa.
Cuando las rutinas de razonamiento directo fracasan, el modelo cuenta con las estrategias de
razonamiento que no son universales, dando lugar a una amplia gama de diferencias individuales
entre las estrategias utilizadas, como procesos heurísticos, o transferencia del problema a otros
procesos de razonamiento (analógico o probabilístico,...)
(Sigo admirándo a estos señores que se les ocurre ponerse a investigar estas cosas en su momento, debe ser por lo de su
inteligencia creativa, no conformista y con ganas de querer darle al coco por el aburrimiento.... ¡vaya que si le han dado! Total,
para decirme que si no utilizo las rutinas que me han sabido describir más arriba, al final es porque utilizo mi propia estrategia a
diferencia de las que pueda utilizar otro ser humano,... ¡en fin! :-)
Rips 1994 propone la Teoría Psycop. Esta fue desarrollada de su modelo computacional ANDS, el
cual explica la deducción como un proceso de prueba mental constituido por tres componentes:
1. Estructuras de memoria
2. Gestor para el control de la aplicación de reglas,
3. Reglas mentales de inferencia.
Se parte de la idea de que las reglas mentales se utilizan para la generación y comprobación de una
prueba mental en la memoria de trabajo bajo el control de un gestor encargado de la correcta
aplicación dichas reglas mentales. La dificultad sería explicada por el número y tipo de reglas
mentales y los errores por aquellos factores que impiden la aplicación de las rutinas (limitación
MT, ausencia de la regla apropiada,...)
El procedimiento de prueba constta de una jerarquía de asertos (árbol de asertos) que incluye las
premisas y proposiciones que se derivan de las mismas; y otra jerarquía de submetas (árbol de
submetas) que incluye la conclusión y las proposiciones que la garantizan. Las reglas de inferencia
van colocando estas premisas en ambas configuraciones y se prueba el argumento cuando se da
un emparejamiento entre submetas y asertos. Hay dos tipos de reglas:
1. reglas hacia delante: derivan las implicaciones desde las premisas a la conclusión, y
2. reglas hacia atrás: son para comprobar la validez del argumento y van desde conclusión a
premisas.
Se coloca la premisa en la parte superior del árbol de asertos, y la conclusión en la parte superior
M.Goretti González 5
del árbol de submetas, pudiéndo vincularse con otras submetas cuya verdad garantiza la verdad de
la conclusión. El modelo también utiliza suposiciones para asumir que una proposición es
verdadera y así generar inferencias adiocionales. Éstas se colocan en nodos subordinados del árbol
de asertos. Ejemplo:
Si no hay una M o no hay una P en la pizarra, entonces hay una R.
No hay una M
Premisa inicial:
2. Si no hay una M , entonces hay una R
1. Si no hay una M o no hay una P, entonces hay una R
(conclusión)
7. Si no hay una M, entonces hay una R
Nodo subordinado
Van enumeradas según el orden de entrada en la estructura de memoria. La premisa (1) se coloca
en árbol de asertos y la conclusión (2) en el de submetas. Luego se asume que el antecedente “No
hay una M” es verdadero y se ubica en nodo subordinado (3). También una nueva submeta “R”
subordinada para probar que el consecuente es verdadero. Este se deduce del aserto 1 si se puede
probar que “No hay una m o no hay una P” es verdadero. Luego se coloca una nueva submeta para
probar “No hay una M”. Dado que coincide con el aserto 3, se puede suponer que el aserto R es
verdadero y se puede probar como válido. El modelo evaluará como inválido un argumento
cuando no haya reglas que permitan encontrar el emparejamiento entre submetas y asertos.
Este modelo explica el proceso de razonamiento condicional como la generación de una prueba en
la memoria de trabajo en la que se admiten suposiciones. No tienen que ser necesariamente
verdaderas. El árbol de asertos reúne los pasos lógicos que conducen desde las premisas a la
conclusión y el árbol de submetas guía el proceso desde la conclusión a las premisas. Las reglas son
sensibles a las metas del sistema.
Rips formula catorce reglas de inferencia hacia atrás y diez reglas hacia adelante, que se aplican en
un orden de preferencia que empieza por las sencillas (conjunto no definido que tampoco abarca a
todo el conjunto posible, pero sí puede manejar un amplio conjunto de argumentos y su plausibi-
lidad psicológica viene dada por los propios protocolos verbales de los sujetos) De este conjunto
dos son Modus Ponens: hacia adelante y hacia atrás.
La regla del MP hacia adelante permite inferir “q” si en el árbol de asertos se encuentran las pro-
posiciones “si p, entonces q” y “p”. La regla del MP hacia atrás se aplica sobre el árbol de
submetas para aquellas situaciones en las que las condiciones iniciales tienen como meta deducir
“q” y “cuentan con el aserto “ si p, entonces q” y en este caso el sistema genera laa submeta “p” y
se infiere “q” que es el consecuente de la proposición de el árbol de asertos.
El modelo no cuenta con procedimiento directo para la detección de los argumentos inválidos. Un
argumento es inválido sólo si no se pueden encontrar reglas para probarlo. El análisis de protoco-
M.Goretti González 6
los verbales muestra que los sujetos también evaluamos un argumento inválido de forma directa y
sin necesidad de realizar una búsqueda exhaustiva.
Existen al margen varias perspectivas teóricas que no están de acuerdo con el acento lógico de
estos modelos y sus críticas subrayan la falta de explicación de los efectos del contenido sobre el
proceso de razonamiento.
Una representación exhaustiva es representada por corchetes [...] “p” no puede representarse en
otra situación que no sea aquella en la que se relaciona con “q”. Sin embargo, “q” puede darse en
otros modelos mentales con o sin “p”. Los tres puntos ... representan otros modelos posibles que
no se encuentran representados, pero que pueden hacerse explícitos. Al aumentar el número de
modelos explícitos también aumenta la carga de procesamiento. Los modelos implícitos pueden
desarrollarse en modelos explícitos de dos formas distintas, interpretación del condicional
(implicación material) y como bicondicional (equivalencia material)
En el modelo mental inicial, la inferencia modus ponens es directa y, la más fácil. Además el mode-
lo mental inicial es el mismo para el condicional como para el bicondicional, lo que explica cierta
Modelo [p] q Ambigüedad encontrada en su interpre-
inicial ... (modelos implícitos) tación.
CONDICIONAL BICONDICIONAL Cuando se plantea una inferencia Modus
Modelos [p] [q] [p] [q] Tollens: Saber que Si Juan va a Barcelona
explícitos [¬p] [q] entonces viaja en avión, y saber que Juan
[¬p] [¬q] [¬p] [¬q] no viaja en avión (¬q), no se puede ob-
tener una conclusión directa del modelo inicial, y hará
falta desplegar los modelos implícitos. Podemos ver que la inferencia modus Tollens para la impli-
M.Goretti González 7
cación material requiere tres modelos explícitos y para la equivalencia material tan solo dos. Se
puede explicar también que la inferencia Modus Tollens es más fácil en el bicondicional que en el
condicional y que no existan diferencias en el modus ponens al compartir ambas interpretaciones
el mismo modelo mental inicial.
El modelo mental inicial del condicional explica por qué los sujetos paracen ajustarse a una tabla
de verdad defectiva (bicondicional) al considerar irrelevantes aquellos condicionales en los que el
antecedente es falso.
TABLA DE VERDAD DEL CONDICIONAL
p q Implicación material Condicional defectivo
VERDADERO VERDADERO VERDADERO VERDADERO
VERDADERO FALSO FALSO FALSO
FALSO VERDADERO VERDADERO IRRELEVANTE
FALSO FALSO VERDADERO IRRELEVANTE
El modelo inicial solamente representa lo que es verdadero. Esto se ajusta a los resultados
experimentales que muestran la irrelevancia psicológica de un antecedente falso porque el modelo
mental inicial es precisamente una representación exhaustiva del estado actual de cosas descritas
en el antecedente. Para cualquier otra inferencia (que no sea modus ponens) habrá que generar
los modelos mentales explícitos. El conocimiento gral. y el conocimiento de las relaciones entre
antecedente y el consecuente influyen sobre este proceso de interpretación dando lugar a la gene-
ración de los modelos explícitos.
Las falacias de afirmar consecuente y negar antecedente se explican por la generación de los
modelos mentales explícitos: Los sujetos representan exhaustivamente tanto el antecedente como
el consecuente [p], [q] y cuando se afirma el consecuente [q] se produce también la afirmación del
antecedente [p]. La falacia de la negación del antecedente ocurre menos frecuente pues requiere
de otro modelo mental explícito: [¬p] [¬q], que da lugar a la inferencia ¬q.
Una de las críticas al modelo de reglas mentales es que acomodan los efectos del contenido a un
componente para laa comprensión de los enunciados, manteniendo intacta la estructura formal de
las reglas. Considerando que una de las reglas básicas es el modus ponens, Byrne 1989 demostró
qu esta inferencia se podía suprimir o bloquear por el contenido, y así se puede descartar que esta
inferencia se haga por la aplicación de una regla que se supone básica e independiente del conte-
nido.
Byrne inspirado en los trabajos de Rumain, Connell y Braine (1983) los cuales bloqueban las fala-
cias de NA y de la AC introduciendo una premisa adicional que establecía un antecedente
alternativo para el mismo consecuente:
Si voy a jugar al tenis, entonces me pongo el chandal. Y se presenta la premisa adicional como, Si
voy a hacer footing, entonces me pongo el chandal. Cuando se introduce esta los sujetos se dan
cuenta de que la negación del antecedente no implica la negación del consecuente (pues uno se
puede poner el chandal aunque no vaya a jugar al tenis) y que la afirmación del consecuente no
implica la afirmación del antecedente pues uno no tiene que ir necesariamente a jugar al tenis por
tener el chandal puesto. Rumian y cols. quería demostrar que los sujetos no tienen reglas para
estas falacias, pero Byrne quería con ello demostrar que no había ninguna regla mental ni la del
modus ponens. En su procedimiento no se introducía un antecedente alternativo, sino otro que
M.Goretti González 8
fuera necesario para que se cumpliera el consecuente:
Si salgo a hacer footing, entonces me paso por tu casa --> Si es una hora prudente, entonces me
paso por tu casa. En este caso la premisa adicional informa que hace falta otro antecedente para
que se cumpla el consecuente. Al presentarse “Salgo a hacer footing” los sujetos no hacen la infe-
rencia modus ponens y responden que no se sabe o que no se puede. Por tanto este resultado
cuestionna que existan reglas de inferencia MP que se apliquen independientemente del conteni-
do.
Politzer y Braine 1991 señalan que lo dicho por Byrne no es adecuado. Los autores defienden que
la interpretación que harían los sujetos de las dos premisas sería “Si salgo a hacer footing y si es
una hora prudente, entonces me paso por tu casa”, pero también uno puede decidir no pasar.
Admitiendo la réplica de estos autores, la Tª de los MM es más completa ya que logra predecir y
explicar un mayor número de resultados experimentales que los modelos de reglas. Braine 1993
sugiere que se puede razonar tanto con reglas de inferencia como con modelos mentales y que los
modelos metales son compatibles con su teoría.
El consecuente depende de alguna forma del antecedente y esta dependencia puede tener distin-
tos significados según el contexto en que ocurra (relación de implicación, causal, temporal, permi-
sos, obligaciones,...) El signficado central del condicional se corresponde con dos condicionales
básicos: 1) la interpretación condicional (mod.mentales) y 2) la interpretación tautológica, la cual
se expresa como “si p, entonces posiblemente q”. El antecedente es una descripción de una posi-
bilidad y el consecuente es la descripción de lo que puede ocurrir es esa posibilidad. La interpreta-
ción condicional expresa que el antecedente es suficiente para que ocurra el consecuente y que el
consecuente es compatible con todas las posibilidades.
Si p, entonces Si p, entonces posiblemente q En la interpretación tauto-
lógica hay dos modelos
Modelos Iniciales p q p q mentales iniciales para re-
... (modelos implícitos) p ¬q
presentar la posible ocu-
Modelos explícitos p q p q rrencia y no ocurrencia del
¬p q p ¬q consecuente. Donde “Si
¬p ¬q ¬p q hace bueno, entonces
¬p ¬q posiblemente salga de pa-
seo”, dando pie a la ocurrencia como a la no ocurrencia. Admite la representación de ambas posi-
bilidades.
M.Goretti González 9
en Marbella” (¬p) se generaba facílmente a partir de “Si Luis se encuentra en marbella (p),
entonces está en España (q) y “Luis no está en España” (¬q).
En otros casos la modulación semántica y pragmática añade información sobre la relación entre
antecedente y consecuente. Al contrario que la lógica, este mecanismo puede generar un número
ideterminado de distintos tipos de interpretaciones porque cuando se interpreta un condicional en
el lenguaje natural se están considerando las posibilidades de ocurrencias y no los valores de ver-
dad de las aserciones.
La tarea de selección de Wason 1966 ha sido una de las pruebas más utilizadas para la mayoría de
las investigaciones sobre los efectos del contenido y el desarrollo de las Tªs y modelos con compo-
nentes sensibles a este contenido. Es la tarea paradigmática del condicional. Se presenta contenido
abstracto y el procedimiento consistía en presentar 4 tarjetas con letras por una cara y los números
por la otra. Se acompaña de un enunciado condicional en forma de regla y se pedía a los sujetos
que dieran la vuelta a la tarjeta o tarjetas que fueran necesarias para confirmar o falsar la regla:
“Si hay una consonante por una cara , entonces hay un número impar por la otra”.
P E 7 2
Ante la tarea, la mayoría seleccionan la tarjeta que se corresponde con el antecedente, o bien
seleccionan las dos tarjetas que se corresponden con el antecedente y consecuente (P y 7) Ello no
se corresponde con el modelo normativo donde la letra P confirmaría la regla modus ponens, y el
número 2, permitiría falsarla – modus tollens.
Al dotar de contenido a la tarea se encontró que el rendimiento de los sujetos mejoraba significati-
vamente pues estos seleccionaban las tarjetas correctas para confirmar y falsar el enunciado con-
dicional.
Pronto se manifestó que no era el contenido concreto frente al contenido abstracto el responsable
de este efecto de facilitación, sino que este contenido fuera conocido por los sujetos. Su
explicación estaba basada en el repertorio de conocimientos del sujeto y el rendimiento correcto
se interpretó como un proceso de memoria y no como aplicación de reglas lógicas. No obstante,
algunos problemas con contenido concreto pero no familiar seguían produciendo facilitación.
Además, el contexto en el que se formulaba la tarea permitía resolveer correctamente los
problemas y estos resultados indicaban que la presentación de la misma con contenidos familiares
no era suficiente para explicar en todos los casos la facilitación, por tanto algunas alternativas ad-
virtieron de procesos de razonamiento específicos del dominio de conocimiento y que están mar-
cados por el contexto.
Cheng y Holyoak 1985, proponen que los sujetos utilizan esquemas de razonamiento que definen
como una estructura de conocimiento constituida por un conjunto de relgas con un nivel
M.Goretti González 10
intermedio de abstracción definido por el contexto. Estos esquemas contienen reglas que son sen-
sibles a diferetes clases de metas y se entiende que las respuestas serán correctas en la medida en
que sean de mayor utilidad para la situación en la que se encuentra el sujeto. Los aspectos
pragmáticos del razonamiento, son los encargados de encaminar el proceso de inferencia y será la
experiencia ante un conjunto de situaciones con una misma clase de metas la que irá conformando
los esquemas concretos. Si se presenta problema con contenido abstracto y los sujetos tienen
conocimientos sobre el razonamiento formal se puede resolver correctamente y en caso de no te-
nerlos, recurren a otro tipo de estrategias, muchas veces desencadenantes de sesgo de razona-
miento.
El modelo identifica unos esquemas de regulación constituido por permisos y obligaciones bajo los
cuales se pueden agrupar la mayoría de los problemas con contenido temático. Estos esquemas
hacen explícitas situaciones en las que para alcanzar una meta hace falta cumplir unos requisitos.
Los componentes incluyen los conceptos de posibilidad, necesidad, acción y los requisitos que se
han de cumplir.
Esquemas de PERMISO:
– Regla 1: Si se va a realizar la acción, entonces debe satisfacerse la precondición.
Semejante al modus ponens al enunciar explícitamente que la precondición “debe” cumplirse
cuando se va a realizar la acción.
– Regla 2: Si la acción no se va a realizar, entonces no necesita satisfacerse la precondición.
Con esta se bloquea la falacia de la negación del antecedente puesto que hace explícita la
irrelevancia de que se cumpla la precondición si no se va a realizar la acción.
– Regla 3: Si se satisface la precondición, entonces puede realizarse la acción.
Se bloquea la falacia de la afirmación del consecuente al enunciar la posibilidad de que la
acción puede, aunque no debe necesariamente satisfacerse, cuando se cumpla la precondi-
ción.
– Regla 4: Si no se satisface la precondición, entonces no debe realizarse la acción.
Enuncia explícitamente el modus tollens al incluir el imperativo “no debe” realizarse la acciónsi
no se satisface la precondición.
Estas reglas no son reglas lógicas pues son sensibles al contexto y a la interpretación de los térmi-
nos “puede” y “debe”. Además no siempere hay coincidencia entre los esquemas de razonamiento
pragmático y las reglas lógicas (Los problemas con relaciones causales y de covariación pueden
evocar esquemas de razonamiento distintos a los propuestos para las situaciones con regulaciones
y se explica porque los esquemas pueden variar en función de las metas del sujeto. Cuando el con-
texto se ajusta a una situación de regulación en la que la autoridad pone condiciones para alcanzar
un determiando objetivo, los esquemas serán los de permiso y obligación, pero si el objetivo es la
predicción sobre la transición entre estados del ambiente, se evocarán los esquemas causales. Así
se puede explicar el como los sujetos interpretan como una equivalencia material las relaciones
causa efecto y covariaciones.
Los resultados de Cheng y Holyoak (1985) mostraron que los sujetos resolvían correctamente la
tarea de selección siempre y cuando tuvieran las claves contextuales para interpretar la regla como
un permiso. Los sujetos sin experiencia en el contexto acertaban en la tarea con contenido, así
como que cuando se da entrenamiento en los esquemas, aunque sean abstractos, produce efectos
facilitadores. Girotto y cols. lo corrobora con el experimento en niños que se encuentran en el
M.Goretti González 11
estadio de las operaciones concretas e incluso otros más pequeños mejoraban significativamente
su rendimiento cuando los problemas se presentaban como esquemas de permiso. Ello lleva a de-
fender que el razonamiento está basado en los esquemas en lugar del modelo de la lógica natural.
Los autores encuentran que los esquemas de permiso producían efectos facilitadores incluso
cuando éstos no eran familiares, pero sí plausibles. El contexto donde se enmarca una regla de
permiso interactúa con su contenido para la obtención de los efectos de facilitación en la tarea de
selección.
La Tª del Intercambio Social (evolucionismo cultural) desarrollada por Cosmides 1989, propone
una interpretación alternativa de los efectos de facilitación obtenidos con la tarea de selección de
Wason. Es semejante en aspectos a la Tª de los esquemas de razonamiento pragmático: mantienen
que los sujetos utilizan reglas de inferencia apropiadas al dominio sugerido en el problema y estas
inferencias pueden ser diferentes para distintos dominios de contenido. Se diferencian en el tipo
de reglas inferenciales que proponen y su origen. Para unos los esquemas de raz.pragmático se ori-
ginan por la experiencia, mientras que en la teoría de los contratos sociales son innatas. Señala
doña Cosmides que su teoría es una aproximación entre la moderna biología evolucionista y la
ciencia cognitiva. El enfoque evolucionista asume que la mente humana comprende un conjunto
de mecanismos de procesamiento en el sistema nervioso y que estos son producto de la selección
natural y están funcionalmente especializados para producir conductas determinadas (lenguaje,
relaciones familiares y cooperación).
Hay leyes que son inherentes al proceso de selección natural y que gobiernan y limitan el tipo de
conducta. La solución adaptativa para las situaciones de intercambio social son unos algoritmos de
contrato mediante los cuales un individuo está obligado a pagar un coste a un individuo o grupo si
quiere tener derecho a recibir un beneficio. Ello se da con el compromiso por parte de ambas par-
tes y cierta garantía de cumplirse. Detectan cuando alguien ha engañado o lo intenta. Contenido
de la tarea adaptada a la estructura coste/beneficio de forma que las cuatro tarjetas enuncian las
ss situaciones:
“Si se recibe el beneficio, entonces se tiene que pagar el coste”.
El procedimiento para la detección del posible engaño daría lugar a que el sujeto eligiese las tarje-
tas “coste no pagado” y “Beneficio aceptado”, ya que permitirían detectar a los tramposos, y así ig-
norarse las tarjetas “coste pagado” y la “beneficio no aceptado”. Según Cosmides y Tooby, 89 los
resultados obtenidos por Cheng y Holyoak no constituyen un apoyo a la teoría de los esquemas de
razonamiento pragmático, sino que los efectos facilitadores de este experimento se debieron a que
se añadió información contextual que convirtieron las normas de permiso en contratos sociales.
Los problemas utilizan contenidos imaginarios que se presentan en el contexto de una historieta:
El problema de la raíz de “cassava” cuenta que en una tribu (imaginaria) cuando un hombre se casa tiene que llevar
un tatuaje en la cara y que sólo los hombres casados llevan tatuajes. Debido a que la raíz de “cassava” es un
afrodisiaco y a que sólo los casados pueden tener relaciones sexuales, los ancianos de la tribu establecieron la
s.norma: “Si un hombre come raíz de cassava, entonces tiene que llevar un tatuaje en la cara”.
M.Goretti González 12
En el problema del huevo del avestruz se cuenta que la comida “duiker” es desable y escasa. Para poder comerla
hay que encontrar un huevo de abestruz, que es una tarea de caza compleja. En este caso la norma sería:
“Si comes “duiker”, entonces tienen que haber encontrado un huevo de avestruz”.
Cuando los sujetos razonan acerca de las situaciones con la estructura coste/beneficio sus respues-
tas se ajustan a las predicciones del procedimiento para la detección del engaño.
Cheng y Holyoak 89 rebaten la crítica de Cosmides a su primer experimento señalando que una
vacuna que protege a una persona conta una enfermedad no es propiament un “coste” pagado a
otra persona o grupo. Respecto a su segundo experimento sobre el contenido abstracto, afirman
que el mero hecho de decir que se ha de cumplir un “requisito P” para poder realizar una acción A,
no marca lingüísticamente a la “acción A” como beneficio obtenido.
Cheng y Holyoak, ponen de manifiesto que Cosmides utiliza términos “intercambio social” y
“contrato social” indiscriminadamente. Ella misma reconoce que los contratos sociales también
incluyen situaciones de permiso y regulación y utiliza en algunos casos una definición amplia de
intercambio social en la que incluye el cumplimiento de un requisito para obtener un beneficio, y
una definición más restrictiva cuando el contenido del problema se ajustaa a la estructura
coste/beneficio.
4.3. Polémica entre los esquemas de razonamiento pragmático y los contratos sociales
Los esquemas de permiso podrían interpretarse como normas de contrato social y Girotto, Blaye y
Farioli (1989) estudian otros esquemas de regulación: obligaciones donde no se da esta ambigüe-
dad. Respecto a las predicciones de Cosmides, se encuentra que sigue la facilitación cuando los
problemas se formulan como obligaciones, aún careciendo de estructura coste/beneficio.
Concluyen que la teoría de los esquemas de razonamiento pragmático explican número mayor de
resultados experimentales tanto interpretando casos como situaciones de regulación social como
con la estructura de coste/beneficio.
Regla 1: si se va a realizar la acción Y, entonces debe Regla 3: Si se satisface la precondición Z, entonces puede
satisfacerse la precondición Z. realizarse la acción Y.
Regla 2: Si la acción Y no se realiza, entonces no necesita Regla 4: Si no se ssatisface la precondición Z, entonces no debe
satisfacer la precondición Z. realizarse la acción Y.
M.Goretti González 13
ESQUEMAS DE OBLIGACIÓN (Cheng, Holyoak, Nisbett y Oliver, 1986)
Regla 1: Si OCURRE la situación Y, entonces se debe realizar la Regla 3: Si la acción Z se ha realizado, entonces puede haber
acción Z. ocurrido la situación Y.
Regla 2: Si no OCURRE la situación Y, entonces no es necesario Regla 4: Si la acción Z no se ha realizado, entonces la situación
realizar la acción Z. Y no debe haber ocurrido.
Una regla de permiso se convierte en una obligación desde el punto de vista del que hace la pro-
mesa y es un permiso desde la perspectiva del que la recibe. Siempre el sujeto intentará aplicar los
esquemas de reglas de su interlocutor (el que la hace, aplica el esq.permiso y el que la recibe
utilizará esq.de obligación) . Si se adopta un punto de vista neutro entonces se hará una
interpretación bicondicional de la situación.
Gigerenzer y Hug 1992 interpretan el cambio de perspectiva como evidencia a favor de la Tª de los
contratos sociales. Tienen como objetivo la diferenciación experimental entre el concepto de
contrato social y el algoritmo para la detección de tramposos. El porcentaje de respuestas
correctas disminuye cuando los sujetos resuelven la tarea de selección desde la perspectiva de un
contrato social con situaciones de permiso u obligación y en la que la detección de tramposos es
irrelevante. Defienden el papel que desempeña el mecanismo para la detección de los tramposos,
atenuando la relevancia del contrato social y descartando los esquemas de regulación.
Platt y Griggs 1993 logran separar por orden de importancia los efectos de algunos de los factores
que previamente habían producido facilitación, encontrando que la estructura coste/beeneficio es
necesaria praa obtener los efectos facilitadores en los problemas de contrato social. La perspec-
tiva del engaño y la presencia de la negación explicita sólo contribuyen a mejorar el rendimiento
cuando la tarea es ambigua. El término “debe” producía efectos facilitadores en un número mayor
de casos que los dos últimos factores.
Manktelow y Over, descartan ambas propuestas para apoyar una ampliación de la Tª de los MM
que incorpore las utilidades e sus representaciones. Señalan los efectos facilitadores de los térmi-
nos deónticos incluidos en los esquemas de permiso y los contratods sociales. Distinguen el condi-
cional con términos indicativos (tarea abstracta) y el condicional con términos
deónticos( esquemas de permiso y contratos sociales).
Jackson y Griggs señalan que los efectos facilitadores en los problemas con contenido abstracto
son productoo de dos factores ajenos a los esquemas de razonamiento:
1) enunciar la negación explícita para ¬p y ¬q , (“ Si hay una P, entonces hay un 7 ”--> “Si hay una P,
entonces no hay un 7”) y de la negación implícita sería “Si hay una P, entonces hay un 2” )
2) presentación de un contexto de búsqueda de posibles violaciones de la regla.
Cuando los problemas se formulan como esquemas de permiso abstractos, pero con la negación
implícita y en un contexto orientado a la comprobación de una regla y no a su violación, estos
efectos de facilitación desaparecen.
M.Goretti González 14
Cuando se usa la negación explícita, su formulación coincide con el antecedente de la regla 4 de los
esquemas de permiso, haciendo que el efecto de facilitación sea mayor en la evocación de los
esquemas.
Cuando se utiliza la negación implícita es necesario que el sujeto infiera que el cumplimiento de
una condición distinta a la comprendida en la regla implica que no se ha cumplido la condición de
la regla. Se supone que una de las dos condiciones y no ambas pueden ser satisfechas.
La propuesta de Cosmides sobre los contratos sociales queda asumida como parte de los esque-
mas de regulación de Cheng y Holyoak. La delimitación conceptual entre los esquemas de
regulación (permiso y obligación) y los contratos sociales es difusa y las críticas se han centrado
principalmente sobre el concepto de la estructura coste/beneficio, puesto que los problemas en
los que se han obtenido efectos facilitadores no se ajustan a esta estructura, incluso algunos de los
problemas utilizados por la misma Cosmides.
5. TEORÍAS DE LA RELEVANCIA
Sperber y Wilson parten del supuesto de que los procesos cognitivos se guían por la información
que sea más relevante en ese momento y sobre la que acomodan un contexto de supuestos para
maximizar su relevancia (Primer principio Cognitivo de Relevancia) Cuanto mayor son las expec-
tativas sobre los efectos cognitivos mayor será la relevancia y cuanto mayor sean los costes del
procesamiento menor será la relevancia.
El ser humano está preparado para interactuar con el ambiente, y con la información más saliente
y que sea fácil de representar. Sin embargo, la información que se comunica difiere de la
información ambiental puesto que en general suscita relevancia. Todo acto de comunicación
transmite una presunción de su propia relevancia (Segundo princpio Comunicativo de Relevancia)
Este principio garantiza que espontáneamente se ponga en marcha el proceso de comprensión
ante la emisión de un acto comunicativo.
En el laboratorio encontramos que las tareas suelen ser tan artificiales que las expectativas de
relevancia de los individuos son mínimas.Las consecuencias se pueden probar directamente en el
orden en qe se encuentran disponibles y se obtiene una conclusión cuando se alcanzan las expec-
tativas de relevancia. Las consecuencias más pertinentes: 1 y 2 menor
1) la regla implica que cualquier tarjeta con una (p) tendrá una (q) por el otro lado. cos te, y es -
fuerzo míni -
2) La regla implica que en la mayoría de los contextos hay casos p y q. mo.
3) La regla contradice el supuesto de que hay casos de (p) y (¬q)
Para que los sujetos logren una interpretación del condicional como una negación de los casos (p)
M.Goretti González 15
y (¬q) como la afirmación de que no hay casos (p) y (¬q) (negación implícita) hace falta que esta
consecuencia sea por lo menos tan accesible y rica en las expectativas sobre los efectos cognitivos
como los casos (p) y (q), entendido desde la interpretación de la regla y no desde su aplicación.
Sperber, Cara y Girotto 1995 diseñaron cuatro experimentos para analizar la versión abstracta y
varias temáticas de la tarea de selección vs distintas versioes de la tarea donde se manipularon los
efectos cognitivos y el coste dela relevancia. Los resultados se ajustaron a las predicciones de la Tª
de la Relevancia y mostraron la utilidad de las directrices propuestas con el fin de generar una
tarea de selección sencilla y con resultados correctos. La explicacón de estos resultados se
extiende a los efectos de facilitación encontrados en la negación explícita y con los términos
deónticos. Cuando se utiliza la negación:
“Si hay una consonante por un lado, entonces no hay número par por el otro”
Las tres consecuencias más pertinentes serían las siguientes:
1. la regla implica que cualquier tarjeta (p) tendrá por le otro lado una (¬q)
2. la regla implica que en la mayoría de los contextos hay casos (p) y (¬q) (negación explícita)
3. la regla contradice el supuesto de que hay casos p y q (negación implícita)
Los sujetos seleccionan las tarjetas (p) y (q) porque la negación implícita requiere menos coste y
los efectos cognitivos son los de la interpretación de la negación.
Los autores indican que la versión indicativa y la deóntica son dos tareas diferentes. En la primera
se razona sobre la verdad de la regla, mientras que en la deóntica se hace a partir del
cumplimiento de una regla. Los efectos de facilitación encontrados en la versión deóntica se expli-
can por su interpretación dentro de un contexto. Una regla que no contenga el término “debe”
puede interpretarse como algo que debería hacerse siempre y cuando la regla tenga sentido en el
contexto pragmático. En la versión abstracta no hace que la regla se interprete como un deber,
mientras que sí en la deóntica aunque no vaya explícito el término:
“Si hay una consonante por un lado, entonces “debe” haber un nº impar por el otro” (debe siempre)
“Si una persona bebe alcohol, entonces es mayor de edad” (no está el término “debe” pero se interpreta)
Cuando en la versión indicativa se logra la interpretación del condicional como una negación de la
existencia de casos p (hay consonante por un lado) y ¬q (no debe haber impar por el otro = par), y
en la versión deóntica como una interpretación de la ocurrencia p y ¬q, se resuelve la tarea correc-
tamente.
Evans distingue dos procesos para explicar el razonamiento: los heurísticos y los analíticos. Los
M.Goretti González 16
heurísticos seleccionan la información relevante y son procesos pre-atencionales de naturaleza
pragmática. La información seleccionada pasa a los procesos analíticos en donde tiene lugar el
razonamiento, aunque no existe un compromiso explícito con el tipo de modelo que permitiría
explicar las inferencias.
Ya sabemos que las respuestas más frecuentes en el condicional, son (p) y (p y q). La interpretación
original de Wason fue que los sujetos mostraban sesgo hacia la confirmaciónde la regla y no
perseguían su falsación. Sin embargo Evans 1972, descubrió que se daba la posibilidad de que se
diera otro sesgo, emparejamiento (E de Evans :-) Este consistía sencillamente en que los sujetos
estuvieran seleccionando las tarjetas que coincidieran con los términos de la regla y que no
pensaran en esa “afirmación” de Wason. En versiones afirmativas no se distingue entre ambos
sesgos, por lo que se investigó con las negaciones.
“Si hay una consonante por una cara , entonces hay un número impar por la otra”.
(p) (q)
Si ocurre el sesgo de emparejamiento, las tareas elegidas coincidirían con los términos de la regla
sin la negación y además sería lo correcto.
“Si hay una consonante por un lado, entonces no hay un número impar por el otro”
(si p, entonces ¬q)
Según el sesgo de confirmación se buscarían confirmar la regla y seleccionarían las tarjetas (p) y
(¬q) , mientras que si se da el sesgo de emparejamiento se seleccionarían las tarjetas (p) y (q)
(consonante y nº impar). Los resultados apoyan la hipótesis del emparejamiento. La selección de la
información se explica por dos heurísticos:
– uno se pone en marcha por término “Si” del condicional y hace que el sujeto se centre en el
antecedente,
– y el otro es de carácter más general y hace que la atención se dirija hacia el tema del
enunciado.
Ante una regla con una negación explícita, el sujeto se focaliza sobre el antecedente y el
consecuente y que pase de los procesos heurísticos sin haber razonado. (AY!!! si razonáramos algo más,
las cosas serían muy diferentes!) Se seleccionan las tarjetas relevantes, salientes, prominentes, sin pasar
por la parte analítica. En otras pruebas como en la tabla de verdad, la etapa analítica se pone en
marcha y filtra parte de la información que ha sido seleccionada en la etapa heurística.
6. TEORÍAS PROBABILÍSTICAS
6.1. Teoría bayesiana del condicional
Kirby 1994, introduce el análisis de los juicios probabilísticos para explicar el rendimiento de los
sujetos en la tarea de selección. El fracaso de la mayoría de los sujetos al no seleccionar la tarjeta
(¬q ) se explica por la baja probabilidad que hay de encontrar (p) cuando el conjunto de
ocurrencias es pequeño V.g. “vocales” Si hay una vocal por un lado, entonces hay nº impar en el
otro”.
M.Goretti González 17
Los autores Oaksford y Chater 1994 proponen que las frecuencias en la selección de las tarjetas
son una función monotónica de la ganancia en información que se espera obtener en cada una. Se
sitúan en el marco teórico en el que la racionalidad se entiende como adaptativa en el sentido de
que el comportamiento será racional si se adapta de forma óptima en el ambiente. Parte de los
siguientes supuestos:
1. las metas del sistema cognitivo se dirigen hacia la selección de información relevante.
2. Las propiedades que figuran en las relaciones causales son raras o poco frecuentes en el
ambiente.
3. Los sujetos resuelven la tarea de acuerdo con el modelo bayesiano para la selección óptima
de los datos y bajo el mencionado “supuesto de rareza”.
Los sujetos seleccionan la tarjeta (tarjetas) que al darle la vuelta aporte más información sobre la
comprobación de una de dos hipótesis:
1ª existe dependencia en la forma “Si p, entonces q), y
2ª la hipótesis alternativa más sencilla, que p y q son independientes.
Green, Over y Pyne 1997, encuentran que las estimaciones que hacen los sujetos sobre la ocurren-
cia de los contraejemplos de (q) se encuentran determinados por el tamaño del conjunto de (p),
aunque señalan que esta relación es algo más compleja porque el valor asignado a la información
(confirmación y desconfirmación) también se tienen que comparar con otros beneficios/costes
esperados.
La Teoría de la suposición de Evans y Over (2004) también asume que el razonamiento condicional
se basa en la evaluación de unas posibilidades que son hipotéticas con respecto a la ocurrencia del
antecedente. El condicional es un pensamiento hipotético por medio del cual se generan los MM
del antecedente y sobre esta base se considera la probabilidad o el grado de creencia de que
ocurra el consecuente. Ante un enunciado condicional “si p, entonces q”, los sujetos van a
considerar cuál es la probabilidad de que ocurra (q) dado (p).
Esta idea se opone a la teoría de los modelos mentales al no admitir que los modelos mentales se
ajusten a una interpretación del condicional básico como una implicación material. En la
formulación probabilística no hay cabida para la no ocurrencia del antecedente. Según la teoría de
la suposición, ante un enunciado condicional se emite un juicio sobre la probabilidad condicional
subjetiva de que ocurra el consecuente cuanndo ocurre el antecedente.
M.Goretti González 18
Evans, Handley y Over 2003, (seguían aburridos los pobres, je,je,je ) realizaron una investigación en la que
se pedía directamente a los sujetos que evaluaran la prob de los enunciados condicionales en un
contexto en el que se especificaba la frecuencia relativa de todas las posibles lógicas:
37 cartas con dibujos (círculo o diamante en amarillo o rojo)
– 1 carta con círculo amarillo.
– 4 cartas con diamantes amarillos.
– 16 cartas con círculos rojos.
– 16 cartas con diamantes rojos.
La tarea consistía en señalar en una escala de 1 (poco probable) a 5 (muy probable) la probabilidad
de que la siguiente afirmación fuera verdadera si se escogiera una carta al azar:
“Si la carta es amarilla, entonces tiene dibujado un círculo”.
(p) amarilla (q) círculo
(¬p) no amarilla (¬q) no círculo
Se calcula la probabilidad del enunciado codicional según se interprete como una implicación
material, una probabilidad condicional o una probabilidad conjuntiva. Según este cálculo, la
implicación material predice que el enunciado condicional será evaluado como muy problable
(0,90); la probabilidad conjuntiva como muy poco probable (0,03); y la prob.condicional como
enunciado con una probabilidad entre ambos extremos (0,20). (Vease las tablas de verdad)
Los resultados experimentales mostraron que el 50% de los sujetos se ajustaron a la interpretación
de la probabilidad condicional, y el 43% a la de la probabilidad conjuntiva, no siendo significativa la
del la implicación material (¡vamos que no elegimos bien cuando es la más probable!) La interpretación de los
datos de la probabilidad conjuntiva se corresponde con la del Modelo mental inicial de la Tª de los
Modelos Mentales (pq) aunque es inconsistente que los modelos mentales implícitos (¬pq y p¬q)
no hayan tenido ningún efecto sobre la evaluación del enunciado condicional.
Evans y Over no se oponen a la concepción de la teoría de los modelos mentales, son que su
crítica se centra en el supuesto de los valores de verdad. Defienden que las personas interpretan
un enunciado condicional como la probabilidad de que ocurra el consecuente cuando suponemos
que se ha dado el antecedente.
M.Goretti González 19
1
2. El teorema de Bayes
Cuando asignamos un valor de probabilidad a un suceso podemos conocer o no el espacio de
probabilidades.
Si se conoce este espacio, como en el lanzamiento de un dado o de moneda,
asumiendo la equiprobabilidad de las diferentes posibilidades, la probabilidad de un
suceso aleatorio sería el cociente entre el número de resultados favorables y el número
total de resultados posibles.
Si se repite el lanzamiento de un dado, la probabilidad de sacar un dos, será
equivalente a su frecuencia relativa de 1/6.
En la vida diaria, no conocemos el espacio completo de probabilidades en relación a
un suceso determinado, por lo que estimamos subjetivamente en relación al espacio
muestral, añadiendo que las diferentes alternativas no son necesariamente
equiprobables.
P (S1 y S2) = P (S1) x P (S2 dado S1) = P (S1 y S2) = P (S1) x P (S2/S1).
El Segundo factor de este producto se denomina probabilidad condicional de S2 dado S1.
Ejemplo: La P de que un paciente haya sido diagnosticado de ansiedad y se haya curado = P
(ansiedad) x P (curado/ansiedad) = 0,50 x 0,40 = 0,20
b) Si dos sucesos (S1 y S2) son INDEPENDIENTES, la probabilidad de la conjunción de estos
sucesos será igual al producto de la probabilidad de S1 por la probabilidad de S2. P (S1
y S2) = P (S1) x P(S2)
Siguiendo el Teorema de Bayes, el cálculo sería el resultado de dividir la probabilidad de los casos
favorables por la suma de las probabilidades de todos los casos posibles.
El axioma 4 explica el numerador del Teorema (P de casos favorables) y el axioma 3 explica el
denominador (suma de las probabilidades de los casos posibles.
Arieta Pinedo y González Labra señalan que la inferencia bayesiana permite introducir probabilidades
subjetivas tanto al evaluar a priori como al evaluar las probabilidades condicionales de un suceso.
Pueden obtenerse de distintas fuentes, tales como la evidencia, teorías previas o simplemente de la
opinión y creencias de la persona.
La hipótesis alternativa es la ausencia de la hipótesis focal de tal forma que su probabilidad
complementaria se calcula aplicando el axioma 2 de la Tª de la probabilidad. Fijémonos en el cuadro
6.1.
Teversky y Kahneman iniciaron y desarrollaron un programa de investigación que sustenta los tipos
básicos de heurísticos: representatividad, accesibilidad, y anclaje y ajuste.
Más recientemente se contempla el estudio desde un modelo más integrador.
a. Heurístico de representatividad
Definición
Los juicios probabilísticos responden a una de estas preguntas: 1. ¿Cuál es la P de que el objeto A
pertenezca a la categoría B? 2. ¿Cuál es la P de que el proceso B sea la causa del acontecimiento A?,
o 3. ¿Cuál es la P de que el dato A se genere a partir del modelo B?
Para responderlas acudimos al heurístico de representatividad por el cual las
probabilidades se juzgan en base a la medida en que A es representativo o se asemeja
a B.
La investigación ha demostrado que la información de los prototipos y esquemas
contribuyen significativamente a la forma en que almacenamos y procesamos la
información.
Esta estrategia para abordar estos juicios probables, produce sesgos significativos
pues la semejanza no se ve afectada por factores que deberían afectar a los juicios de
probabilidad.
La evidencia empírica demuestra el efecto de la insensibilidad a estos factores así
como el impacto sobre los juicios de concepciones estadísticas inexactas.
Según Gigerenzer y Hoffrage todos los trabajos que apoyan la dificultad de los humanos para aplicar
las normas de la inferencia bayesiana es el resultado de un planteamiento metodológico inadecuado:
Existe un desajuste entre la forma en la que se presenta la información a los
participantes y el formato de la representación cognitiva natural de dicha información.
Gigerenzer y Hoffrage se basan en la teoría de la evolución, donde la mente y su
entorno han evolucionado en paralelo. El formato natural de procesamiento de series
de eventos es la frecuencia más que la probabilidad o el porcentaje.
Éstos sostienen que las demandas computacionales de los algoritmos bayesianos son
más simples cuando la información se codifica en un formato de frecuencias más que
en el formato estándar de probabilidad.
El algoritmo bayesiano para calcular la probabilidad posterior P (H|D) sería el resultado de dividir el
número de casos con síntoma y enfermedad (dato e hipótesis) por el nº total de casos con síntoma
(casos con síntoma y enfermedad + casos con síntoma y sin enfermedad).
Las demandas con algoritmos bayesianos son más simples cuando la información se
codifica en el formato natural de frecuencias (8 de 10; 10 de 1000) porque las
probabilidades a priori no necesitan ser atendidas, lo cual es racional para el muestreo
natural.
Diferentes estudios comparativos entre las dos modalidades (frecuencia y formato
estándar de probabilidades) indicaron que el promedio de algoritmos bayesianos
correctos incrementó de 16% - estándar- a 46% en formato de frecuencias.
Resultados:
21 personas dijeron (a), otros 21 dijeron (b) y 53 personas dijeron la opción (c)
La mayor parte dijo que la probabilidad era la misma en ambos hospitales, aparentemente porque se
describe con el mismo estadístico, que se considera representativo de la población en general.
En contraste, la teoría del muestreo sostiene que el número debería ser superior en el hospital
pequeño porque en una muestra de gran tamaño es más difícil superar el 50%.
La insensibilidad al tamaño de la muestra explica también las expectativas en los juegos de azar, en la
medida en que esperamos que las muestras pequeñas de procesos aleatorios representen el
proceso con un elevado número de ensayos. Esta expectativa (intuición representativa local) explica
el fenómeno de la falacia del jugador.
Después de observar números rojos en la ruleta, la mayor parte cree que luego le toca
el “turno” al negro, cuando las probabilidades siguen siendo mínimas.
La falacia de la conjunción
La representatividad no es extensional, es decir, no siempre está determinada por la frecuencia ni por
la inclusión de clases de los datos que componen el espacio muestral.
Por el contrario, en el modelo normativo de la teoría de la probabilidad, la ley más simple
(cualitativamente) es el principio de la extensión:
Si la extensión de A (conjunto de posibilidades asociadas con A) incluye la extensión
de B (B ⊂ A) entonces P (A) > P (B).
Ya que el conjunto de posibilidades asociadas con la conjunción A y B está incluida en
el conjunto de posibilidades asociadas con A, puede aplicarse el mismo principio a la
conjunción: P (A) > P (A Y B).
Una conjunción no puede ser nunca más probable que cada uno de sus constituyentes.
Principio que se aplica tanto si A y B son o no independientes y es válido cualquier
valor de probabilidad del mismo espacio muestral.
El estudio de la regla de la conjunción en los juicios de probabilidad ofrece el contraste más claro
entre el principio o regla extensional de la teoría de la probabilidad y los principios psicológicos de la
representatividad.
Estudio:
El problema de Linda es el ejemplo más citado para representar la falacia de la
conjunción. Se proporciona a los participantes la descripción de la personalidad de
Linda.
Una joven de 31 años, soltera, sincera y muy brillante. Licenciada en Filosofía.
Cuando era estudiante estaba profundamente comprometida en temas de
discriminación y justicia social, participando también en manifestaciones
antinucleares.
Se presentan las opciones:
a) Linda es una maestra en escuela elemental.
b) Trabaja en una librería y asiste a clases de yoga.
c) Es feminista.
d) Es asistente social en psiquiatría
e) Es miembro de la Liga de Mujeres Votantes.
f) Es cajera de un banco
g) Es agente de seguros
h) Es cajera en un banco y feminista
Procedimiento: la tarea consistía en asignar puntuación del 1 al 8 las afirmaciones
anteriores donde 1 (muy probable) a 8 (menos).
La descripción de Linda fue diseñada para ser muy representativa de una feminista
activa y muy poco de cajera de banco, por lo que se esperaba que considerasen más
representativa de la personalidad de Linda la CONJUNCIÓN de ambas (h) que el menos
representativo (f).
Resultados: el porcentaje de participantes que mostró el orden predicho de c > h > f
fue del 85%
La violación de la regla de conjunción es la comparación directa entre f y h (falacia de la
conjunción).
Según Teversky, la semejanza de un ejemplar con una categoría se define en función de la
ponderación de las propiedades que son comunes y distintivas y esta ponderación varía en función del
contexto estimular y la tarea experimental.
En la descripción de Linda, la ponderación con una cajera de banco es baja. El hecho
de añadir feminismo como rasgo distintivo explica la forma en que los participantes
ordenaron la lista de afirmaciones sobre las actividades que desarrolla ella, en función
del grado con el que encajaban con el estereotipo que se deriva de la descripción.
b. Heurístico de accesibilidad
Las personas evaluamos la frecuencia de los ejemplares de una categoría o probabilidad de un
acontecimiento por la facilidad con la que los ejemplos nos “vienen a la mente” o se “nos ocurren”.
Evaluamos por ejemplo el riesgo de sufrir un infarto más probable en personas de
entre 50 y 60 años.
La frecuencia o probabilidad de un evento, acontecimiento o circunstancia se juzga en
base a la disponibilidad o facilidad de acceso a sus ejemplos porque los ejemplos de
categorías más frecuentes se recuerdan más fácil y rápido que los ejemplos de
categorías menos frecuentes.
No obstante, a veces esta accesibilidad se ve afectada por otro tipo de factores, produciéndose
sesgos que Teversky y Kahneman agrupan en cuatro: sesgo debido a la facilidad de recuperación, a la
facilidad en la construcción de ejemplos, en la facilidad para imaginar situaciones, y en la correlación
ilusoria e ilusión de control.
Resultados:
Todos los sujetos (todos independientemente de la condición experimental)
informaron que les resultaba más difícil recordar palabras que la tienen en la tercera
posición.
El efecto de la manipulación del valor diagnóstico de la experiencia de recuperación
produjo un impacto significativo en los juicios de frecuencia relativa de los
participantes.
- Aquellos que creían que la hoja facilitaba, emitieron el juicio más bajo de
frecuencia relativa de las palabras que empezaban por (t).
- Los que creyeron que su ejecución había sido inhibida, aportaron el juicio más
alto de frecuencias relativas de las palabras que empiezan por (t).
- El juicio de los del grupo de control se mantuvo en medio de los otros.
Estos resultados demuestran que la experiencia fenomenológica o subjetiva de facilidad o dificultad
en la recuperación de la fuente de información determina la estimación de la frecuencia relativa en los
juicios.
Cuando la experiencia PIERDE versus gana el valor diagnóstico, la frecuencia relativa
DISMINUYE versus aumenta en coherencia.
Por tanto, la estimación de frecuencias relativas se basa en la experiencia subjetiva de
facilidad de recuperación y en el grado de confianza que el sujeto atribuye a dicha
experiencia.
Una variable relevante es la accesibilidad de posibles contextos.
Los contextos de palabras abstractas como amistad, amor,... resultan más fáciles de
imaginar o asociar a historias vividas, leídas o películas que palabras concretas y
careciendo de connotaciones por lo que no se evoca fácilmente algún escenario.
También puede el riesgo puede ser subestimado, si el peligro real es difícil de concebirlo o no
acceden a la mente.
Estudio: Sherman, Cialdini y otros pusieron a prueba esta hipótesis:
Procedimiento:
Grupo de control (sólo lectura): leyeron informe sobre una supuesta enfermedad
(hiposcenia - B).
Grupo fácil imaginar: los síntomas de la enfermedad eran concretos y mucho de estos,
experimentados por los participantes (cansancio, dolor muscular,...). Grupo difícil de
imaginar: los síntomas eran menos concretos (sensación vaga de desorientación, mal
funcionamiento del SN e inflamación de hígado).
En la condición fácil se les pedía que imaginaran los síntomas mientras leían el
informe.
Luego se les pidió que juzgaran la probabilidad de sufrir hiposcenia – B en el futuro en
escala de 1 (poca) a 10 (mucha).
Resultados: Los imaginativos mostraron tendencia a juzgar la probabilidad de contraerla
mayor al grupo control e inferior en la del grupo “difícil imaginar”.
Estudio: se presenta una doble pregunta: a) ¿cómo te sientes de feliz con tu vida en
general? Y b) ¿cuántas citas románticas has tenido durante el último mes?
Resultados: demostraron que la correlación entre ambas fue insignificante
planteadas en este orden, y sí correlacionaron con valor de 0,66 invertido el
orden de las mismas. Por tanto, el nº de citas del último mes, no puede
considerarse representativo del sentimiento global de felicidad, pero la
accesibilidad de la información le confiere una saliencia y peso relativo
elevados.
La evaluación retrospectiva de las experiencias con valor afectivo ilustra bien el doble proceso de
sustitución basado en la accesibilidad de la información.
La evaluación retrospectiva de la intensidad de la experiencia afectiva se basa
fundamentalmente en el promedio entre la media del pico más saliente de la
experiencia global y el pico más próximo al final de la experiencia.
Estudio: Redelmeier y Kahneman registraron el nivel de dolor en una prueba de
colonoscopia.
Dicha prueba duraba de entre 4 y 69 minutos. Se tenía paciente A y B, y los
resultados evidenciaron que la evaluación retrospectiva del dolor producido por
la prueba, podía predecirse con un grado considerable de eficacia promediando
el pico más elevado con la magnitud de dolor que había producido el momento
final de la experiencia.
A informó que había sido mucho más desagradable pero el pico máximo no se
diferenció entre ambos sujetos y el participante B soportó una prueba más
prolongada.
Lo que ocurre es que el valor afectivo de la experiencia para el A quedó
determinado por ser este pico alto próximo al final de la prueba. El simple
hecho de añadir al terminar la experiencia un intervalo corto de malestar
mínimo produce en los pacientes una evaluación global de la experiencia como
menos aversiva e incrementó luego pruebas de seguimiento.
Un doble proceso de sustitución da lugar al heurístico del prototipo que determina el juicio subjetivo
del sujeto.
La categoría “dolor que produce la experiencia global” se sustituye por el prototipo
“promedio del pico más elevado de dolor y del valor más próximo al final de la
experiencia”. Pero en este caso la propiedad del prototipo no viene dada por la
representatividad de la información (duración total de la experiencia o magnitud
promedio del dolor global) sino por su accesibilidad en la memoria.
A diferencia de los ejemplos descritos en los apartados previos, el ejemplo del “dolor” no constituye
en rigor un juicio probabilístico, sino la estimación cuantitativa subjetiva de una experiencia con valor
afectivo.
El efecto del heurístico de anclaje no responde al doble proceso de sustitución de los
heurísticos del prototipo. Aunque puede también integrarse en el amplio marco
conceptual de los efectos de accesibilidad.
En el caso anterior los valores de partida no eran informativos al ser producto de azar. Valores
numéricos informativos pueden también servir como anclajes. El participante basa su estimación en
un cómputo inicial incompleto.
La investigación reciente sugiere que el anclaje se origina con frecuencia en la fase de recuperación de
la información y que el ancla actúa como una sugerencia, haciendo que la información consistente
con ella sea accesible rápidamente.
Se ha demostrado que el efecto de anclaje no se produce si no se cumplen determinadas
condiciones de compatibilidad entre ancla (valor inicial) y juicio requerido, como es la escala de
medida en la que se formulan ambos.
Además Strack y Mussweiler 1997, indicaron que es necesario que se expresen en la misma dimensión
(altura vs anchura).
Estudio: a varios participantes se les formuló dos preguntas. – 1ª juicio comparativo
considerando valor del ancla “mayor o menor que”, – 2ª juicio absoluto.
Se utilizaron cuatro condiciones 2 x 2 (compatibilidad o no de la dimensión del ancla
con la dimensión del juicio y valor del ancla alto vs bajo).
La interacción significativa de las dos VI reveló que el efecto de anclaje solo fue
significativo cuando las dimensiones fueron iguales y sólo cuando el valor del ancla fue
elevado (resultados Jacovitz y Kahneman).
Según Strack y Mussweiler, estos resultados no pueden explicarse por la mera activación generada
por el valor numérico del ancla. El hecho de que el efecto de anclaje disminuya de forma significativa
cuando la dimensión del juicio difiere de la del ancla, no puede explicarse por el priming numérico
que proporciona el ancla.
Sugieren los resultados que la fuerza del efecto depende de la medida en que la información es
activada por el ancla también se percibe como aplicable al juicio absoluto.
Strack y Mussweiler 1997 terminan su investigación con otro experimento que permite poner a
prueba la hipótesis del priming semántico y no el numérico per se, es el responsable de los efectos de
anclaje.
Estudio: en este caso utilizaron un 2 x 2 (ancla plausible / no; ancla alta vs baja)
Como VD se registraron valores de juicios y la latencia de respuesta en los dos juicios
(comparativo y de valor absoluto).
Chapman y Johnson 2002 presentan modelo alternativo a esta propuesta de Tversky y Kahneman del
1974, que permite interpretar el sesgo de anclaje en amplio abanico de tareas y procedimientos
experimentales.
El mecanismo se basa en proceso de accesibilidad selectiva que se genera en la fase
inicial de recuperación de la información y determina la formación de la respuesta.
Este proceso es el resultado de múltiples causas y los mecanismos responsables
pueden producirse en más de una fase.
Los sesgos y errores se producen a consecuencia del priming asimétrico en el proceso
de recuperación de la información, incrementando desproporcionadamente la
disponibilidad de rasgos compartidos por “ancla” y respuesta y reduciría la
disponibilidad de aquellos rasgos que los diferencian.
Ejemplo: imaginamos haber heredado una silla antigua a la cual tenemos que asignar un precio.
El precio de una similar fijado por un anticuario podría servir para valorarla y ajustarla
luego según la diferencia en calidad. En este caso, el proceso de anclaje es equilibrado
e ilustra la funcionalidad del heurístico como recurso rápido que implica un esfuerzo
cognitivo mínimo.
Imaginemos que asistimos a subasta televisiva de muebles antiguos y utilizamos el
precio de partida de una silla similar en diseño pero firmada por un importante
diseñador. Si activamos los rasgos compartidos en detrimento de los rasgos que
El grado de subaditividad es influido por varios factores, uno puede ser la interpretación de la escala
de probabilidad.
La subaditividad será más pronunciada cuando la probabilidad se interpreta como la
predisposición de un caso individual, respecto a cuándo se estima como frecuencia
relativa en una determinada población.
Kahneman y Tversky denominan respectivamente a estas dos modalidades de juicio
singular y distribucional (más preciso).
Esta propuesta (de los amiguetes K y T) indica que la disyunción implícita “accidente”
se desempaqueta con mayor facilidad en sus componentes “accidente de coche, de
avión, fuego, ahogamiento,...”cuando se considera a la población en su conjunto frente
a una persona individual.
La razón es que las posibles causas de muerte se representan en las estadísticas de
mortalidad de la población, pero no en la muerte de una persona. La tendencia a
“desempaquetar” una disyunción implícita es mayor en modo distribucional que en
singular o individual.
Por tanto, cuando el problema se formula en términos de frecuencias se espera que se
produzca menor “descuento”, es decir, menor diferencia entre la probabilidad de la
hipótesis implícita y la suma de las probabilidades de las hipótesis elementales
explícitas.
Estudio: Tversky y Koehler 1994 pusieron a prueba el supuesto del principio del “desempaquetado”: la
subaditividad para las disyunciones implícitas.
Los participantes se dividieron en 2 grupos:
- 1. Grupo: Recibió la instrucción de estimar las probabilidades de muerte para el caso
de una persona determinada como consecuencia de causa específica.
- 2. Grupo: Realizaron una tarea de juicios de frecuencia y evaluaron el porcentaje de
personas de los 2 millones de muertes del año previo que podían atribuirse a cada
una de las causas.
La tarea consistía en evaluar una hipótesis implícita (muerte como resultado de causa natural) o una
disyunción explícita (muerte a consecuencia de una enfermedad cardíaca, cáncer o alguna otra causa
natural), pero nunca ambas.
Se definieron tres componentes y cada uno se dividía en 7 subcomponentes. Se esperaba que el
hecho de explicitar en mayor medida las causas de la muerte incrementaría la subaditividad: la
diferencia entre la probabilidad asignada a la hipótesis implícita y la suma de las probabilidades de
los componentes de la hipótesis. Los resultados arrojaron que la estimación media de una disyunción
implícita - P(causas naturales) - , es menor que la suma de las estimaciones media de sus
componentes.
Las situaciones con prob.0 (cero) corresponden a lo que es falso, por lo que, de acuerdo
con la teoría, no se representan generalmente en los modelos.
Para explicar las inferencias bayesianas se requiere de un 5º principio que Johnson-Laird y col.
Ilustran con este ejemplo:
De acuerdo con las estadísticas, 4 de cada 10 personas sufren una enfermedad,
3 de cada 4 con la enfermedad tienen el síntoma, y 2 de cada 6 sin la
enfermedad tienen el síntoma. Pat es una persona seleccionada al azar y tiene
el síntoma. ¿Cuál es la probabilidad de que Pat sufra la enfermedad?
Los sujetos ingenuos construirán los modelos mentales verdaderos y equiprobables, que serían
etiquetados con sus valores numéricos apropiados.
Modelos implícitos
Giutto y Gonzalez 2001 manipularon el contenido de las instrucciones para ayudar a los sujetos a
considerar el numerador y denominador de forma adecuada, aplicando el principio del subconjunto
para calcular la probabilidad condicional inversa.
Para resolver problemas similares al de Pat plantearon dos pasos pidiendo que se
completaran frases añadiendo los valores:
Vamos a analizar cuál es la P de que Pat sufra la enfermedad en el supuesto de
que presente el síntoma. Del total de 10 posibilidades, Pat tiene ___
posibilidades de tener el síntoma; entre éstas ___ estarían asociadas con la
enfermedad.
Las instrucciones facilitaron la respuesta correcta (de 5 posibilidades de tener el síntoma, 3 están
asociadas con la enfermedad).
Según Johnson - Laird y col , la versión numérica del principio del subconjunto no podría aplicarse de
forma obvia si los datos se proporcionan en porcentajes o en frecuencias. Los principios normativos
de la inferencia bayesiana resultan contra-intuitivos frecuentemente y propone una pedagogía del
razonamiento bayesiano basada en la teoría de los Modelos Mentales en la que las probabilidades se
planteen en términos numéricos sencillos, y así permitir la inferencia de la P condicional posterior
aplicando el principio del subconjunto sin necesidad de aplicar el Teorema de Bayes.
Barbey y Sloman 2007, integran el enfoque de los MM enmarcado en las hipótesis de los conjuntos
anidados.
Los errores y sesgos en la inferencia bayesiana se reducen de forma considerable
cuando el planteamiento del problema facilita la representación de las relaciones
inclusivas de las categorías relevantes para resolverlo.
Según éstos el que se haga más fácil debido a la presentación de frecuencias en vez de
en formato de probabilidades, se debe a que el formato de frecuencias contribuye a
clarificar y hacer más transparentes las relaciones inclusivas pertinentes.
Los autores proponen una representación transparente de las tres categorías relevantes del
problema, basada en la representación gráfica con círculos de Euler.
Ejemplo: compararon el rendimiento de dos grupos de sujetos en dos versiones de un
problema semejante al de Pat.
Se ha desarrollado una prueba para detectar una enfermedad. La probabilidad
de que un americano la padezca es de 1/1000. Un individuo que no padece la
enfermedad tiene una probabilidad del 5% de dar positivo en la prueba. Un
individuo que padece la enfermedad dará positivo en la prueba en todos los
casos. ¿Cuál es la probabilidad de que una persona extraída al azar que dé un
resultado positivo padezca realmente la enfermedad?
La respuesta modal con este tipo de versión es 95% ya que suponiendo que el error
de la prueba sea un 5% (falsos negativos), debería producir un 95% de resultados
correctos.
Los sujetos estarían pasando por alto la probabilidad a priori de sufrir la enfermedad
siendo uno de los sesgos más característicos en la estimación de P condicionales.
Los grupos que se compararon diferían exclusivamente en que en el grupo
experimental la redacción del problema se acompañaba del diagrama que se
representa -A- y el porcentaje de respuestas correctas ascendió de 20% a 48%.
La gráfica de los conjuntos anidados redujo de forma sustancial el sesgo observado en la condición
control, a pesar de que el problema se formuló en términos de probabilidades.
Los diagramas hacen explícito que las posibilidades de que una persona dé positivo en
la prueba (tenga síntoma) es un subconjunto de todas las posibilidades y que las
posibilidades de padecer la enfermedad es, a la vez, un subconjunto de las
posibilidades de dar positivo en la prueba.
La representación de las relaciones inclusivas de las categorías nos ayuda a inferir la
respuesta correcta: del total de individuos que da positivo en la prueba, 50, 1
padecerá la enfermedad: 1/50 =2%.
Sloman y cols. 2003 demostraron que el hecho de añadir la categoría de “falsos negativos” al
problema incrementaba significativamente la dificultad, tanto en términos de probabilidad como de
frecuencias.
La nueva categoría no era relevante y no altera el valor del resultado pero incrementa
en complejidad, ya que dificulta captar las relaciones relevantes. Añadirla supone la
representación de un modelo mental adicional que aumenta la “carga” en la memoria
de trabajo y dificulta la aplicación del principio del subconjunto para alcanzar la
solución correcta del problema.
Según la teoría de los modelos mentales, el hecho de añadir la categoría de FN supone la
representación de un modelo mental adicional, que aumentaría la carga en la MT y dificulta la
aplicación del principio del subconjunto. Los individuos intentan minimizar la carga de la memoria de
trabajo representando de forma explícita sólo aquellos casos en los que las premisas son verdaderas
y se pasan por alto los casos en que son falsas.
Johnson-Laird y Savary demostraron que razonando sobre probabilidades relativas, la mayor parte de
los sujetos alcanzaban conclusiones imposibles cuando no consideraban los casos en que las premisas
son falsas:
Solo una afirmación es correcta sobre una mano de cartas de póker:
Hay un Rey o un As, o ambas
Hay una Reina o un As, o ambas
¿Qué es más probable, el Rey o el As?
Los participantes asumirían de forma tácita el principio de indiferencia o
equiprobabilidad de las premisas e inferirían que aquel evento que ocurre en un
mayor número de modelos es el que tiene mayor probabilidad de ocurrir.
La respuesta mayoritaria de los sujetos es el As y se justifica porque el As aparece en
una proporción superior de modelos mentales. La respuesta es falsa.
El enunciado es planteado como una disyunción exclusiva: X o Y, pero no ambas. Por
tanto, no pueden ser ciertas las premisas una y dos simultáneamente.
El As es el elemento común a ambas premisas, si una de ellas es falsa, el As es falso
también en la otra. Nunca el As podría ser más probable que el REY.
Cuando los casos falsos se tienen en cuenta y no se contempla la equiprobabilidad de los modelos
mentales, la respuesta correcta emerge con facilidad en la representación mental del sujeto. Cuando
la basamos en la menor información explícita posible para evitar saturar nuestra limitada capacidad
de procesamiento, podemos llegar a conclusiones ilusorias sobre lo que es más probable. El exceso
de confianza subjetiva emitida revela modalidades de ilusiones cognitivas.
Un MMP para una tarea determinada integra una clase de referencia (ciudades con + de 200000
habitantes), una variable criterio (nº de habitantes), y claves probabilísticas que varían en su grado de
validez.
La MMP asume que las inferencias sobre preguntas inciertas o desconocidas se basan
en estas claves probabilísticas, que se generan, se evalúan y se activan para dar la
respuesta.
En el ejemplo se podían dar: a) tener o no equipo de fútbol, b) ser capital o no de una
comunidad autónoma c) tener o no Universidad d) ser ciudad o no de veraneo,... Si las
ciudades a y b tuvieran ambas equipo de fútbol, esta clave no sería válida pues no
ayuda a responder la pregunta.
La Teoría asume que el orden en que se generan las claves refleja una jerarquía de
acuerdo con su grado de validez. Se ilustra la jerarquización de las claves
probabilísticas para inferir la R en la siguiente figura:
El conocimiento limitado del
participante se concreta en los
valores perdidos en la matriz de
objetos a comparar x claves
probabilísticas. Los propios objetos,
las claves y/o los valores de las claves
pueden resultar desconocidos para el
sujeto.
Gigerenzer, Hoffrage y Kleinbölting 1991 pusieron a prueba su teoría con este diseño:
Estudio:
Se formularon 2 tipos de preguntas:
- Representativas: se utilizó como clase de referencia en un ambiente natural de
participantes alemanes Conjunto de ciudades del oeste de Alemania con más de
100.000 hab.
- Seleccionadas: fueron de cultura general, y se sometieron al mismo grupo de
sujetos.
El sujeto debía emitir un juicio de confianza relativo a cada una de sus respuestas, tras
contestar a la pregunta; y un juicio de frecuencia que debía emitir después de cada
bloque de 50 preguntas, referido al nº estimado de respuestas correctas en dicho
bloque.
De acuerdo con la Tª de MMP, el sesgo de sobreconfianza, esperado en los juicios sobre cada
pregunta individual, debería corregirse y ajustarse a la eficacia objetiva cuando se emite un juicio de
frecuencia. El supuesto que lo justifica es que cada bloque de preguntas, en conjunto, constituía una
muestra de la clase de referencia natural “conocimiento de cultura general que he demostrado en
pruebas o exámenes previos”.
Resultados:
En relación a los juicios de confianza se observa un sesgo de sobre-confianza que es
más acusado cuanto mayor es la eficacia de las respuestas de los sujetos.
El sesgo se corrige cuando se utilizan preguntas representativas.
La curva de confianza para el grupo de preguntas representativas se asemeja a una
curva de regresión para la estimación del porcentaje de aciertos a partir de la
confianza asignada, revelando subconfianza en la parte izquierda, sobreconfianza en
la derecha y cero sobreconfianza como promedio.
La media de las diferencias no difiere significativamente de 0 por lo que es un juicio
bien calibrado.
Se analiza la curva de calibración del conjunto de preguntas emparejadas, las
preguntas representativas equivalentes en nivel de dificultad a las de cultura general.
En consonancia con la predicción de los MMP, si las ciudades a comparar no son
representativas de la clase de referencia, la calibración no es ajustada y se observa
también el sesgo de sobreconfianza en este dominio especifico de conocimiento. El
sesgo se corrige cuando el juicio de confianza se refiere a la frecuencia de aciertos en
una muestra representativa de preguntas seleccionadas. La diferencia media entre la
frecuencia estimada de respuestas correctas en cada bloque de preguntas
seleccionadas y la frecuencia real no difiere de 0.
De acuerdo con los autores de los MMP, si bien los resultados apoyan la teoría como modelo
integrador de resultados empíricos, ésta requiere un mayor desarrollo para responder a
determinadas cuestiones que no quedan resueltas con claridad. Los aspectos a delimitar son la
selección de la clave probabilística que se activa, si el orden en que se activan las claves es ajustado a
la jerarquía de acuerdo con su validez, o las condiciones que determinan que las claves se sustituyen
o se integran de forma múltiple.
Gigerenzer y Goldstein formulan el algoritmo básico “TakeThe Best” (elige el mejor – TTB), que
constituye el marco conceptual de la teoría de los MMP.
El algoritmo representa gráficamente como un diagrama de flujo basado en 5 principios
para claves binarias.
Supone una ordenación subjetiva de las claves de acuerdo con su grado de validez. La
clave superior en el rango constituye la mejor clave, que permite discriminar entre las
dos alternativas de R.
I. Principio de reconocimiento
Reconocimiento de un objeto constituye un predictor de la variable.
Ejemplo: sería el número de habitantes. Si una persona debe decidir cuál de las dos
ciudades a y d tiene más hab., la inferencia será la ciudad a) porque no ha oído hablar de
la otra ciudad.
El modelo TTB se enmarca dentro de un modelo de racionalidad ecológica que permite explicar cómo
el sesgo de sobreconfianza se corrige cuando el participante realiza la inferencia sobre objetos de su
entorno natural (clase de referencia), que le permiten seleccionar claves probabilísticas con
suficiente validez en relación a una variable derivada de la clase de referencia. Una clave
probabilística válida es aquella capaz de predecir la inferencia adecuada.
El modelo teórico del juicio probabilístico que integra esta dicotomía predice sobre-confianza cuando
la fuerza es elevada y el peso es bajo y subconfianza cuando la fuerza es baja y el peso es elevado.
La fuerza de la evidencia tiende a dominar ya que el sujeto se focaliza en la
“impresión” que le produce la evidencia (calidez de la carta) para luego ajustar el
juicio de acuerdo con su conocimiento de su validez (fiabilidad de quien la escribe).
El juicio combina el anclaje en la fuerza de la impresión basándose en la
representatividad de la evidencia, con un proceso de ajuste que tiene en cuenta el
valor predictivo de la evidencia (insuficiente).
Ejemplo: Imaginemos el juzgar la probabilidad con la que una persona será contratada
a partir de una cara de recomendación escrita en términos cálidos y enfatizando en
sus cualidades positivas.
Las personas focalizamos en la fuerza o carácter extremo del contenido de la carta y
tendemos a predecir un resultado favorable al candidato, sin atender de forma
suficiente al peso o validez predictiva de la carta: la credibilidad de quien la escribe.
Tendemos a pasar por alto el tamaño de la muestra.
Relación modelo fuerza-peso con el concepto de calibración en 5.2.
El análisis precedente sugiere que las personas basamos la confianza en nuestro rendimiento en la
impresión sobre los resultados sin observar suficientemente la calidad de los datos.
Griffin y Tversky replican y reinterpretan el efecto fácil-difícil de acuerdo con este
enfoque.
Estudio: Lichtenstein y Fischhoff demuestran en un experimento (respaldado por
estudios posteriores) que:
- El efecto de sub-confianza (un rendimiento objetivo superior al juicio de confianza)
se daba en buena parte del rango cuando los ítems eran fáciles.
- Un efecto de sobreconfianza (rendimiento inferior el juicio de confianza) a lo largo
de la mayor parte del rango cuando los ítems eran difíciles.
- Una sobreconfianza extrema en todo el rango cuando eran “imposibles”
(considerar si un párrafo en inglés lo había escrito un británico o un americano).
Koehler y col encajan los resultados en el marco teórico de Griffin y Tversky y con el enfoque más
general de los heurísticos en el juicio probabilístico.
Interpretan que la “impresión” que causa el síntoma cuando el médico se enfrenta a
un caso particular se ve reforzada por la accesibilidad de la fuente de información: el
carácter vívido de la experiencia personal y la proximidad al paciente.
Esta impresión, que determina inicialmente la fuerza de la evidencia, adquiere especial
relevancia debido a un factor adicional: la probabilidad a priori.
La “saliencia” del síntoma parece variar, además, en relación inversa con la tasa de la
enfermedad en la población. Cuanto más atípica resulta la enfermedad, mayor
relevancia adquiere el síntoma y esta relevancia facilita la recuperación de la memoria
de información coherente con la evidencia, que resulta de mayor medida disponible.
La disponibilidad de síntomas coherentes con la hipótesis focal contribuye a su
proceso de “desempaquetado” en sus síntomas componentes, incrementando así su
probabilidad subjetiva.
El sesgo en la focalización inicial del juicio a favor de la hipótesis focal respecto a las
hipótesis alternativas, restará eficacia al proceso de ajuste final, que no considerará de
forma suficiente la discriminabilidad objetiva del síntoma: su validez predictiva real de
la enfermedad.
Esta combinación de fuerza (impresión) y peso (validez predictiva) de la evidencia (tos aguda y
persistente) respecto a la hipótesis focal (neumonía) se ajusta con bastante exactitud al marco teórico
de Griffin y Tversky.
La combinación de fuerza alta (tasa muy baja) y peso bajo (discriminabilidad baja) produce
sobre-confianza extrema (línea negra discontinua de puntos), mientras que la combinación de
fuerza baja y peso alto produce subconfianza (discontinua rayas). Cuando la fuerza tiende a
ser alta peor moderada y el peso elevado la calibración es ajustada (raya negra solida), aunque
tiende a la sobreconfianza.
Según Kahneman [...] estamos predispuestos a pensar que el mundo es más regular y predecible de
lo que realmente es porque nuestra memoria, de forma automática y continua, mantiene una
historia sobre lo que está sucediendo, y porque las reglas de la memoria tienden a hacer la historia
tan coherente como sea posible y a suprimir las alternativas. El pensamiento rápido no duda. [...]
cuando una impresión convincente entra en conflicto con nuestro conocimiento, la impresión
generalmente prevalece [...]
a. Probabilidad de ocurrencia
Las estimaciones de la probabilidad se encuentran determinadas por el uso de heurísticos concretos y
éstos a su vez influyen sobre la elección final de la opción.
Ejemplo: Las madres que sobreestiman la probabilidad de ocurrencia de una
enfermedad grave por el impacto de una noticia. Este aumento de la probabilidad
percibida producido por el heurístico de accesibilidad puede llevar a tomar decisiones
sobre aplicar tratamiento o vacunación no siempre acertada.
Estas sobreestimaciones de las probabilidades ocurren con las alternativas más
deseables, y la subestimación con lo menos deseable. Esta tendencia es conocida
como Principio de Pollyanna (protagonista de novela que siempre tenía razones para
ser feliz).
Ejemplo: Se da en los concursos o juegos de lotería en los que las personas que
juegan sobreestiman las posibilidades de ganar el premio. También se dan a la
vez otros sesgos: sesgo de exceso de confianza en el juicio emitido, o sesgo
retrospectivo consistente en la creencia, conocido el resultado final, de que las
cosas podían suceder de esa forma y se había predicho previamente.
b. Evaluación de consecuencias
La evaluación de las consecuencias de los resultados ha sido habitual que se conceptualizara en
términos de ganancias o pérdidas.
Es frecuente estudiar la toma de decisiones en los juegos de azar con situaciones de
elección entre dos apuestas. Los modelos más estudiados han tratado la elección bajo
riesgo con un solo atributo en cada alternativa, generalmente la ganancia y la pérdida
económica tras la ocurrencia o no del suceso.
Cuando es un tanto más compleja y cada alternativa muestra una serie de atributos, los modelos
normativos son complicados y para llegar a una decisión, requieren tanto de experto en el tema
sobre el que se trata como de experto en el análisis de la decisión.
Ejemplo: La necesidad de evaluar simultáneamente las probabilidades y las
consecuencias se pone de manifiesto cuando éstas afectan a toda la población
(análisis de campañas de vacunación contra enfermedades de baja prevalencia, pero
cuyas consecuencias son graves que no permiten correr riesgos).
En otros casos más sencillos, la persona realiza una elección bajo incertidumbre evaluando
expectativas y sus consecuencias. Las alternativas tienen cualidad para el individuo (beneficiosa o no)
y una importancia determinada (según el grado de beneficio o perjuicio) que son diferentes para
cada persona y que también varían en la misma en distintas situaciones (intraindividual).
En la toma de decisiones se suelen diferenciar tres situaciones relacionadas con las expectativas:
1. aquellas en las que se conocen las probabilidades (comprar o no un billete de lotería)
CONTEXTO DE RIESGO
2. en las que se desconocen y éstas se pueden estimar (seguir trabajando o poner negocio
propio) CONTEXTO DE INCERTIDUMBRE
3. situaciones en las que hay certeza sobre las opciones y sólo se ha de elegir entre las mismas
(pedir carne o pescado en el restaurante). La certeza indica que no hay dudas sobre los
acontecimientos futuros y la decisión se toma bajo este supuesto.
CONTEXTO DE CERTIDUMBRE
Suponían que el valor que el sujeto asignaba a una cantidad monetaria coincidía
exactamente con esta.
Los modelos desarrollados bajo este supuesto se denominaron Modelos del valor esperado
coincidiendo este valor con la esperanza matemática el juego.
El Valor esperado de una alternativa es la suma del producto de c/valor por su
probabilidad de ocurrencia. La mejor elección será aquella que obtenga el máximo
valor esperado:
La alternativa 1 es la mejor porque tiene un valor esperado de 900 euros frente a 404
de la 2ª. Esta cantidad es promedio ponderado de los resultados que se esperan
ocurran en el futuro. Se pondera cada resultado posible con respecto a la frecuencia
con que se espera.
También se puede obtener a partir de estimaciones subjetivas, y es el valor esperado
la representación de las creencias personales sobre la ocurrencia del posible
resultado.
II. Paso del valor esperado a la estimación subjetiva - Paradoja de San Petersburgo
Según la teoría del valor esperado los sujetos buscan maximizar sus ganancias y elegirán la opción 1.
No obstante, no todos se ajustan a la elección y prefieren la opción 2, en la que se gana menos pero
se gana siempre. Ello hizo que el “valor esperado” fuera sustituido por el concepto de la utilidad
esperada, entendida como el grado en que las consecuencias de una opción alcanzan las metas
personales en una situación determinada.
La primera objeción a este criterio fue en el S.XVIII (Nicolás Bernouill) aunque fue Daniel Bernouilli el
que desarrolló y lo publicó como Paradoja de San Petersburgo.
Trata de la decisión de un jugador ante un juego con valor esperado infinito:
- El jugador A plantea las reglas del juego y el jugador B tiene que decidir cuánto dinero
está dispuesto a pagar por participar en él.
- La regla consiste en que el jugador A lanzará una moneda hasta que caiga el lado de la
cara, y el número de veces necesarios (n) para conseguirlo determinará la cuantía del
premio.
- Si A lanza una moneda y sale cara en la primera tirada, pagará dos ducados al jugador
B y termina el juego (el jugador B cobra más cuanto más tarde salga cara).
- La pregunta que se plantea en la paradoja es: ¿cuánto pagaría el señor B al jugador A
por participar en este juego?
Según el criterio del valor esperado, el jugador B debería participar en el juego si el valor esperado es
mayor que la suma exigida para entrar a jugar y rechazar la propuesta cuando ésta sea menor.
Para calcular el valor esperado total del juego se suman todos los valores esperados en cada
lanzamiento, dando como resultado un número infinito de “ducados”.
La paradoja surge porque con un valor infinito se debería apostar cualquier cantidad de
dinero. Al señor B le interesa que salga cara lo más tarde posible. Los resultados
evidenciaron que generalmente no están dispuestas a apostar más de 20 monedas por
participar.
Pone de manifiesto que no es realista asumir que B espere poder jugar durante tiempo
ilimitado para obtener número infinito de monedas a cualquier precio.
Para resolverlo, Daniel Bernoulli propuso la noción de utilidad esperada como valoración subjetiva de
las posibles consecuencias monetarias del juego.
Es en función de la riqueza de cada individuo y está en relación inversa a su nivel de
riqueza. Ganar o perder 200 euros no es lo mismo para un rico que para un pobre, y
cuánto más dinero se tenga menos se valorará dicha ganancia o pérdida.
El autor también avanza el concepto de utilidad marginal decreciente al señalar que la función de
utilidad es siempre creciente pero crece cada vez más despacio (forma cóncava).
Es necesario diferenciar entre el valor esperado (cantidad objetiva) y la utilidad
esperada que depende de las circunstancias (la utilidad de un bien varía en función de
la cantidad que ya se posee de ese bien).
En la paradoja descrita los individuos están dispuestos a pagar distintas cantidades por participar en
el juego según su criterio, aunque el valor esperado sea infinito. Esta distinción permite analizar la
toma de decisiones bajo riesgo (se conocen las probabilidades) considerando las valoraciones
subjetivas que hacemos.
Bernouilli logró demostrar que el valor del dinero no es lo mismo para todos y que dicha valoración
es en proporción a la utilidad que pueden obtener de él.
Para calcular la utilidad, se asume que los atributos de una opción son independientes y que cada uno
tiene un peso o importancia.
Implica ello que cada uno tiene una utilidad que indica el grado en que esa propiedad contribuye a
alcanzar las metas y objetivos. Las personas conocen su entorno, son capaces de ordenar las
alternativas según el criterio de utilidad y eligen la de mayor utilidad (proceso de maximización). La
decisión óptima será aquella que refleje sus preferencias.
V. Axioma de independencia:
A > B si y solo si (ApC) > (BpC)
El orden de preferencias entre dos alternativas simples no cambia por la adición de
una nueva alternativa. Si tenemos 2 simples asociadas a una tercera, la preferencia
entre las dos compuestas resultantes es independiente de la tercera alternativa
simple.
Ejemplo: si preferimos piña a pera (A > B) como postre, entonces deberíamos preferir
una alternativa compuesta por piña y naranja (ApC) frente a otra compuesta de pera y
naranja. (BpC)
probabilidad.
Resumen:
La utilidad describe las preferencias de un sujeto y los axiomas imponen las restricciones sobre sus
posibles relaciones, aunque no determinen cuáles son estas transferencias.
Cuando se conoce la utilidad designada a una opción, se puede obtener una función
de utilidad individual y demostrar que esa persona buscará alcanzar su máxima
utilidad subjetiva en la toma de decisiones si las preferencias son coherentes y
consistentes con los axiomas.
Esta teoría proponía que para ser racionales en la toma de decisiones no había falta compartir la
misma función de utilidad, sino que bastaba con ajustarse a los mismos axiomas normativos en esa
búsqueda por alcanzar la máxima utilidad esperada que había sido definida individualmente.
En esta primera la mayoría opta por la alternativa A en la que se gana 1 millón con certeza.
Para hacer el cálculo de la utilidad esperada entre ambas alternativas se considera la
ganancia de 1 millón eliminando la P de la alternativa B y conservando la P restante en
la alternativa A (1 – 0,89=0,11):
Elegir la opción A implica que la utilidad U (A) 0,11 es mayor que la utilidad de la alternativa B U(B)
0,25.
Savage 1954 hace un análisis de la paradoja de Allais ampliando el axioma de independencia con el
principio denominado aspecto cierto (sure-thing).
Este afirma que si dos alternativas comparten un resultado concreto, la preferencia
será independiente del valor de este resultado común.
Las personas descartan el resultado seguro y basarán su elección en los posibles
resultados diferentes entre alternativas.
Ante la situación primera, la decisión entre A y B se centrará en elegir entre la probabilidad de 0,01
de ganar 1 millón o 0 euros; y la probabilidad de 0,10 entre 1 millón y 2,5 millones.
Ante la situación segunda, el aspecto seguro es la ganancia de 0 con P de 0,89. Cuando se descarta el
aspecto cierto entre C y D, sigue siendo la decisión entre 0,01 de ganar 1 millón y 0 euros; y la
probabilidad de 0,10 entre 1 millón y 2,5 millones.
Las cantidades de dinero son las mismas en las 2 situaciones, pero las probabilidades
de la situación 2 se han dividido.
Según la utilidad esperada, aquellos que elijan la alternativa A deberían elegir la C, y si
eligen la B, luego debían optar por la D.
Resultados:
La mayoría prefería la A en la situación 1: mostraban aversión al riesgo porque
preferían ganar 30 $ sin riesgos que ganar más con un riesgo de 0,20 de no
ganar nada.
En la segunda situación la mayoría elegían la alternativa D donde mostraban
que preferían ganar 45$ con un riesgo de 0,80 que 30 $ con un riesgo de 0,75,
demostrando lo indicado por Allais (no se cumple el axioma de independencia
de la teoría de la utilidad esperada).
Esto fue denominado el efecto de la certeza porque la reducción de una ganancia segura a una
ganancia con una probabilidad de 0,25 tiene mayor impacto, que la correspondiente reducción de una
P de 0,80 a 0,20.
a. Primer estudio de Tversky y Kahneman, 1981 – Efecto del marco (framing effect) en dinero
Se demostró cómo las personas muestran una actitud diferente ante el riesgo según
se presenten los problemas en términos de pérdidas o ganancias.
Las dos situaciones plantean una elección entre 400$ seguros o 500 $ y 300 $ con una
probabilidad de 0,50 (según la teoría de la utilidad son idénticos).
Los resultados mostraron que la mayoría elegía la alternativa A en la 1 y la alternativa D
en la 2.
El valor esperado es igual, pero se encuentra que cuando el problema se formula en
términos de ganancias, los sujetos muestran actitud aversiva al riesgo. Y cuando se
presenta en términos de pérdidas, se muestra una preferencia por el riesgo.
Este efecto es conocido como el efecto del marco (framing effect) o de la inversión de
las preferencias sin limitarse a aspectos monetarios.
Es una imagen en espejo de una actitud aversiva al riesgo cuando se trata de
ganancias y preferencia por el riesgo cuando son pérdidas muy persistente y
no limitada a aspectos monetarios.
b. Estudio 2 de Tversky y Kahneman 1981 – Efecto del marco (framing effect) en vidas
En otro estudio de Tversky y Kahneman 1981, se planteaba la elección entre dos
programas sanitarios ante una enfermedad de origen asiático:
Supongamos que se avecina una enfermedad asiática para la que se han
estimado 600 fallecimientos. Se proponen dos programas alternativos:
Los programas A y B tienen el mismo valor esperado (salvar 200 frente a 400) y los C y
D son idénticos a A y B, pero en términos de muertes (400 muertes frente a salvar 200
vidas).
En la 1ª situación la mayoría elegía opción A, mostrando la aversión al riesgo y el
efecto de certeza. En la 2ª situación, la mayoría eligieron el D, mostrando una
preferencia por el riesgo y evitando una pérdida segura.
Esto es claro ejemplo de la inversión de las preferencias para las ganancias y las
pérdidas puesto que las dos situaciones son idénticas y de la violación del principio de
invarianza.
Recordemos que las elecciones no deberían cambiar en función de la
descripción de la situación o de la formulación de los problemas, siempre que
contengan la misma información.
Los autores explican esta violación por la importancia relativa a los atributos.
Los que son más importantes para la elección (vidas salvadas) pierden peso cuando se
trata de tasar o poner precio.
Las personas mostrarán su apoyo a una iniciativa pública de forma diferente según se
les pregunte en las encuestas por sus preferencias o por su opinión sobre cuantía de
sus costes.
Conclusión:
Las personas no atienden únicamente a la utilidad de los componentes de cada alternativa para
decidir:
Prefieren la alternativa cierta cuando se ofrece ganancia y riesgo cuando se trata de
pérdidas de la misma magnitud.
No siguen leyes lógicas de transitividad o independencia.
En ocasiones varían según VV del contexto y la tarea.
Aun cuando parecen ajustarse a la lógica, no significa que traten de maximizar el valor o la utilidad
de las alternativas. Por tanto hay que considerar los aspectos subjetivos o propios de la persona.
El concepto de utilidad se sustituye por el concepto de valor, que se define en términos de ganancias
y pérdidas desde un punto de referencia y no absolutos. La consideración de las alternativas se hace
en función de las variaciones o cambios (ganancias – pérdidas) respecto a un marco o nivel de
referencia.
II. Además, la teoría hace un tratamiento distinto a las P asignadas a los resultados. Se
postula que se subestiman las probabilidades moderadas y altas, y se sobreestiman las
probabilidades pequeñas y la certeza.
a. Fase de edición
El objetivo es organizar y reformular las alternativas para simplificar los siguientes procesos de
evaluación y elección. Se pueden aplicar varias operaciones que transforman los resultados y las P
asociadas con las alternativas ofrecidas:
b. Fase de evaluación
Comprende la función del valor subjetivo y la función de la probabilidad ponderada de obtener un
resultado.
Las estimaciones del valor de una alternativa son cambios en riqueza o bienestar y no
en estados finales (como los procesos sensoriales evalúan cambios o diferencias en
lugar de magnitudes absolutas).
El valor es tratado como una función con dos aspectos: una posición inicial que sirve
de punto de referencia y la magnitud del cambio desde ese punto de referencia.
La teoría se basa en una ecuación básica que describe la forma en la que se combinan
la probabilidad y el valor subjetivo para determinar el valor global de las alternativas.
Puede aplicarse a elecciones que implican otros atributos como calidad de vida,... siempre que los
resultados se codifiquen como ganancias o pérdidas en relación a un punto de referencia.
Cuando presentan el mismo valor esperado la elección será función únicamente del riesgo.
Si se quiere incrementar el riesgo manteniendo constante el valor esperado, entonces
habrá que aumentar también la probabilidad y la cuantía de las ganancias (las pérdidas
de la alternativa más arriesgada deben compensarse con ganancias mayores).
Ahora bien, cada persona tiene un nivel de riesgo ante un mismo valor esperado y la
elección estará determinada por la alternativa que permita alcanzar el nivel de riesgo
a asumir.
Este tipo de regla de decisión entra dentro de las llamadas estrategias de decisión no compensatorias
ya que ninguno de los dos criterios puede contrarrestar al otro: un riesgo alto no compensa una gran
ganancia y un riesgo muy pequeño tampoco compensaría una ganancia pequeña.
Este enfoque contempla el hecho de que lo que cada persona evalúe como satisfactorio pueda
cambiar con el tiempo y la experiencia a medida que el nivel de aspiración cambie.
I. Estrategias y heurísticos
El objetivo del enfoque consiste en describir los distintos procedimientos mediante los cuales las
personas toman sus decisiones.
Se requieren procedimientos heurísticos sencillos que permitan seleccionar y procesar.
Se sustituye el principio de maximización por el de satisfacción.
Ahora la elección no se basa en un análisis exhaustivo de todas las alternativas hasta
encontrar la óptima sino la satisfactoria.
Payne, Bettman y Johnson 92, señalan que las personas tienen más de una estrategia de elección y
éstas pueden ser en algunas ocasiones deliberadas, otras veces el resultado de aprendizajes previos
y en otras pueden ser intuitivas.
El análisis de costes y beneficios explica la interacción entre los recursos de
procesamiento limitado y las demandas de las tareas y contextos.
Esta interacción ocasiona que el conjunto de estrategias para la elección comprenda un
abanico amplio de heurísticos, desde los rápidos y apropiados para las decisiones bajo
presión de tiempo y poca capacidad de cómputo, hasta los de procesamiento
secuencial lento y apropiado para decisiones más complejas y deliberadas.
II. Metodología
La metodología utilizada tiene como objetivo identificar el proceso para luego describirlo:
Los métodos para el rastreo del proceso tratan de observar la estrategia empleada
mediante el análisis de los protocolos verbales, el análisis de los movimientos oculares,
la monitorización de la búsqueda de información y el análisis de la actividad cerebral
por RMF.
En otros casos, se infiere en estudios en los que se presentan pares de alternativas (X,
Y) y si se elige uno u otro se inferirá que se utiliza una regla u otra.
Se trata de cubrir dos objetivos: descubrir qué estrategias y qué reglas empleamos; y qué rasgos de la
tarea y del contexto determinan la selección y uso de estas estrategias.
Las situaciones de incertidumbre (se desconocen las probabilidades aunque se pueden estimar) son
las que mejor se ajustan a la toma de decisiones de la vida cotidiana y las situaciones de riesgo
caracterizan mejor la toma de decisiones en los juegos de azar y en los ámbitos profesionales.
Se va a estudiar algunas de las estrategias o criterios descriptivos básicos que adoptan las personas
cuando tienen que decidir entre varias alternativas con múltiples consecuencias o atributos sin
conocer la P de ocurrencia.
Estos criterios de elección son conocidos como reglas de decisión, heurísticos de elección, estrategias
de decisión y estrategias de PI.
Criterio coherente con modelo normativo, pero sólo para aquellas decisiones en las que exista la
mejor o peor alternativa.
Estrategia sencilla en la que se exploran todas para encontrar la mejor y elegirla o la peor y eliminarla.
Generalmente resulta difícil encontrar una alternativa que supere a todas en todo, pero es un criterio
útil para un análisis preliminar con el fin de discriminar las más débiles (dominadas) y reducir el
número de ellas a considerar.
Se conoce como el del arrepentimiento porque considera que las personas también lamentan no
haber escogido una alternativa. Se busca reducir el arrepentimiento al mínimo.
Se elige el mejor resultado de cada alternativa y se sustituye por cero (0). Éste representa que no hay
arrepentimiento.
Luego se encuentra la diferencia entre el resultado óptimo y los demás resultados. Esta diferencia
representa la pérdida de oportunidad o arrepentimiento por no haber escogido la alternativa que
diera el mejor resultado.
Cada alternativa tiene un resultado con un máximo arrepentimiento y un mínimo y se elige la que
presente el mínimo arrepentimiento.
X. CRITERIO DE RECONOCIMIENTO
Existe tan poca información sobre las alternativas que eligen la que reconocen o que les resulta
familiar.
Forma parte de las estrategias heurísticas “rápidas y frugales” (requieren poco esfuerzo en recursos y
tiempo).
Criterios para la elección intraalternativas en los que se consideran los resultados o atributos de cada
alternativa antes de analizar la siguiente. Comparan el valor de cada una de las consecuencias o
atributos de todas las alternativas:
La decisión se toma basándose en un único atributo y forma parte de los heurísticos “rápidos y
frugales”.
Similar al lexicográfico, pero con dos heurísticos de búsqueda para la selección del primer atributo:
El heurístico “escoge el mejor” lo escoge por la validez que haya tenido en experiencias
anteriores para la discriminación entre buenas y malas y los ordena de mayor a menor
validez.
El heurístico “minimalista” realiza la comparación entre atributos de forma aleatoria
hasta encontrar la alternativa con el atributo de mayor validez.
Los criterios de decisión vistos también se clasifican como estrategias compensatorias, dado que una
puntuación alta en uno compensa la baja en otro, y estrategias no compensatorias porque no se
permiten intercambios entre las puntuaciones de atributos.
Las reglas lexicográficas, por ejemplo, no son compensatorias porque la fuerza de una
dimensión no puede compensar la debilidad de otras.
Las reglas compensatorias son más completas porque tienen en cuenta todos los
atributos y las posibles relaciones entre los mismos, como al adquirir una vivienda en
la que un precio alto puede compensarse por la cercanía al puesto de trabajo.
Sin embargo, estas compensatorias y coherentes con el modelo normativo son
costosas cognitivamente y poco viables para decisiones con muchas alternativas
multiatributo.
Según Shafir, Simonson y Tversky el análisis de las razones por las cuales se toma una decisión permite
una mejor aproximación a los aspectos psicológicos de este proceso y puede arrojar luz a la
inconsistencia de los modelos normativos.
V. Estado anímico
El momento en que nos encontramos también determina la decisión. El estado anímico dará lugar a
juicios más positivos o negativos, modificando las decisiones. El positivo dará lugar a búsqueda de
alternativas variadas y a la sobrevaloración de la ocurrencia de estados favorables, y a la inversa.
VI. Emociones
A veces las decisiones están “cargadas” emocionalmente.
Algunas personas no pueden considerar detalles monetarios a la posibilidad de salvar vidas o
salvaguardar el medio ambiente. Tetlock las considera como compensaciones tabú (resistencia en
enfrentar lo sagrado y lo profano).
Ante esta carga emocional pueden negarse a decidir, dejar que otros lo hagan por
ellos, optar por alternativa que mantenga el estatus quo o que puede justificar
fácilmente ante ellos y los demás.
En estos casos, las estrategias de elección no compensatorias podrían
utilizarse para evitar sacrificar un atributo importante.
También se podría intentar abordar el tema con esfuerzo de recursos y tiempo
ponderando aspectos emocionales como importantes.
Payne y Bettman, 2004, señalan que las ventajas y desventajas de las decisiones, se encuentran
directamente relacionadas con los objetivos: 1. maximizar la precisión de la decisión; 2. minimizar el
esfuerzo cognitivo; 3. minimizar el impacto de las emociones negativas durante el proceso y una vez
tomada, 4. maximizar la facilidad con la que se pueda justificar la decisión.
1. Introducción
La solución de problemas hace referencia a una de las manifestaciones del pensamiento más
extendidas y con un rango muy amplio de aplicaciones. Impregna todo aquello que se encuentra
relacionado con nuestra actividad cotidiana. Esta capacidad nuestra forma parte de nuestro
repertorio de procesos cognitivos básicos en distintos dominios de conocimiento, estando implicados
procesos básicos como, percepción, memoria, categorización, razonamiento, lenguaje,
aprendizaje,... y como capacidad general de la naturaleza humana se encuentra asociada a la
inteligencia y la creatividad.
La solución de problemas comprende cualquier situación en la que se tiene una meta y se desconoce
cómo poder alcanzarla. Las personas intentaremos con mayor o menor éxito alcanzar el objetivo.
Para abordar el estudio de este proceso de solución hace falta partir del análisis de al
menos 4 componentes:
1) estado inicial de conocimientos,
2) estado meta que se quiere conseguir,
3) los procedimientos, acciones u operaciones que se pueden utilizar para ello, y
4) las limitaciones directas e indirectas impuestas por el contexto.
Cuando nos enfrentamos a un problema partimos de un estado inicial, tenemos un estado meta al
que queremos llegar y unas imposiciones que se deben respetar para alcanzar la meta.
Ejemplo: tenemos un problema si se presentan inesperadamente unos familiares, la
despensa está vacía y no tenemos presupuesto como para salir al restaurante. El
estado inicial será no tener cena, prepararla sería el estado meta y la imposición es
hacerlo con lo que encontremos en la despensa.
Por solución se entiende el procedimiento que se ha empleado para alcanzar la meta, aunque sería
más adecuado utilizar el término solución para denotar el producto final del proceso (estado meta) y
el término resolución para hacer referencia al procedimiento.
I. Historia
Durante la primera mitad del siglo XX, la psicología de la Gestalt ofreció alternativa a la psicología
experimental iniciada por Wundt (1911) y al conductismo norteamericano de Watson. Este enfoque
era contrario al método analítico de Wundt ya que defendía que la totalidad no podía entenderse
como la mera suma de sus partes constituyentes, sino en términos de sus interrelaciones en dicha
totalidad de la que forman parte.
Wundt desautorizada la utilización del método introspectivo (procedimientos rigurosos
de esos años con los que contaba la psicología del momento). Su argumento se
basaba en las interferencias y sesgos potenciales producidos por el propio análisis
introspectivo del pensamiento.
La Gestalt se centra en el uso de protocolos verbales que pudieran exteriorizar el
pensamiento pero libres de interferencias y sesgos.
Frente al enfoque asociacionista (conductismo) que explicaba la solución de problemas como una
conducta observable basada en el número y fuerza de las conexiones estímulo-respuesta, la Gestalt
se interesó por la obtención de soluciones ante situaciones no conocidas.
Según el conductista, el sujeto intentaría resolver recurriendo a sus conocimientos o
experiencias previas en las que hubiera obtenidos buenos resultados. Contaría con un
conjunto de recursos (asociaciones estímulo-respuesta), para afrontar nuevas
situaciones y de no existir éstas, procedería por ensayo-error.
Al contrario, la Gestalt defendía que el aspecto esencial del proceso era la
transformación o reorganización súbita de los aspectos críticos del problema. Esta
reorganización daba lugar a una nueva concepción de la estructura del problema,
permitiendo encontrar su solución.
A continuación se van a exponer algunas concepciones del enfoque de la Gestalt importantes en las
actuales investigaciones en ciencia cognitiva.
II. Gestalt
“Gestalt” es término que se traduce como configuración, estructura, forma o patrón, pero ninguno
transmite el carácter dinámico del concepto alemán.
Significa totalidad integrada y articulada en la que la naturaleza, el lugar, el papel y la función de cada
una de sus partes son lo que son precisamente por la propia naturaleza de la totalidad (Wertheimer).
V. Fijación funcional
Dunker 1945 discípulo del anterior, publicó uno de los estudios más completo sobre la solución de
problemas como proceso de reestructuración en tareas en las que los sujetos no tenían experiencia.
Durante la realización de la tarea se pedía a los sujetos que pensaran en voz alta
mientras resolvían el problema con el fin de analizar cómo los sujetos progresaban
hacia la solución.
El análisis de estos protocolos verbales mostró que las soluciones se desarrollaban por
medio de las inferencias establecidas entre una representación mental del problema y
la generación y evaluación de un conjunto de soluciones posibles.
Si no lograba alcanzar una solución novedosa por reestructuración, era porque se
había quedado estancado en asociaciones y experiencias pasadas.
El término fijación funcional fue utilizado para describir esta adherencia a procedimientos u
organizaciones anteriores que impiden o bloquean una nueva reorganización de la situación.
Es el contrario de insight.
Hace referencia al bloqueo mental que impide darle una nueva función a un objeto ya conocido. La
experiencia o el aprendizaje previo interfieren en la reorganización necesaria para resolver el
problema nuevo.
Estudio: En el “problema de las cajas” de Dunker se presentaba una vela, una caja de
cerillas y chinchetas y se pedía a los sujetos que fijaran la vela encendida en un tablón.
Era un problema que no resultaba nada fácil resolver.
La solución surge cuando se cambia la función contenedora de la caja de cerillas por la
función de soporte que puede fijarse al tablón con las chinchetas.
El uso habitual de la cajita genera fijación funcional, bloqueando las posibles utilidades
distintas.
Luchins 1942 demostró cómo la aplicación repetitiva del mismo procedimiento para resolver un
problema puede bloquear la aplicación de otros procedimientos alternativos y más eficaces.
Estudio: Utilizó el problema de las jarras de agua y la tarea de los sujetos consistía en
obtener una cantidad determinada de agua utilizando para ello tres jarras con
diferentes medidas.
Si había que obtener 46 litros de agua, se presentaban 3 jarras con capacidades de 58,
6 y 100 litros: se llenaba el de 58 y se vaciaba dos veces en la de 6.
Se presentaron primero los problemas que se resolvían por la aplicación de: jarra B –
jarra A – 2 jarras C. Este conjunto de problemas recibió el nombre de einstellung
(actitud) para denotar esa disposición hacia la utilización de procederes conocidos.
Después de esta primera tarea, se presentaba otro grupo de problemas denominados
críticos porque podían ser resueltos por otro procedimiento más rápido.
En la condición de control, los sujetos sólo tenían que resolver los problemas críticos y
en la experimental einstellung y críticos.
Los grupos control obtenían porcentajes superiores de soluciones directa y rápidas para los
problemas críticos mientras que los experimentales de soluciones einstellung en todos los
problemas.
Conviene señalar que la aplicación mecanizada de aprendizajes anteriores no solo es útil y eficaz,
sino necesaria para resolver problemas similares. Desafortunadamente, también puede convertirse
en un obstáculo en la solución de problemas nuevos o en el descubrimiento de innovaciones en los
procedimientos de resolución aprendidos.
VII. Conclusión
Las aportaciones de la psicología de la Gestalt contribuyeron a que la psicología cognitiva desarrollara
el estudio de la solución de problemas como búsqueda de las interrelaciones entre las partes del
problema que diera como resultado una comprensión estructural del mismo. Una vez se alcanza la
comprensión estructural, las partes se encontraran reorganizadas de modo que logren satisfacer los
requisitos impuestos por el problema planteado.
Las investigaciones se han centrado fundamentalmente en dos aspectos: los procedimientos que
conducen a las soluciones y las representaciones internas de los problemas. Antes de abordarlos,
analizaremos distintos tipos de problemas.
c. Problemas de reordenación
En los problemas de reordenación la solución se obtiene por nueva disposición de los elementos en
función de algún criterio.
Ejemplo: rompecabezas, anagramas o la criptoaritmética.
Ejemplo: Greeno propuso un ejemplo de criptoaritmética.
En el problema se presentaban 3 nombres y los números
comprendidos del 0 al 9. Consistía en sustituir las letras por
números de modo que el resultado de la suma fuera
correcto. Se suele indicar que la letra D corresponde al nº 5.
c. Problemas de inducción
Tratan de encontrar un principio general coherente con los objetos o contenido del
problema.
Categoría que permanece igual que en la tipología anterior, aunque analizando mayor
número de problemas inductivos (inducción categórica, extrapolación de secuencias,
inducción de estructuras relacionales y el diagnóstico).
Pero los de la vida cotidiana y el ámbito profesional, suelen estar mal estructurados.
Puede haber elementos desconocidos, soluciones múltiples o ninguna, las
soluciones pueden ser evaluadas por criterios alternativos, de modo que no
hay certeza sobre cuáles son los procesos necesarios para la solución, lo que
requiere que los solucionadores emiten o expreses sus creencias u opiniones
particulares.
b. Complejidad
Se define por el número de elementos o variables que presenta el problema, su
interrelación, el tipo de relación funcional y la estabilidad entre las propiedades.
Los más complejos son aquellos dinámicos debido a la situación de tarea y sus VV
inestables.
Cuánto más complejo mayor será el nº de operaciones necesarias para
solucionarlo y mayor carga de procesamiento (memoria de trabajo).
La complejidad y la estructuración se solapan.
Los mal estructurados suelen ser los más complejos, aunque también pueden
ser sencillos (Ejemplo: no saber cómo vestirse para una cena).
Los bien estructurados son menos complejos puesto que comprenden VV con
comportamiento predecible.
Aumentan en complejidad a medida que aumentan de VV y operadores
(Ejemplo: cálculo para una gran infraestructura de carretera).
c. Abstracción
Los bien estructurados son más abstractos por no estar situados en un contexto
concreto de aplicación y por no tener contenidos específicos de dominio de
conocimiento.
Se resuelven con los procedimientos generales, los métodos débiles.
Los métodos fuertes son dependientes del contenido y contexto.
Los problemas suelen estar mal estructurados, situados en contexto concreto y
dependientes de contenido específico.
Los problemas bien estructurados también se pueden situar en contexto y se pueden
dotar con contenido. Ejemplo: al ser formulados como una historieta.
Los problemas mal estructurados pueden presentarse de forma más abstracta Ejemplo:
como dilemas.
PRESENTACIÓN
Con respecto a la representación de los problemas hay que destacar la importancia del contexto,
formato y modalidad.
a. Contexto
Los problemas cotidianos y profesionales se encuentran inmersos en contextos
propios y aquella información que puede ser relevante para un contexto puede no serlo
en otro.
Ejemplo: al diseñar un vídeo juego para salir al mercado de ventas con éxito, la
representación de éste en el ámbito profesional será distinta de la que se tenga en el
comercial.
b. Otras variables
Otras variables influyentes son las posibles presiones del tiempo impuesto para
resolver el problema, imposiciones reguladoras de contextos (sociales, religiosos,
políticos, culturales,...) y las distintas interacciones sociales que pudieran ser según el
grupo o ambiente (ambiente competitivo vs colaborativo).
DIFERENCIAS INDIVIDUALES
Por último, se señala el amplio abanico de DI que pueden mediar.
a. Dimensiones afectivas y conativas
Hay que destacar las dimensiones afectivas y conativas. Algunos estudios muestran
que las actitudes y las creencias que se tienen sobre el problema y su ámbito de
conocimiento, conjuntamente con el nivel de autoconfianza influyen
significativamente sobre el rendimiento y la perseverancia para encontrar la solución.
Una representación exhaustiva del espacio del problema comprendería el conjunto de todos los
estados potencialmente alcanzables mediante la aplicación de los operadores disponibles. Las
personas tenemos una memoria de trabajo limitada que hace inviable un proceso de búsqueda
exhaustivo.
Ejemplo: una jugada de ajedrez puede comprender sesenta movimientos con media
de treinta alternativos legales en cada paso.
Esto se denomina implosión combinatoria, que pone de manifiesto que el tamaño del
espacio de búsqueda aumenta exponencialmente a medida que se profundiza en el
mismo proceso de búsqueda.
Esto hace que muchos problemas sean imposibles de resolver por medio de la
búsqueda exhaustiva en el que se consideran todos los trayectos.
Sin embargo, el proceso de búsqueda heurística no garantiza que se llegue a la solución óptima.
En la búsqueda se apuesta por aquellos trayectos que mejor puedan conducir a una
solución, sin explorar los trayectos exhaustivamente. Por tanto, se alcanzan soluciones
satisfactorias aunque no necesariamente óptimas o la mejor.
La figura es una representación del espacio del problema completa con un total de 27 estados.
El 1 es el estado inicial, el 8 el estado meta y cada estado se encuentra vinculado con otro por el
movimiento de un disco. Existen varias formas de resolverlo, siendo la más rápida la que allí se
presenta por los siete movimientos consecutivos comprendidos entre los estados del 1 al 8.
Si el solucionador está utilizando el heurístico de “subir la cuesta” y ha ido avanzando del estado 1 al
5, la aplicación del heurístico le llevaría al estado 23 (el que más se aproxima a la meta). Sin
embargo, el estado 6 conduce más rápidamente a lograr la meta que el 23, aunque suponga ir un
paso hacia atrás con el aparente alejamiento momentáneo de la meta.
Kotovsky, Hayes y Simon (1985) encontraron que los sujetos utilizaban en primer lugar el método de
la reducción de diferencias (subir la cuesta) para resolver la Torre de Hanoi, y cuando fracasaban
entonces aplicaban el heurístico “análisis medios-fin”.
Los sistemas de producción fueron diseñados para modelar el proceso de solución de problemas, pero
se han extendido a otros ámbitos de aplicación e incluso han sido propuestos como modelo de
funcionamiento cognitivo en general.
Los esquemas de razonamiento pragmático (tema de razonamiento condicional) se
encuentran representados como un sistema de producción.
Diversos modelos cognitivos alternativos basados en éstos, comparten un lenguaje
teórico común que fomenta la comunicación entre las diversas disciplinas.
Según la Teoría de Solución de Problemas de Newell y Simon 1972, las personas representan el
ambiente de la tarea como un espacio constituido por posibles estados en los que se realizará la
búsqueda de la solución.
El ambiente es una descripción externa del problema, y el espacio del problema es la representación
interna que hace el sujeto de dicho ambiente.
En la generación del espacio del problema se debe considerar la interacción entre las fuentes de
información externas e internas.
Las externas se encuentran definidas por el ambiente de la tarea y las internas por
conocimientos que tiene el sujeto sobre situaciones similares y sobre la propia
información que se va acumulando durante el propio proceso de solución.
A continuación se van a presentar resultados sobre el espacio del problema cuando se ha modificado
el ambiente de la tarea o la influencia información acumulada durante el proceso sobre la
reestructuración del espacio del problema. El papel que desempeña el conocimiento sobre dominio
concreto se trata en los apartados 4 y 5.
Tres monstruos extraterrestres sostenían tres globos de cristal. Debido a las particularidades de su
planeta, los monstruos y los globos son de diferentes tamaños: pequeño, grande y mediano. El
monstruo pequeño tenía un globo grande, el monstruo mediano un globo pequeño y el monstruo
grande un globo medio.
Puesto que la situación era contraria a su idea de la simetría procedieron a contraer y expandir los
globos de modo que cada monstruo sostuviera un globo proporcionado.
Las normas complicaban la solución:
- Solamente se puede cambiar un globo cada vez.
- Si dos globos tienen el mismo tamaño, solo se puede cambiar el globo que sostiene el
monstruo de mayor tamaño.
- Un globo no puede cambiar al mismo tamaño que un globo que sostiene un monstruo
de mayor tamaño.
¿Cuál es la secuencia de cambios para resolver este problema?
b. Resultados
a. Resultados
Los resultados manifestaron que tardaban menos en decir que el problema era
irresoluble cuando el tablero presentaba las palabras “pan” y “mantequilla”. Estas
transmitían el concepto de paridad necesario para obtener la solución. Le seguía el
grupo con el tablero de las palabras escritas de los dos colores, el de dos colores y el
de los cuadros en blanco.
b. Explicación
La explicación de la dificultad del problema es que se parte de una representación
inapropiada y para resolverlo hay que reiniciar la búsqueda de otra representación del
espacio del problema con un número mayor de restricciones.
La representación inicial no incluye la paridad de los colores del tablero por no venir
enunciada en la formulación del problema. Cuando se variaron las formulaciones de
los problemas de modo que enfatizaran el concepto de paridad se encontró que los
sujetos lograban resolver el problema y que algunas formulaciones eran mejor que
otras.
Los autores comentan que la experiencia fenomenológica del insight de la Gestalt
puede explicarse cómo proceso de búsqueda semejante al utilizado con el resto de los
problemas, pero en este caso se busca una reestructuración del espacio del problema.
La dificultad de estos problemas se puede predecir por la disponibilidad de las fuentes
de información del ambiente de la tarea que permiten constreñir dicha búsqueda.
III. Teoría del Control Progresivo – Chronicle, MacGregor y Ormerod 2004 y 2001
La Teoría del Control Progresivo sostiene que los sujetos utilizan el heurístico de subir la cuesta para
resolver problemas asociados al insight, resolviéndose cuando se relajan las imposiciones sobre el
espacio del problema.
Explica cómo se alcanza un punto muerto en el proceso, cuáles son las condiciones necesarias para
que surja el insight y por qué éste es tan poco frecuente.
Los sujetos no logran resolverlo debido al gran nº de movimientos posibles que parecen ajustarse al
criterio cuando los 9 puntos se encuentran dentro de la delimitación imaginaria de un cuadrado.
Se llega a un punto muerto cuando el heurístico de búsqueda ya no puede generar más estados que
cumplan el criterio de progreso satisfactorio. Este fracaso permite relajar las imposiciones del espacio
del problema para buscar otros estados o retomar los descartados. Por ejemplo, el sujeto puede
volver a una solución anterior tentativa en la que utilizó una línea para unir los puntos fuera de los
límites imaginarios del cuadrado.
El insight es poco frecuente pues se ha de ajustar al criterio de llegar a la cuarta línea.
Es necesario anticipar mentalmente el trazado para darse cuenta del fracaso del criterio satisfactorio y
reestructurar el problema sin los límites imaginarios del cuadrado.
Chase y Simon 1973 también encontraron que el experto de ajedrez identificaba configuraciones del
tablero asociadas con los mejores patrones de jugadas.
Ambos cuentan con los mismos procedimientos de búsqueda heurística, pero para los expertos esta
búsqueda está condicionada por un conocimiento estructurado y específico del dominio que permite
delimitar adecuadamente el espacio del problema.
Ejemplo: Los profesores de física resuelven problemas trabajando desde el estado inicial hacia la
meta, mientras que los estudiantes lo hacen hacia atrás, comenzando en el estado meta.
Ejemplo: También se ha encontrado que en el diagnóstico médico rutinario los profesionales se
basan en los datos y los novatos lo hacen desde la hipótesis.
Los enfoques más tradicionales sobre el rendimiento experto dicen que la adquisición de una
destreza depende de la formación y experiencia. Un principiante se forma y adquiere los
conocimientos necesarios para el ejercicio de su profesión o de una tarea y la experiencia permitirá
que alcance un máximo nivel de competencia, limitado por sus propias capacidades y habilidades
innatas.
Entienden que cualquier persona que se implique activamente en su profesión puede alcanzar el nivel
de experto cuando aumentan los años de experiencia, las diferencias entre los distintos niveles de
experto se explican por las limitaciones innatas de capacidades y habilidades.
El desarrollo de este rendimiento se describe como secuencia de retos con distintos niveles de
dificultad que el sujeto va dominando y superando a lo largo de los años. Estos niveles de maestría se
conciben como situaciones de solución de problemas diferentes que deben resolverse para conseguir
el siguiente nivel.
Inicialmente, los mejores resultados se darán en las tareas sencillas. Según aumente
su experiencia, progresa en el dominio de actividades. Se encuentra con distintos
tipos de problemas que se han de resolver para desarrollar el rendimiento o destreza
correspondiente con el nivel de maestría que pretende alcanzar. Aquellas tareas que
en un principio parecían imposibles se realizarán sin esfuerzo.
En el proceso de adquirir una destreza habitual de la vida cotidiana como conducir implica tres fases:
1) Fase cognitiva: se aprende estructura de la actividad (reglas y procedimientos)
recibiéndose retroalimentación bastante clara de los errores. Los novatos
gradualmente aprenderán a evitar errores y se aproximarán a sus expectativas de
rendimiento hasta alcanzar la siguiente fase.
2) Fase asociativa: se logra nivel funcional estable y satisfactorio. Con más
entrenamiento se alcanza la última.
3) Fase automática: rendimiento estable y óptimo con un mínimo esfuerzo.
El objetivo planteado en la adquisición de destrezas es alcanzar un nivel de rendimiento satisfactorio
que sea automático.
Los sujetos consiguen alcanzar este estado automático porque se implican en la
comprensión y representación de la estructura de la actividad a desarrollar para pasar
a continuación a las dos fases siguientes que persiguen la mejora y automatización.
Este tipo de actividades recreativas (juegos o deportes) presentan una estructura
sencilla que permite reconocer patrones y configuraciones fácilmente.
marcadas entre las personas con capacidades semejantes y con una misma formación y antigüedad,
y por qué el nivel de excelencia tan sólo lo consiguen unos cuantos.
Para poder diferenciar ambos niveles de pericia, Hatano e Inagaki 1986 distinguen entre expertos
rutinarios y expertos adaptativos.
Experto rutinario: es eficaz destacado en rapidez, exactitud y automaticidad, falta de
flexibilidad y capacidad de adaptación ante situaciones nuevas.
Experto adaptativo: es capaz de utilizar el conocimiento flexible y creativamente, con
una comprensión más profunda de los principios y del marco conceptual de su
destreza. Muestran una predisposición a seguir aprendiendo a la vez que desarrollan
la destreza. Los nuevos problemas son desafíos y una oportunidad para superar.
El adaptativo aspira a alcanzar nivel de excelencia que supere la fase de
automatización, pretende desarrollar destrezas que le permitan apoyar un
aprendizaje continuado. Requiere experiencia y práctica deliberada para poder
contrarrestar la fase de automatización y así adquirir control y habilidad en la
monitorización del propio rendimiento.
Continuamente reestructuran, reorganizan y refinan su representación de
conocimientos y procedimientos. Los expertos no saben más que los novatos,
saben de forma diferente.
Transcurrido un tiempo (oscila entre varios minutos hasta una semana) se pasa la segunda sesión en
la que los sujetos deben resolver el problema de la Radiación de Duncker 1945 como problema meta
análogo al que habían leído. El grupo control sólo pasa por esta sesión.
Los resultados, coincidiendo con los de Duncker, mostraron que el problema de la radiación resultaba
difícil de resolver: 10% del grupo control encontraron solución. 30% del grupo experimental lo
lograron mostrando haber establecido la analogía. Sin embargo, este era un incremento muy
pequeño. Cuando a los que no lo habían resuelto se les daba pistas sobre la posible relación con la
historia leída, el 75% lo resolvían. La presentación de la pista forzó el proceso de solución.
La solución de problemas por analogía asume una representación almacenada del problema análogo
y que el principio estructural de esta representación se comprende lo suficiente como para que se
pueda transferir y adaptarse para resolver el problema meta.
También se generan y evalúan argumentos: un político defiende su programa frente a otro, ¿es
capaz de generar aseveraciones claras? ¿Puede incorporar las críticas del adversario a sus propios
argumentos y así enriquecerlos?
En estos ejemplos el pensamiento supone contemplar las razones de otros, contraponer y clarificar el
propio punto de vista, sacar conclusiones y tomar decisiones.
b. Pensamiento en la práctica
El pensamiento en la práctica hace referencia a todos aquellos que se ponen en marcha en contextos
de práctica cotidiana como los laborales, de intercambio comercial,...
Son estudios realizados desde la perspectiva socio-histórico cultural que junto con la psicocognitiva
parecen los enfoques predominantes de la actualidad. La teoría socio-histórico cultural, inspirada en
Vygotsky entiende que el pensamiento es una actividad cognitiva realizada con y a través de las
herramientas culturales entre las cuales destacan el lenguaje, sistemas de reglas, la lógica, la
matemática,...
Ejemplos:
Hay otras situaciones cotidianas donde el pensar se realiza en los contextos en los que se ejecutan
tareas prácticas como calcular precios de venta, organizar mercancías para su venta,... en este caso
el pensamiento se fundamenta alrededor de herramientas culturales (sistemas de enumeración,
procedimientos para calcular,...)
Ambas líneas se han reunido en este texto por las razones siguientes:
I. Carácter no formal del pensamiento informal
Motivo que se vincula con el carácter no-formal del pensamiento informal y las consecuencias de este
carácter cuando se define la racionalidad humana y el valor de los modelos normativos como modos
de evaluación de esa racionalidad. Es un pensamiento que se desarrolla en situaciones abiertas poco
estructuradas que no se resuelven a través de formas deductivas del pensamiento. Se pone de
relieve los aspectos retóricos, argumentativos y prácticos del pensamiento y no tanto los lógico-
formales.
Esto nos lleva a la pregunta: ¿qué tipo de pensamiento es el informal? Si no se amolda a los cánones
de la lógica, entonces ¿se trata de un pensamiento irracional? Detrás de esto, subsiste la idea clásica
adoptada en la psicología del pensamiento tradicional por la cual se entiende a la lógica deductiva
como modelo ideal y normativo del pensamiento. Este enfoque ha buscado la correspondencia (o
falta de ella) entre los modos de pensamiento de las personas y el modelo lógico deductivo.
En cambio, los estudios sobre el pensamiento en contexto muestran una aproximación descriptiva en
su estudio pues se centran en investigar cómo las personas razonan, argumentan y resuelven
problemas en situaciones poco estructuradas.
Estas posiciones revivan la polémica sobre la racionalidad humana y el lugar de los modelos
normativos lógicos como modelo de racionalidad. No significa que los estudios en este pensamiento
no se inspiren en modelos ideales o no reflexionen sobre el papel de estos.
III. Metodología
El tercer motivo es de índole metodológico. La investigación experimental realizada en el laboratorio
psicológico (tareas descontextualizadas y artificiales) no resulta suficiente para el estudio de este
campo. Se ha tenido que utilizar técnicas y metodologías capaces de estudiar situaciones que sean lo
más cercanas y parecidas a las que las personas realizan cotidianamente con estructuras, materiales,
instrucciones e interacciones similares (validez ecológica).
Voss, Perkins y Segal 1991 definen el pensamiento informal en función de los tipos de situación en
los que ocurre y según sus características.
Es aquel que ocurre en situaciones cotidianas, cuando se ha de elegir a quién votar,
cuando se sopesa dónde ir de vacaciones,... Está presente en el diagnóstico médico,
argumentos legales, relaciones internacionales.
En cuanto a las características, incluye procesos de justificación de creencias, de
explicación de observaciones y de deliberación, incorporando argumentos no definidos
según la lógica formal deductiva.
a. Raíces filosóficas
El razonamiento informal tiene su origen en la retórica de Aristóteles, en cambio el
formal de la lógica aristotélica (lógica deductiva).
b. Forma de razonamiento
Uno deductivo consta de dos premisas y una conclusión, definida su relación por reglas
formales que garantizan su validez. Pueden incluso tomar una forma simbólica, vacía
de contenido o información sobre el mundo.
II. Conclusión
En definitiva, como explican Voss, Perkins y Segal, el razonamiento informal consiste en un
razonamiento que se da en variadas formas, todas no deductivas y que ocurre durante el desarrollo
de tareas cotidianas.
Sigue habiendo mucha controversia e investigación sobre la posibilidad concreta de diferenciarlos
cuando alguien razona, por lo que hay autores que proponen estudiar la relación y la interacción
entre ambos tipos de razonamiento.
En cambio, cuando se estudió comparativamente programas para la enseñanza del pensamiento los
resultados no fueron evidentes.
El autor seleccionó varias modalidades de enseñanza (debates en clases de instituto,
programa para desarrollar habilidades generales de pensamiento en clase de Arte,
curso en Escuela de Educación donde se daba razonamiento exploratorio y curso de
Escuela de Leyes). A todos se les orientaba para que atendieran a la multiplicidad de
perspectivas. Solo los dos primeros mostraron mejoras en el razonamiento cotidiano.
La clave para el éxito parece estar en que los programas promuevan habilidades metacognitivas
específicas para razonar.
Estudio 1:
Un estudio pedía a los participantes que dieran todas las razones que se les ocurriera a
favor y/o en contra de un determinado problema, luego añadían que tenían que
pensar razones para sostener la conclusión contraria aún sin estar de acuerdo.
Como respuesta a este andamiaje metacognitivo, aumentó en un 700% los
argumentos “del otro lado” y un 109% los de “mi lado”, inhibiendo la aparición de
sesgos y de argumentos incompletos.
Estudio 2:
En otro estudio se comprobó que estas habilidades podían incorporarse de modo
efectivo en las estrategias estables de los sujetos a través de un programa de formación
específico. Una vez pasado por esa experiencia formativa podían recurrir a estrategias
metacognitivas sin la guía externa del experto.
En trabajos más recientes, Perkins, ha relacionado el “pensar bien” con los aspectos disposicionales
del pensamiento. Propone un enfoque triádico del pensamiento formado por una capacidad general
y dos disposiciones:
Capacidad general de desarrollar pensamiento: facultad (no disposición) para
pensar eficazmente sobre un tema de forma sostenida dando explicaciones
alternativas a explicaciones causales propuestas
Agudeza intelectual: (disposición) correcta percepción de las ocasiones que
requieren pensamiento y no ignorarlas.
Inclinación: disposición que muestra una persona a invertir esfuerzos en meditar
diferentes temas, lo que se relaciona con la curiosidad, importancia del tema,
hábitos, perseverancia,...
Estos dos aspectos disposicionales explican esto las diferencias individuales en
solución de problemas y toma de decisiones.
Los tres elementos de la tríada se articulan en el proceso de pensamiento pero pueden ser
distinguidos analítica y empíricamente para comprender mejor el proceso de pensamiento. La
distinción entre agudeza intelectual e inclinación permite comprender situaciones en las que un
pensador percibe que una situación requiere pensamiento creativo y sin embargo, renuncia a
hacerlo.
¿Cuáles serían las estrategias educativas para desarrollar los aspectos disposicionales?
Según Ritchhart 2002, los maestros que crean disposiciones en sus estudiantes son aquellos que
utilizan la cultura de la clase para favorecer el pensamiento. El pensamiento no es un contenido a
enseñar sino un hábito que se pone en práctica en múltiples ocasiones. Identificó algunos elementos
de estas prácticas educativas:
Agudeza visual:
Oportunidades que daban a los estudiantes para elegir y autoevaluar su pensamiento,
Aliento a la autonomía,
Independencia intelectual y tiempo para pensar.
El cultivo de la inclinación al pensamiento se hacía de varias formas: explícitas (dando importancia a
la curiosidad, la indagación y el jugar con las ideas) e implícitas (modelado del profesor al mostrarse
él mismo entusiasmado con alguna reflexión, fundamental en el desarrollo de la inclinación).
Los docentes también atendían al desarrollo de la capacidad de pensar, instaurando rutinas de
pensamiento:
Tormentas de ideas – a nivel grupal o individual- que favorece apertura y flexibilidad
mental.
Pregunta habitual acerca de “¿por qué?” para promover la explicación del propio
pensamiento.
Adoptar una posición para que asumieran regularmente diferentes posiciones.
La participación en ambientes que incentivan la curiosidad, dar razones, buscar evidencias para
apoyar sus creencias y el disfrute de la propia actividad cognitiva, engendran un proceso de
orientación e interiorización que aumenta las capacidades y disposiciones para el pensamiento.
La autora afirma que la argumentación forma parte de un proceso discursivo basado en el diálogo.
Persigue dos objetivos:
- detectar los argumentos dados por un oponente y usarlos a favor de la propia
argumentación, y
- determinar la posición del oponente para descubrir vacíos o errores que
puedan ser aprovechados para contra-argumentar.
Como Perkins 2001, considera que a los razonadores, sobre todo jóvenes, les resulta muy difícil
prestar atención a los argumentos opuestos. Se centran en los que refuerzan y apoyan la propia
posición, por tanto, los argumentadores noveles descuidan el otro aspecto de la argumentación:
prestar atención a las razones del oponente y utilizar estrategias para influir en ellas.
Por ello Kuhn y col han tratado de identificar las habilidades para conseguir una buena
argumentación y cumplir los objetos mencionados, han descrito el proceso y las claves para mejorar
las habilidades de pensamiento argumentativo.
Los argumentos del pre- test se clasificaban según razones funcionales (las que aludían
a utilidad o conveniencia de pena de muerte – complejas) o no funcionales (otros
aspectos aludidos). Otro grupo era el que mencionaba a emociones (afirmaciones sin
justificar que aludían a aspectos morales).
Otra dimensión era la estructuración de los argumentos (listas o estructura integrada)
y, otros en donde se acompañaban los argumentos de datos o evidencias.
Luego se analizaron aspectos metacognitivos referidos a la propia argumentación o
referidos a otras personas (yo conozco a otras personas que darían otra opinión, pero
ésta es la mía).
d. Resultados
Cambios cualitativos observados en los argumentos del pre – test y del post – test
Los adultos se muestran menos dispuestos a cambiar y los adolescentes cambian con
más frecuencia. Aunque debe matizarse esto pues los adolescentes del grupo control
fueron menos permeables a los cambios.
Otra diferencia de la V edad es que los adultos además se mostraron más hábiles en el manejo
simultáneo de múltiples alternativas a favor y en contra; y los adolescentes muestran poca eficacia en
ello y no progresan igual que los adultos con la intervención experimental. Diferencia basada en la
demanda cognitiva que implica pensar a la vez en diferentes opciones. Ambos grupos, sin embargo,
igualan los resultados cuando la forma es simple y solo se dan dos razones.
Argumentos no mencionados en el pre-test que aparecían en el post-test. Una de las hipótesis es que
el proceso de confrontación y de diálogo era el medio que permitía la elaboración de nuevos
argumentos.
Se indagó:
- Si los nuevos argumentos aparecen en parejas que están de acuerdo o en desacuerdo en
los argumentos a favor o en contra de la condena de muerte sí, los nuevos argumentos
surgen de los diálogos entre los participantes.
- ¿Quién introducía los nuevos argumentos? El que los menciona en el post-test o su
compañero introducidos por los participantes que luego los mencionan en el post-test.
Kuhn y col 1997 encuentran que las habilidades de argumentación mejoran por el intercambio activo
y prolongado entre varios. Los cambios muestran no ser acusados revelando gran estabilidad de las
opiniones entre el pre-test y el post-test. Muchos no cambian de idea y si lo hacen, es porque
suavizan sus posiciones extremas a moderadas.
¿Qué otras habilidades se han desarrollado en el contexto del diálogo promovido por esta
investigación?
Este intercambio no sólo aporta nuevos argumentos sino que obliga a los participantes a esforzarse
por articular mejor sus argumentos.
Ejemplo: Alicia “justificaba” la pena de muerte (acto punitivo por crimen cometido). Le
preguntan los otros por esa justificación como concepto, y entonces comienza a
definir criterios ante su respuesta, mencionándolos como nuevos elementos que
amplían su respuesta del post-test.
También se investigó la evolución gradual de un argumento de simple a complejo dentro del diálogo.
Ejemplo: María -”Si nosotros tuviéramos que apretar la palanca de la silla eléctrica,
nos lo pensaríamos dos veces”. No es un argumento en sí, pero revela la opinión de
María. En el post – test se reafirma: “Con la pena se comete el mismo crimen que se
está castigando”. El enriquecimiento del argumento se da por el intercambio con el
interlocutor que le sugiere que apelar a los sentimientos no es argumentar bien.
Entre los adolescentes además parecían tomar conciencia metacognitiva durante los intercambios:
Ejemplo: Teresa: -”Estoy pensando esto, pero al mismo tiempo dudo porque hay
varias razones por las cuales también estoy en contra”. Para llegar a esta
argumentación, se han sopesado varias razones y abundantes referencias a la actitud
metacognitiva.
Kuhn entiende que el “pensar” se desarrolla en contextos retóricos y argumentativos que exigen la
consideración conjunta de varios puntos de vista, propios y del otro. Expone que lo que diferencia a
los buenos pensadores de los no tan buenos, es la habilidad para percibir la importancia de
considerar el punto de vista del oponente.
2. Pensamiento en la práctica
Esta perspectiva se inspira en la psicología socio-histórico cultural de corte vigotskiano.
I. Contexto
Según Sylvia Scribner 2002 el pensamiento se desarrolla siempre en un contexto, ya sea en un
laboratorio o en una situación cotidiana donde se toma decisión o se realiza tarea laboral. No es un
proceso interno únicamente, sino que se produce cuando se hacen cosas con un motivo u objetivo.
Desde la perspectiva cultural y socio-histórica de inspiración vygotskiana, el pensamiento se
encuentra situado en contextos de práctica (escuela, trabajo, vida cotidiana,...y laboratorio de
psicología).
II. Herramientas culturales
La psicología cultural entiende también que el pensamiento se apoya en y es producto del uso que las
personas hacen de las herramientas culturales materiales y simbólicas (lápices, ordenadores, lenguaje,
símbolos...) presentes en los contextos de práctica e interacción.
El pensamiento como proceso cognitivo no podría realizarse sin la mediación de las
herramientas culturales.
La relación entre los procesos cognitivos y las herramientas culturales tiene una dimensión histórica
o temporal. A lo largo de la historia han surgido diferentes herramientas simbólicas que permitieron
la explicitación y los diferentes modos de pensar.
Ejemplo: según Gabucio (2008) el origen de la deducción.
Fueron los matemáticos griegos quienes desarrollaron en el siglo V a.C un tipo de
notación (diagramas) y de lenguajes matemáticos, al tiempo que realizaban prácticas
muy específicas, como el pensamiento en voz alta. Esta combinación de recursos
simbólicos con procedimientos especializados en una comunidad concreta dio lugar a
la aparición de prácticas cognitivas singulares.
El pensamiento deductivo es el producto de prácticas sociales y culturales y la cuna
donde se originaron formas de pensamiento abstracto y descontextualizado. Hoy nos
apoyamos en esquemas silogísticos para obtener una conclusión por el hecho de que
estos esquemas surgieron previamente en el seno de prácticas sociales y culturales
donde tenían sentido.
Ello modifica el modo en que se entiende la relación entre lógica y psicología, ya que el interés está
puesto en investigar cómo se piensa y no en la adecuación de las formas psicológicas de
pensamiento a la lógica. Es por lo que los modelos deductivos u otros sistematizados por la lógica o la
matemática no podían oficiar de modelos normativos “externos” al propio pensamiento ya que la
deducción es una forma específica de organización de la capacidad inferencial mediada por
herramientas culturales y cognitivas que regulan de un modo específico el pensamiento.
Gabucio 2008 apuntaba que los seres humanos hemos aprendido a deducir gracias a los modelos
normativos, siendo éstos herramientas culturales que participan en la regulación del pensamiento,
pero sin representar un ideal adecuado para todas las situaciones y contextos.
c. Resultados
El primer resultado que observaron es que en muchas ocasiones las instrucciones que
daban a reunir los objetos análogos eran entendidas y usadas por los sujetos como
reunir los objetos adecuados para una finalidad concreta. Cambiaron la tarea teórica
por práctica.
La tarea de agrupar objetos según un mismo indicio era realizada muy
frecuentemente como una operación de asociación de los objetos partiendo de
su introducción en una determinada situación práctica. El martillo no era
portadora de características abstractas que pudieran servir de base para la
agrupación. Cuando esto se contraargumentaba e indicaba que el” leño” debía
ir aparte porque no estaba hecho del mismo material que el martillo, sierra o
hacha, o que éstas eran herramientas y leño no, los sujetos contestaban que
ésos no eran aspectos esenciales y que quien lo pensara no comprendía nada.
Los investigadores encontraron que los analfabetos operaban reproduciendo la
situación práctica. Los sujetos que tenían poca escolaridad realizaban la tarea
utilizando ambas tendencias de generalización: práctica y teórica, predominando la
primera. Y finalmente, para los que habían terminado algún curso escolar, la
clasificación según una categoría teórica fue accesible y predominante.
Entonces, los resultados evidencian que en el primer grupo, el principio
práctico predomina de forma absoluta entre los sujetos que viven en zonas
alejadas de los centros urbanos, son analfabetos y conservan formas feudales
de organización social y económica.
En el segundo grupo, (algún curso de escolarización y participaban en trabajo
social en economías colectivas) se daba un cierto escalón de transición, donde
actúa el principio de clasificación categorial junto con el situacional.
En el tercer grupo, los sujetos identifican el criterio que les permite organizar
los conceptos de la serie bajo etiqueta más general. Esos criterios pueden ser
funcionales o cualquier otro que indique semejanza, y se derivan de las
exigencias de organización de la alfabetización y las formas colectivas del
trabajo.
d. Explicación
La explicación de los autores es que el pensamiento no ha cambiado desde dentro sino
que se transforma en la medida en que cambian también las formas de producción
que imponen nuevas formas de organización social.
Las organizaciones taxonómicas son relevantes en el contexto escolar, donde prima el
saber abstracto y descontextualizado, pero no en un medio práctico.
El pensamiento va cambiando junto con y en relación mutua con el contexto, con los
motivos para la acción que las personas encuentran en esos contextos y las
herramientas culturales de que disponen.
Scribner y col realizaron un estudio en planta de lácteos. Durante 6 meses observaron a diferentes
trabajadores en sus tareas.
Estudiaron dos grupos diferentes:
El grupo de pre-cargadores (preparaban pedidos para ser distribuidos) que realizaban
una tarea exigente consistente en mover grandes pesos y preparar los pedidos en
breve tiempo.
El grupo de los conductores transportaban la carga a los supermercados y cobraban la
mercancía.
El procedimiento en ambos casos incluyó primera fase de observación de tareas y una segunda de
sesiones experimentales. Objetivo era precisar el papel de la experiencia laboral en las habilidades
de memoria y pensamiento. Se trabajó con expertos en sus tareas y con novatos trabajadores de la
planta, y novatos ajenos (oficinistas y estudiantes).
I. Pre-cargadores
a. Tareas desempeñadas en el puesto de trabajo
Preparaban las órdenes de productos vendidos a supermercados y tiendas. Recibían pedidos en
impresos u órdenes de salida donde constaban las cantidades de cada producto. Esta tarea era
sencilla pero debía realizarse con prisa y precisión.
Requería una manipulación de información simbólica por la discrepancia existente entre las unidades
de medida en que se expresaban los pedidos (cuarto litro, medio litro, litro,...) y las unidades
manejadas dentro de la fábrica: 4 litros, 8 medios o 16 cuartos de litro.
Había que convertir las unidades del pedido en cantidades de cajas a preparar. La conversión se hacía
automáticamente pero como resultado de ella el precargador recibía órdenes en las que debía
preparar una caja más tantas unidades o bien una caja menos algunas. Por ejemplo: una caja + 6
unidades (1 +6) o dos cajas menos 7 unidades (2 -7).
c. Fase experimental
Luego se pasó a la fase experimental, donde se compararon las estrategias aplicadas a cien
problemas que simulaban a los de la fábrica, por parte de los precargadores expertos y los grupos
novatos. Se recreó el ambiente material y se incluyeron las órdenes de pedido, cajas llenas, vacías y
parciales.
d. Resultados
Los precargadores eligieron estrategias no literales óptimas el 70% de las veces.
El factor experiencia en el trabajo de la fábrica distinguió desempeño de los trabajadores de la planta
frente a los novatos. Los conductores y otros de la planta no quedaron muy atrás de los
precargadores. Los oficinistas ajenos a la fábrica usaron estrategias no literales óptimas sólo en la
mitad de los problemas. Los estudiantes aplicaron soluciones literales, lo que les llevó a hacer un gran
esfuerzo físico, y en estos dos últimos grupos se empleó más técnicas de conteo.
Los precargadores apenas contaban y aplicaban en su conjunto estrategias más holísticas con un gran
peso de la configuración perceptiva.
Esa facilitación de la preparación se observaba en la fase de pre-movimiento, cuando tenían que
decidir cómo hacer el pedido basándose en las cajas que tenían y con ello, qué estrategia iban a usar.
El tiempo invertido en tomar decisiones fue menor entre los precargadores que entre los novatos,
pues los primeros se apoyaban en la información perceptiva y los segundos contaban y usaban
técnicas enumerativas más lentas.
c. Conclusiones
Para los autores el pensamiento es un proceso funcional que se lleva a cabo en forma conjunta con
otros procesos como percepción y memoria. La interacción se manifiesta en distintas tareas
(transformar operaciones, cálculos, inventar procedimientos) y se implanta en escenarios concretos,
repletos de soportes materiales y simbólicos (listas de pedidos, transformaciones de las unidades y
las pautas organizadoras). Todo ello forma parte de los marcos de práctica de la cognición.
II. Conductores
a. Tareas desempeñadas en el puesto de trabajo
Scribner y col estudiaron a los conductores que transportaban y ponían el precio a los pedidos que
servían. Debían cumplir con su trabajo en jornadas que comenzaban temprano y hacerlo con cierta
eficacia para no dejar ningún pedido sin entregar. Además eran responsables de cobrar la mercancía.
Poner los precios a los recibos de entrega era un trabajo simbólico y abstracto. Calculaban precio por
la cantidad de cada producto a entregar y del total de la entrega. La planta les daba una lista de
precios expresada en unidades por lo que el cálculo resultaba directo y sencillo: multiplicar cada
precio unitario por unidades transportadas para hallar el precio total.
III. Conclusiones
a. Plano metodológico
En el plano metodológico la observación no está reñida con la experimentación, sino que puede
precederla. Las observaciones de tareas permite describirlas mejor en términos materiales,
organizacionales y cognitivos, para luego replicarlas en laboratorio y profundizar en su estudio.
b. Pensamiento en acción o práctico
En cuanto al pensamiento en acción o práctico entienden que las estrategias de solución dependen
del conocimiento que se despliega en el lugar de trabajo. Las habilidades de pensamiento no están
libres de contenido, sino que se forman y dependen de las condiciones físicas, simbólicas y
organizacionales en las que se desarrollan.
c. Pensamiento experto
El pensamiento experto se vincula con la experiencia en el trabajo. Una de las características de los
expertos fue la variabilidad demostrada en las estrategias de resolución de problemas, que a primera
vista parecían muy estereotipados. Encontraban la operación adecuada “a la ocasión”.
Afirmaban que “el pensamiento práctico experto en el trabajo está orientado a objetivos y varía de
manera adaptativa con las propiedades cambiantes de los problemas y las condiciones cambiantes
en el ambiente de la tarea”.
Los estudios cognitivos del trabajo comienzan a perfilarse y sus conclusiones son parciales. Aun así es
importante estudiarlos en estos contextos, pues contribuyen a la configuración de formas de
pensamiento flexibles y creativas.
II. Procedimiento
Dividieron el estudio en 2 etapas con el fin de estudiar el uso diferencial del razonamiento
matemático en el contexto cotidiano y en el escolar. Se respondieron 63 preguntas de matemáticas
en examen informal y 99 en el formal.
III. Resultados
Los resultados indicaron una influencia decisiva del contexto en la solución de problemas
matemáticos.
Los niños y adolescentes respondieron correctamente al 98,2% de los cálculos y problemas
informales, mientras que sólo lo hicieron el 36,8% de los cálculos y el 73,7% de los problemas
formales. El desempeño en problemas escolares fue también alto.
A los niños vendedores les resultaba más fácil resolver problemas escolares que incluyeran un
escenario, que cálculos aislados formados por una secuencia de pasos arbitrarios de contenido
simbólico.
Muchos de los algoritmos que se enseñaban en la escuela podían presentar obstáculos en el
razonamiento y no parecían tener mucho sentido para los vendedores.
IV. Conclusiones
a. Múltiples procedimientos para resolver correctamente los problemas
Existen múltiples procedimientos para resolver correctamente los problemas
planteados, aunque éstos no coincidan con los enseñados en la escuela.
Se muestra enorme interrelación que existe entre la cognición, texto social, cultural, económico,...
Los autores ponen de manifiesto la funcionalidad que adoptan estos procesos diferencialmente
implantados en contextos formales o informales.
Saxe estudia la génesis y los procesos de cambio que se dan en prácticas matemáticas entendidas, al
mismo tiempo, como individuales y sociales.
(3) Los problemas de proporciones eran poco habituales en la matemática cotidiana de los niños
rurales, bastante habitual en los urbanos no vendedores y muy habituales en los niños
vendedores. Tenían que determinar en cuál de dos proporciones obtendrían más ganancias y
debían justificar sus respuestas.
Los vendedores calcularon y justificaron mejor, típicamente calculaban un término común que
les permitía establecer una comparación y así calcular correctamente la proporción y la
ganancia.
Conclusiones
La comprensión matemática de estos niños se iba generando a medida que
participaban en prácticas culturales como la venta de dulces. A la vez, esta práctica se
inscribía y se entrelazaba con un marco-cultural y económico más general y con otros
más locales como los provistos por la interacción social, la convención de las compras
y ventas, el cálculo de precios,...
La actividad cognitiva de resolver problemas está guiada por unos objetivos concretos,
vinculados a cada una de las fases de compra-venta. Esa actividad aparece dentro de
una práctica social concreta como es la venta callejera, reglada previamente por la
vida social, la cultura, la economía,...
Una de las dificultades es que la parte corporal que representa al 21 recibe el mismo nombre que la
29, lo cual el contexto de uso y gesto que se utilice son fundamentales para comprenderlo.
Este sistema se conservó sin cambios hasta mediados de los 60 cuando las comunidades comenzaron
a tener más intercambios económicos con otras comunidades.
Otro elemento fue la creciente escolarización. En el 2001 los niños y jóvenes estaban casi todos
escolarizados mientras que los adultos habían recibido unos pocos cursos.
En la década de los 60 se introducía el dinero en las comunidades repercutiendo en la forma en que
los Oksapmin cuentan y usan actualmente el dinero. (Usan números Pidgin).
En los 80, Saxe documentó cómo el sistema de conteo Oksapmin, basado en el cuerpo, era utilizado
en transacciones comerciales en las primeras tiendas abiertas en la comunidad y en la resolución de
problemas matemáticos. Era usos novedosos aplicados a problemas aritméticos nuevos y complejos.
Eran complejas relaciones entre los sistemas de conteo tradicionales y la relación con la libra y la Kina.
Aquellos que necesitaban utilizar dinero relacionaban la equivalencia entre 20 chelines – 1libra con
el sistema tradicional. También relacionaron el nuevo sistema decimal de los Kina con los chelines y
las libras.
En definitiva, los cambios con los que debían lidiar los Oksapmin eran:
Paso del uso de una numeración tradicional del cuerpo a la numeración Pidgin, similar
a la del inglés (uno, dos, tres,...)
Uso de la moneda kina, que relacionaban con la antigua libra y los chelines.
En ese escenario de diferentes instrumentos culturales y de formas de práctica provocadas por los
cambios económicos y culturales, Saxe y Esmonde 2004 realizaron dos estudios encaminados a
caracterizar el uso de sistemas de conteo y del dinero, que hacían un grupo de personas Oksapmin
de diferentes edades y niveles de escolarización cuando realizaban compras pequeñas.
a. Primer estudio
En siete tiendas de la comunidad con nueve empleados registraron una serie de detalles de la
compra y fueron analizados en función de datos demográficos y escolares. Se trabajó con 4 grupos
de edad y 3 grupos de escolarización.
Los resultados obtenidos en el primer estudio fueron un uso exclusivo del sistema tradicional en los
ancianos y un uso variado de sistemas de conteo en los otros grupos (oksapmin, pidgin y mixto).
b. Segundo estudio
El segundo estudio buscaba indagar aún más en algunos aspectos de las transacciones comerciales
para ver su práctica diferencial por parte de los diferentes grupos estudiados.
Seleccionados algunos casos de venta en cada una de las tiendas, se entrevistó en profundidad al
vendedor pocas horas después de haber realizado la transacción. Se hablaba de 4 situaciones que
variaban en dos condiciones: compradores ancianos o adultos mayores y si tenían o no el cambio
exacto para pagar 2x2. En ambas condiciones el comprador contaba con 5 kinas o bien en billetes y
monedas (cambio exacto) o un solo billete de 5 kina (cambio no exacto).
Resultados
Los vendedores decían que los ancianos solían comprar producto a producto mientras que los adultos
mayores compraban los dos o más que necesitaban de una sola vez. Tanto si tenían el cambio justo
como si tenían que recibir cambio.
En cuanto a la transacción, los vendedores calculaban el precio y el cambio de forma conjunta con los
adultos. Al recibir el cambio lo solían contar y antes de comprar establecían lo que iban a pagar por
su compra. En los ancianos compraban de forma secuencial. Cuando no tenían el dinero exacto y
necesitaban dos cosas aplicaban dos estrategias: compraban uno, pagaban y con el cambio
compraban el otro; o preguntaban cuánto recibirían por el cambio en la compra del primer producto
y entonces sabían si podían comprar más o no.
En ambos estudios los vendedores tenían gran flexibilidad para manejarse con diferentes
numeraciones y prácticas de compra-venta. Por eso Saxe y Esmonde 2004 afirman que los
vendedores se han convertido en verdaderos administradores o agentes que facilitan y median en las
prácticas de compra. Anticipan y simplifican las compras sobre todo de las de los ancianos.
En los intercambios en las tiendas, ambos, empleados vendedores y compradores, hacen uso de
diferentes sistemas notacionales de artefactos físicos y diferentes lenguajes de representación como
recursos para llevar adelante las transacciones (se da laboratorio natural). Estos estudios muestran
que el pensamiento en la práctica está situado en un escenario cultural y social, lleno de
restricciones y de posibilidades. La actividad concreta de pensar se realiza junto con otros y está
profundamente interrelacionada con las herramientas culturales, prácticas sociales, reglas, sistemas
notacionales,...
Resumen apartado página 447.