Está en la página 1de 12

TEMA 4.

RAZONAMIENTO INDUCTIVO

Manejarse en la infinitud de posibilidades, no es fácil. Estamos equipados con esos principios


inferenciales porque con frecuencia tenemos que inducir relaciones causales, y la inducción nos
exige ir más allá de la información que se nos da. La inducción de las relaciones causales correctas
es inabarcable: el nº de posibles hipótesis inductivas crece en una proporción exponencial respecto
al nº de conceptos que pueden ser relevantes. Pero no sabemos qué conceptos son relevantes, y por
tanto es fácil invocar los conceptos erróneos (base del pensamiento mágico). Por eso, las
restricciones en la búsqueda de posibles cusas nos ayudan, y los heurísticos son a menudo útiles
(Johnson Laird).

Algoritmo vs heurístico vs misterio.

1. Predicción y probabilidad

La incertidumbre es una constante de la condición humana. Procesamiento de la estructura


temporal de la realidad: ¿cuándo va a ocurrir qué?

1.1 Estadísticos y heurísticos

La estadística bayesiana prescribe el modo de calcular la probabilidad de que suceda un


acontecimiento (o hipótesis) a partir de una serie de parámetros previamente conocidos. El
objetivo de las ecuaciones es calcular la probabilidad final de un evento, cuando disponemos de
cierta información previa, a la que se añade
un dato nuevo. Por ejemplo, qué posibilidad hay de
que llueva el domingo próximo, teniendo en cuenta
que en esta época del año llueve poco y que
hoy sábado se vislumbran nubes en la
montaña.

El teorema de Bayes tiene un valor


probado como instrumento en el cálculo de
probabilidad de hipótesis o pronósticos. Por
ello puede considerarse un modelo
normativo (validez formal) y prescriptivo
(validez psicológica), del mismo modo que la lógica formal lo es respecto al razonamiento deductivo.

Sin embargo, también nosotros, en el día a día, tenemos que ser capaces de percibir y computar la
variabilidad. Si nuestro mundo es probabilístico, debemos esperar que la evolución haya
proporcionado tanto a la mente animal como a la humana los procesos necesarios para enfrentarse a
este mundo de incertidumbres (Kahneman y Tversky, 1974).

La predicción ingenua se basa en heurísticos o reglas de andar por casa que se aplican
espontáneamente como parte de un proceso de evaluación natural desarrollado rutinariamente en la
percepción y comprensión de mensajes. Tienen mecanismos adaptados de base intuitiva. Son reglas
razonables (no racionales) que muchas veces permiten realizar juicios adecuados pese a los errores
(obviamos las probabilidades previas, el tamaño de la muestra, etc.) Son fruto de la selección
natural, adaptación al medio ambiente, “resuelven”. (Nisbett y Ross, 1980). Los heurísticos más
importantes son: representatividad y accesibilidad.
1.2 Representatividad

Es la evaluación del grado de correspondencia o similitud entre una muestra y una población, un
ejemplar y una categoría, un acto y un actor, o más generalmente un resultado y un modelo (Ley de
semejanza). Un ejemplo es representativo de una categoría cuando:

- Tiene los mismos rasgos principales que comparten los miembros prototípicos de esa
categoría
- No tiene otros rasgos principales no
compartidos por esos miembros

Juzgar la probabilidad de un acontecimiento


mediante el heurístico de representatividad: cuando

z’ (muestra) es un ejemplo de Z (modelo).

Correlaciones entre los datos del grupo de similitud


y el de predicción (tercera columna) fue de 0.97;
mientras que el grupo de predicción y el de datos
base correlacionan negativamente.

El 95% de los sujetos admiten como más probable


que Tom sea estudiante de ciencias del ordenador (datos base 7%), a pesar de que reconocen que
hay muchos más estudiantes de ciencias humanas o de educación. El 5% de los sujetos admiten
como más probable que Tom estudie ciencias humanas o de la educación (datos base 20%).

El heurístico de representatividad supone en muchos casos una estrategia eficiente en el


pronóstico de acontecimientos, pero crea problemas con las probabilidades compuestas.

Falacia de la conjunción

Tversky y Kahneman (1983) →lee la siguiente descripción:

Linda tiene 47 años, es soltera, decidida y muy inteligente. En la universidad estudió filosofía.
Como estudiante estaba muy preocupada por los problemas de discriminación y justicia social, y
también participó en manifestaciones antinucleares.

Ahora ordena las ocho afirmaciones de la siguiente diapositiva de menos a más probable. Ponle 1 a
la afirmación menos probable, 2 a la más probable de las siete restantes, y así sucesivamente,
hasta ponerle un 8 a la más probable.

• Linda es maestra de primaria

• Linda trabaja en una librería y recibe clases de yoga

• Linda milita en el movimiento feminista (A)

• Linda trabaja en el ámbito de la intervención social

• Linda es miembro de Izquierda Unida

• Linda es empleada de banco (B)

• Linda es comercial en una compañía de seguros


• Linda es empleada de banco y milita en el movimiento feminista (A+B)

Cuando se pidió a los sujetos que estimasen la


probabilidad con que se puede atribuir cada una de
las alternativas a Linda, el 88% de éstos
consideraron más probable la conjunción A+B que uno
de los constituyentes aislados (B).

Como puede verse, la probabilidad conjunta de que


Linda sea a la vez empleada de banco y militante del
movimiento feminista es necesariamente igual o menor que la probabilidad de que Linda sea
empleada de banco.

Intuiciones sobre la regresión/Problemas de


comprensión del concepto de regresión a la media

La media manda → mayoría de casos están ahí. Las cosas


pueden irse hacia los lados, pero tienden a volver a la
media.

“Algunos estudiantes excepcionales no son tan buenos


cuando se incorporan al mundo profesional”
(regresión a la media: las correlaciones entre vbles son
normalmente inferiores a 1). La regresión genera efectos opuestos a los derivados del heurístico
de representatividad: el resultado predicho debe ser representativo de la información → los
buenos estudiantes, serán buenos profesionales; los padres inteligentes tendrán hijos igualmente
inteligentes; los negocios rentables lo serán en el futuro, etc. Cuando estas predicciones ingenuas e
inexactas no se cumplen, las personas inventan teorías explicativas, en lugar de atenerse al simple
hecho de que las correlaciones entre vbles son normalmente inferiores a 1.

A menudo, un poco de información tiene valor diagnóstico respecto a un modelo (por ser
representativo de…).

Efecto de diluido

Nisbett et al (1981) presentaron a un grupo de sujetos (grupo de sólo información diagnóstica) una
breve descripción de dos individuos:

1) Pablo es un estudiante de ingeniería que plantea especializarse en ingeniería


aeroespacial

2) Raúl es un estudiante de música que planea ser músico profesional en una orquesta o
banda o profesor de música

Se pidió a los sujetos que pronosticasen la intensidad de shock eléctrico que podrían aceptar Pablo
y Raúl, teniendo en cuenta que la media de la población acepta 529 microamperios. Un segundo
grupo, de información diagnóstica + no diagnóstica, recibió la misma descripción de los modelos,
además de una entrevista con éstos grabada en videotape, pero que proporcionaba información
irrelevante en relación con el pronóstico.
Los resultados mostraron un claro efecto de diluido; los sujetos del primer grupo, basándose en la
representatividad, pronosticaron una mayor tolerancia a los shocks del estudiante de ingeniería que
del músico; pero el grupo que recibió además la entrevista en videotape predijo una resistencia al
shock muy similar en ambos modelos.

El efecto de diluido, producido por la información no-diagnóstica adicional, puede contrarrestar la


tendencia a error propia del heurístico de representatividad. La atenuación de ésta se manifiesta
en predicciones menos extremas, más agresivas a la media y por tanto más próximas a las
prescripciones normativas. El efecto de diluido es por sí mismo una estrategia deficitaria, pues
puede generar vicios en los juicios predictivos tan graves como la representatividad, aunque de
signo opuesto.

Eficiencia de la representatividad

Nisbett et al., 1983 proponen que la representatividad produce inferencias válidas a partir de
pocos datos. Esto es especialmente cierto cuando hay evidencias previas de que la población es
homogénea; en estos casos los sujetos son más propensos a utilizar la representatividad, y además
realizan pronósticos correctos. Realizaron un sencillo experimento para comprobar estos
supuestos. Los sujetos recibieron el siguiente texto:

Imagine que es usted un explorador que desembarca en una pequeña isla desconocida del
sudeste del Pacífico. Usted encuentra varios animales, personas y objetos desconocidos.
Observa las propiedades de las “muestras” y necesita hacer cábalas sobre el grado en que
esas propiedades son comunes en otros animales, personas y objetos del mismo tipo.

A continuación, los sujetos debían estimar en porcentajes a partir de una serie de preguntas
concretas. Por ejemplo:

Suponga que se encuentra un nativo, miembro de una tribu que él denomina baratos. El
nativo es obeso. ¿Qué porcentaje de los hombres baratos cree que serán obesos?

O bien:

Suponga que encuentra lo que el físico de la expedición describe como un elemento


extremadamente raro llamado floridium. Cuando fue calentado a una temperatura muy alta,
ardió con una llama verde. ¿Qué porcentaje de las muestras de floridium hallado en la isla
cree que arde con una llama verde?

Los resultados indican que los sujetos proporcionan un peso muy diferente a la representatividad,
dependiendo de la supuesta homogeneidad de la población respecto al atributo crítico. Así, las
generalizaciones relativas a la propiedad “arder con llama verde” alcanzan el 90% por término
medio, mientras que la propiedad “ser obeso” solo se atribuye al 35% de los hombres baratos. En
suma, el heurístico no se aplica mecánicamente, sino que se basa en una evaluación intuitiva de la
variabilidad de la población, y ello disminuye sensiblemente la tendencia a error.

1.3 Accesibilidad

Aportaciones empíricas

Juzgar la probabilidad de eventos mediante el heurístico de accesibilidad: “el ejemplo que me viene
a la cabeza”. Cuantas más veces repites algo o se repite un acontecimiento, más fácil es recordarlo
en el futuro, y las categorías más extensas también son más accesibles. Cuando más fácilmente
recuerdas algo, es que más veces ha ocurrido en el pasado. El heurístico de accesibilidad tiene
cierta justificación. La fuerza de una asociación permite al sujeto inferir la frecuencia de un
suceso, categoría o relación. Ley de contigüidad, frecuencia. El heurístico de accesibilidad consiste
en la inclinación a sobrestimar la probabilidad, relevancia o frecuencia de algo que es fácil recordar
o llevarnos a la mente (alta accesibilidad). Ciertas condiciones que lo facilitan son:

- La recencia: efecto priming


- Saliencia: efecto solo
- La auto relevancia: accesibilidad crónica
- Familiaridad: experiencia previa
- Información que se recupera al seguir el criterio de codificación

Tversky y Kahneman, 1973 ofrecen datos de interés sobre el heurístico de accesibilidad. Un grupo
de sujetos juzgaron la frecuencia relativa con que aparecen ciertas letras del alfabeto en la
primera y tercera posición de las palabras inglesas. La mayoría de las personas coincidieron en
señalar más frecuente la primera posición; por ejemplo, estiman que hay más palabras que empiezan
con R, que palabras con R en tercera posición. Lo cierto es que inglés (y seguramente en castellano),
son más frecuentes las palabras con la letra R en tercera posición que las que comienzan por ésta.
El error de estimación se debe al distinto grado de accesibilidad de ejemplos de palabras con una
determinada letra inicial o intermedia.

Anclaje

Tversky y Kahneman, 1973. A veces, los individuos evalúan la frecuencia o la probabilidad de un


resultado, apoyándose en la facilidad con que los ejemplos o asociaciones son evocados en su mente.
Los datos (a veces irrelevantes) que están accesibles cuando tenemos que resolver un problema,
hacer una estimación o un juicio sesgan nuestras inferencias y conclusiones. Demostraron el efecto
de anclaje pidiendo a un grupo de individuos que estimasen el porcentaje de países africanos
pertenecientes a las Naciones Unidas. Previamente, e selecciono un nº del 0 al 100 en una ruleta
ante sus propios ojos. La estimación final estuvo claramente determinada por la cifra aleatoria de
la ruleta. Por término medio, los sujetos que vieron el nº 10 en la ruleta estimaron un porcentaje
del 25% de países africanos, mientras que los testigos del 65 estimaron un 45%. El anclaje es un
efecto particular de la accesibilidad de una información irrelevante presente en la situación de
prueba o generada por el propio sujeto con motivo de un cómputo incompleto.

Un ejemplo de anclaje (relevante) puede ser cuando vendes una casa → va a haber un regateo: si
pones un precio muy ajustado, esa es la referencia (el anclaje), y regatearán sobre ese precio. Si
pones un precio muy alto, tal vez ni hagan una oferta.

Correlaciones ilusorias

Cuando dos eventos están asociados conceptualmente (semánticamente), los sujetos tienden a
sobrestimar la frecuencia con que concurren en la realidad. Una impresión falsa de que dos vbles
correlacionan→ grupos salientes se llevan cosas salientes (los gitanos, negros, etc., hacen cosas
malas; las personas dependientes dibujan caras con boca grande; las personas paranoicas dibujan
ojos prominentes). Esta correlación ilusoria fue descubierta por Chapman y Chapman en el campo
de la psicología clínica. Las predicciones de los clínicos profesionales coincidían con las de los
sujetos ingenuos: simplemente compartían estereotipos de qué rasgo en el dibujo se relaciona con
qué patología.

Construcción de escenarios

La probabilidad de un resultado se juzga mayor cuando el individuo puede construir uno o varios
escenarios de acontecimientos concatenados, que conducen a ese resultado (accesibilidad del
escenario: más accesible = más probable). El heurístico de accesibilidad se manifiesta así no como
un fenómeno de mera recuperación de información, sino de construcción de modelos mentales. Esta
construcción de escenarios también induce a errores:

1) Los escenarios suelen ser modelos simplificados de una realidad compleja, y los sujetos
no pueden apreciar fácilmente las posibles interacciones entre los parámetros de la
simulación

2) Los escenarios están compuestos de elementos plausibles relacionados entre sí, pero
la probabilidad acumulada de que toda la secuencia se desarrolle según lo previsto
tiende a ser → baja predicciones no se cumplan frecuentemente al irrumpir elementos
nuevos o imprevistos.

Jean de la Fontaine (1621-1695) → heurístico de accesibilidad no solo se manifiesta como

fenómeno de recuperación de información, también como construcción de modelos mentales. El


problema es que pueden ser modelos simplificados en exceso y no se tiene en cuenta la “falacia de
la conjunción” (la probabilidad conjunta de dos sucesos es menor o igual a la probabilidad de uno de
ellos, nunca mayor).

1.4 Conclusiones

En términos formales (Bayesianos) somos incompetentes para hacer pronósticos: nos apoyamos en
heurísticos (conceptos, memoria, asociaciones), no en algún tipo de álgebra cognitiva. Pero este
parece ser el caso al manejar contenidos del mundo social (Tversky y Kahneman, 1973) que al
manejar tareas más abstractas como juegos de azar (Piaget e Inhelder, 1955).

Los niños de 6 a 12 años (fase concreta) son capaces ya de discriminar los sucesos azarosos de los
gobernados por relaciones causa-efecto (Piaget e Inhelder, 1955).

Al parecer somos capaces de codificar la frecuencia (“¿Cuántos coches rojos has visto hoy?”) de
forma automática, también los niños lo son (Hasher y Zacks, 1979).

Lo social se presta menos a cálculos estadísticos (y más a sesgos de heurísticos) que lo abstracto o
general.

Corrección de sesgos

Podemos poner en manos del ciudadano conceptos formales de inferencia estadística usada en
ciencia. Correlación no implica causalidad. La verificación de hipótesis se apoya en el grado de
“significación estadística” que tiene unos principios más robustos que el razonamiento asociativo.
2. Causalidad

La atribución de causas no es una operación arbitraria, sino que guarda cierta correspondencia (no
mimetismo) con las contingencias y patrones de covariación del mundo. La causación es un
mecanismo realista análogo a la categorización. La diferencia es que las categorías corresponden a
patrones correlacionales estáticos, y las atribuciones causales se refieren a la estructura temporal
de los sucesos. Es universal.

2.1 Universalidad del análisis causal

Establecimiento de contingencias en los animales

Mecanismo adaptativo → neofobia.

Tª de la Interferencia Concurrente (Revusky, 1977): tras consumir un alimento, un animal no suele


consumir otro en horas. Si se encuentra mal tras un tiempo, se da el aprendizaje demorado de la
aversión al sabor. Pero la aversión no se desarrolla si se toman otros alimentos en el proceso
(porque esto oscurece la detección de causa-efecto: “¿Qué me ha sentado mal?”).

Los primeros psicólogos del aprendizaje estimaban que la mera contigüidad temporal reiterada
entre dos estímulos (EI y EC: condicionamiento/aprendizaje clásico), o entre una respuesta y un
estímulo/consecuencia (CO). Los modernos investigadores del aprendizaje reconocen que el animal
en una situación de condicionamiento es sensible a las contingencias, o al valor informacional del Es,
más que a la simple contigüidad asociativa. Dicho de otro modo, el CC depende no sólo de la
probabilidad con que el EC y el EI van unidos [p(EI/EC)], sino también de la probabilidad con que el
EI se dé en ausencia del EC [p(EI/EC)]. De modo análogo, el CO depende de la probabilidad
conjunta de la R y su consecuencia [p(R/C)], y de la
probabilidad de la consecuencia cuando la R está
ausente [p(R/C)].

Los teóricos de la incapacidad/desamparo


aprendida/o han descubierto un fenómeno de gran
interés. Todos esperamos una relación entre lo que
hacemos y lo que sucede. Experimento Seligman y
Maier, 1967.

Percepción de la causalidad

En su libro La perception de la causalité, Michotte (1947) expone una serie de ingeniosos


experimentos en que los sujetos describen ciertas combinaciones de movimientos físicos de
objetos como relaciones causa-efecto. La intensidad de la percepción causal depende de la
distancia mínima entre A y B, el intervalo de tiempo entre sus movimientos y la velocidad.

Adquisición de la noción de causalidad

Una de las contingencias que establece el niño entre los 2 y 6 meses es la tensión-alivio. Sabe que
llorando (tensión) vienen los padres y le procuran alivio.

Watson (1978) investigó el desarrollo de la percepción de contingencias en los niños de pocos


meses de edad, haciendo covariar las patadas del bebé y los movimientos de objetos suspendidos
en el techo. Trató de describir la percepción de contingencias a partir de parámetros bayesianos.
La contingencia se establece con facilidad cuando la probabilidad condicional es muy alta, y son
bajas la de aparición del estímulo (movimiento solo) y la R (patada sin consecuencias).

Según Piaget (1952), la percepción de contingencias en el bebé, con ser importante, es un estadio
primitivo. El niño no distingue claramente entre la acción y su consecuencia ambiental; la
consecuencia es una parte de la propia conducta. Un paso más en el desarrollo cognitivo de la
causalidad tiene lugar hacia los 6 meses, cuando el niño comienza a diferenciar entre medios y
fines. Esto supone la percepción del yo como agente causal diferenciado de los demás, y por tanto
surge la intencionalidad y el sentido de autoeficacia. Pronto la noción de causalidad se convierte en
una batalla de influencias entre padres e hijos, por ejemplo.

La articulación de esquemas causales ocurre también en el dominio físico. Piaget describe curiosas
atribuciones causales en los niños preoperatorio:

- Creen que los objetos están dotados de vida e intenciones, por ejemplo “las nubes corren
detrás de nosotros” (animismo)
- Que el mundo físico ha sido construido por agentes humanos (artificialismo)
- Asume que sus deseos pueden influir sobre el mundo (causalidad mágica)

No entienden que muchos eventos están controlados externamente y que incluso pueden generarse
por azar.

La causalidad en otras culturas

El pensamiento mágico de los primitivos es el único fenómeno de atribución causal que ha acaparado
la atención, sobre todo de los antropólogos. Los productos del pensamiento mágico son verdaderas
teorías causales sobre la realidad, o bien
técnicas que pretenden producir ciertos
efectos. Son equivalentes a las teorías
científicas y tecnologías occidentales, pero
tienen la particularidad de no reflejar
covariaciones o contingencias objetivas.
Consideremos algunos remedios mágicos.

En todos estos casos la atribución errónea de propiedades curativas se basa en un principio de


similitud entre la enfermedad y el remedio.

Actualmente se tiende a destacar la comunalidad de procesos mentales en la atribución causal de


primitivos y civilizados. Hay una tendencia universal a presuponer una similitud entre las causas y
los efectos. La misma capacidad de percepción de contingencias e inducción de causas. Pero
poseemos herencias distintas de “paquetes de atribuciones” que en Occidente son en algunos casos
científicas.

La causalidad en ciencia

El científico disfruta de algunas ventajas sobre al hombre de la calle en sus teorías causales.
Concretamente, dispone de procedimientos técnicos que optimizan el cómputo de covariaciones,
mientras que el sujeto ingenuo se limita a una valoración intuitiva. Estas técnicas son las siguientes:

a) Instrumentos que permiten observar parámetros causales, normalmente ocultos a nuestra


experiencia sensorial
b) Artefactos de diseño experimental y análisis estadístico que ponen de manifiesto patrones
de covariación que la mera intuición no permite evaluar
c) Técnicas estadísticas y matemáticas que permiten evaluar la importancia relativa y las
interacciones de múltiples parámetros causales

Tras registrar datos y contingencias, solo queda pensar, hipotetizar, conjeturar, abducir… igual que
todos. Pero si hay un marco teórico previo, amplio, empíricamente contrastado, pues mejor.
Principio de no contradicción: el curso temporal de los acontecimientos es que las causas anteceden
a los efectos (linealidad); la causa final es que el comportamiento de hombres y animales tiene un
carácter propositivo. La representación cognitiva de eventos futuros (metas) tiene un efecto
causal sobre la conducta. Bajo un enfoque probabilístico.

2.2 Sesgos en el análisis causal

La atribución causal es una operación conceptual que establece una relación entre un agente y un
resultado a partir de unos datos.

El modelo normativo/de covarianza de Kelley

Hay tres patrones típicos de atribución de la conducta:

1) A la persona (actor): “Juan ha agredido a Pedro esta mañana” = Juan es agresivo


2) Al objeto (destinatario): “Juan ha agredido a Pedro esta mañana” = Pedro es irritante
3) A las circunstancias (situación): “Juan ha agredido a Pedro esta mañana” = esta mañana
había tensión

Los individuos, para atribuir causas a una conducta de una persona en una situación, evalúan tres
fuentes de variación que inciden sobre ésta, como si se tratase de un análisis de varianza
(ANOVA):

1) Información de consenso, o en qué medida el comportamiento exhibido por la persona es


compartido por otras personas en la misma situación. Variaciones en las personas = cómo
tratan otros actores a Pedro
2) Información de consistencia, o el grado en que la persona muestra el mismo comportamiento
ante la misma situación en otras ocasiones.
Variaciones en el tiempo = cómo trata Juan a
Pedro en otras ocasiones
3) Información de distintividad, o el grado en
que el comportamiento de la persona es
específico de la situación observada. Variaciones
en los objetos = cómo trata Juan a otros
destinatarios

Miller, Gillen, Schenker y Radlove (1973) explicaron a los sujetos el procedimiento y los resultados
del experimento de Milgram, informándoles de que dos terceras partes de los sujetos
experimentales llegaban hasta el nivel máximo de descarga. Aun así, los sujetos evaluaban como
crueles y agresivos a quienes daban las descargas. Los autores concluyen que no utilizamos
adecuadamente la información de consenso (desde una perspectiva atribucional los sujetos no tienen
en cuenta el consenso, pues realizan atribuciones personales, cuando deberían hacerlas
objetivamente situacionales). Los sujetos puntuaron muy alto a los participantes en el experimento
de Milgram en varios rasgos negativos.

Error fundamental de atribución

Atribuir las conductas de otros a disposiciones internas (positivas o negativas). La consistencia


transituacional del comportamiento es más bien escasa. Las correlaciones entre conductas de un
mismo sujeto en diversas situaciones rara vez exceden 0.20, y las correlaciones entre medidas
psicométricas de un mismo rasgo rara vez superan el techo de 0.30.

La atribución disposicional de la conducta se trata probablemente de una consecuencia más de los


heurísticos de representatividad y accesibilidad. Los actores (unicausales) son más representativos
de las conductas que de las situaciones: existe una asociación semántica y hasta lingüística entre
acciones y disposiciones. Una conducta A requiere o sugiere un carácter A.

La información procedente del actor es más accesible que la información situacional. El actor es
interesante, dinámico y su comportamiento resulta cognitivamente saliente. En contraste, la
situación es relativamente marginal, y sirve de simple marco o fondo a la acción (efecto figura-
fondo). La accesibilidad acusada del personaje y su conducta facilitan por tanto la atribución
disposicional.

Atribución a uno mismo y atribución a otros

Efecto actor-observador (Jones y Nisbett, 1972): Hay diferencias sistemáticas entre los patrones
de auto atribución y los patrones de hetero atribución. Los observadores tienden a atribuir la
conducta a factores disposicionales en mayor medida que los actores, que la atribuyen más a causas
situacionales.

1) El actor posee una información más amplia y precisa de su propia conducta


(inconsistencia transituacional)→ estará dispuesto a reconocer el influjo de la
situación

2) El actor dirige su atención al medio, observando su carácter dinámico, y presta poca


atención a sus estados internos. Por eso se percibe como relativamente reactivo a las
demandas ambientales, más que a sus estados internos (“reacciona”). En cambio, el
observador de la conducta ajena ya hemos visto que percibe el actor como la figura y
la situación como el fondo.

3) El actor no visualiza su propia conducta, en cambio la conducta del otro se sitúa en el


centro del campo visual del observador

Hay diferencias sistemáticas entre la forma que explicamos nuestros éxitos y los de otros.
Atribuimos nuestros éxitos a causas internas en mayor medida que los éxitos ajenos. Ese patrón
atribucional de auto ensalzamiento está ausente en personas deprimidas.

Ilusión de control

Los humanos tenemos la necesidad de percibir el mundo como predecible y controlable. Hay
contingencias controlables, pero también existe el azar. Tendemos a exagerar la relación causal
entre sucesos externos, o entre nuestra conducta y los sucesos externos.
Ellen Langer (1975)→ la gente mantiene expectativas de éxito muy altas incluso con tareas
aleatorias. En un juego de lotería
manipuló la posibilidad de que los sujetos
eligiesen o no su cartón de lotería. Cuando
el juego estaba a punto de finalizar, se les
preguntaba a los sujetos por qué precio
venderían su cartón, y por tanto su
probabilidad de ganar. Los resultados
fueron claros: en la condición de selección
de varton el valor medio fue de 8.67
dólares, mientras que en la otra condición
solo 1.96.

Alloy y Abramson (1979) realizaron un fascinante estudio en que compararon la percepción de


contingencias en un grupo de estudiantes deprimidos y otro grupo no deprimido. (…) Los autores
concluyen asegurando que los individuos deprimidos perciben de modo más realista las contingencias,
mientras que los no deprimidos sucumben a la ilusión de control.

Causalidad mínima

Tendemos a utilizar un principio de parsimonia intuitivo al buscar explicaciones a los fenómenos:


somos más unicausales que multicausales. Tiende a primarse el efecto del primer factor causal de
una cadena de sucesos sobre el resto.

Pregunta examen: ¿Qué se observa fundamentalmente en el estudio de Tversky y Kahneman relativo


al impacto de los datos de base?

1) Los datos base tuvieron mayor impacto sobre el grupo de similitud


2) Los datos base tuvieron mayor impacto sobre el grupo de probabilidad
3) Los datos base tuvieron gran impacto sobre ambos grupos
4) Las puntuaciones de los grupos de similitud y probabilidad estaban más correlacionadas entre
sí con los datos base

También podría gustarte