Está en la página 1de 55

Suscríbete a DeepL Pro para poder traducir archiv

Más información disponible en www.DeepL.com/


Review of Behavioral Economics, 2018, 5: 303-336.

El sesgo de la economía conductual


Gerd Gigerenzer∗
Instituto Max Planck para el Desarrollo Humano, Lentzeallee 94, 14195 Berlín,
Alemania; gigerenzer@mpib-berlin.mpg.de

RESUMEN
La economía conductual comenzó con la intención de eliminar el
punto ciego psicológico de la teoría de la elección racional y acabó
presentando la psicología como el estudio de la irracionalidad. En
su representación, las personas tienen sesgos cognitivos
sistemáticos que no sólo son tan persistentes como las ilusiones
visuales, sino también costosos en la vida real, lo que significa que
el paternalismo gubernamental está llamado a dirigir a las
personas con la ayuda de "codazos". Estos prejuicios se han
convertido en verdades de Perogrullo. En cambio, yo demuestro
que esa visión de la naturaleza humana está viciada por un "sesgo
de parcialidad", la tendencia a detectar sesgos incluso cuando no los
hay. Esto puede ocurrir al no darse cuenta de cuándo las
estadísticas de muestras pequeñas difieren de las de muestras
grandes, al confundir el error de la gente con el error sistemático o
al confundir las inferencias inteligentes con los errores lógicos. Sin
que la mayoría de los economistas lo sepan, gran parte de la
investigación psicológica revela una imagen diferente, en la que las
personas parecen tener intuiciones muy afinadas sobre el azar, la
frecuencia y el encuadre. Una revisión sistemática de la literatura
muestra pocas pruebas de que los supuestos sesgos sean
potencialmente costosos en términos de menos salud, riqueza o
felicidad. Deshacerse de los sesgos es una condición previa para
que la psicología desempeñe un papel positivo en la economía.

Palabras clave: Economía conductual, Sesgos, Racionalidad limitada,


Información imperfecta
La economía conductual comenzó con la intención de eliminar el punto
ciego psicológico de la teoría de la elección racional y acabó presentando a la
psicología como la fuente de la irracionalidad. Inspirada en el programa de
heurística y sesgos de los años setenta (Tversky y Kahneman, 1974), una serie
de desviaciones de la teoría de la elección racional se interpretaron como
defectos sistemáticos de la mente humana, en lugar de como un defecto de la
psicología.
�Quiero dar las gracias a Florian Artinger, Wolfgang Gaissmaier, Andrew Gelman,
Perke Jacobs, Joshua B. Miller, Hans-Jörg Neth, Andreas Ortmann y Peter Todd por sus
útiles comentarios.
304 Gerd Gigerenzer

ISSN 2326-6198; DOI 10.1561/105.00000092


©2018 G. Gigerenzer
Review of Behavioral Economics, 2018, 5: 303-336.

que en la teoría. Posteriormente, se intentó explicar las desviaciones


añadiendo parámetros libres a las teorías de la utilidad esperada (Camerer et
al., 2003). En esta visión, el Homo economicus seguía siendo el ideal
incuestionable, mientras que Homer Simpson se proponía burlonamente como
una descripción más adecuada del Homo sapiens, dados sus episodios de
ignorancia, pereza y brillante incompetencia (Thaler y Sunstein, 2008).
El campo habría progresado en una dirección totalmente distinta si
hubiera seguido la visión original de Herbert Simon de la economía del
comportamiento, en la que la psicología comprendía algo más que rarezas
mentales y la teoría algo más que la maximización de la utilidad esperada. Simon
(1979, 1989) instó a los economistas a alejarse de los modelos de utilidad
esperada como si y estudiar cómo la gente realmente toma decisiones en
situaciones realistas de incertidumbre en contraposición a bajo riesgo.
Utilizo el término incertidumbre para referirme a situaciones en las que no
se conoce o no se puede conocer el conjunto exhaustivo y mutuamente
excluyente de estados futuros y sus consecuencias. En estas situaciones
frecuentes del mundo real, en las que no se cumplen los supuestos de la teoría de
la elección racional, los individuos y las instituciones pueden, no obstante, tomar
decisiones inteligentes utilizando herramientas psicológicas como la
heurística rápida y frugal (Gigerenzer y Selten, 2001). Frank Knight, John
Maynard Keynes y Vernon Smith distinguieron de forma similar las
situaciones en las que se aplica la teoría de la elección racional y en las que
se violan sus supuestos, junto con la necesidad de un marco complementario
para la toma de decisiones en condiciones de incertidumbre.
Mientras que Simon pretendía desarrollar una alternativa a la eco- nómica
neoclásica, la línea de la economía del comportamiento configurada por el
programa de heurística y sesgos se limitó en gran medida a estudiar las
desviaciones del paradigma neoclásico, o lo que consideraba que era este
paradigma. Los experimentadores pretendían demostrar "anomalías" y
"sesgos" en el comportamiento humano. Estos sesgos han alcanzado la
categoría de tópicos y han servido de justificación a las nuevas políticas
paternalistas, conocidas popularmente como nudging, adoptadas por los
gobiernos del Reino Unido, Estados Unidos y otros países. El argumento que
lleva de los sesgos cognitivos al paternalismo gubernamental -en pocas
palabras, el argumento de la irracionalidad- consta de tres supuestos y una
conclusión:

1. Falta de racionalidad. Los experimentos han demostrado que las


intuiciones de las personas están sistemáticamente sesgadas.

2. Obstinación. Al igual que las ilusiones visuales, los prejuicios son


persistentes y difícilmente corregibles mediante la educación.

3. Costes sustanciales. Los sesgos pueden acarrear costes sustanciales para


el bienestar, como una menor riqueza, salud o felicidad.

4. Los prejuicios justifican el paternalismo gubernamental. Para proteger a


306 Gerd Gigerenzer

la gente de sus prejuicios, los gobiernos deben "empujar" al público


hacia un mejor comportamiento.
El sesgo de la economía conductual 305

Los tres supuestos -falta de racionalidad, terquedad y costes- implican que


hay pocas probabilidades de que las personas puedan aprender o ser
educadas para superar sus prejuicios; en su lugar, los gobiernos deben
intervenir con una política denominada paternalismo libertario (Thaler y
Sunstein, 2003). En esta variante del paternalismo blando, los gobiernos
utilizan incentivos que explotan las deficiencias cognitivas de las personas para
orientarlas hacia un comportamiento adecuado (Rebonato, 2012). Este nuevo
p a t e r n a l i s m o no pretende proteger a las personas de las imperfecciones de
los mercados o de los delincuentes, sino del enemigo interior, su propia
irracionalidad. El argumento de la irracionalidad existe en muchas versiones
(por ejemplo, Conley, 2013; Kahneman, 2011). No solo ha llegado a definir la
economía conductual, sino que también ha definido la forma en que la
mayoría de los economistas ven la psicología: La psicología trata de sesgos, y la
psicología no tiene nada que decir sobre el comportamiento razonable.
Pocos economistas parecen ser conscientes de que el mensaje del sesgo no
es representativo de la psicología ni de la ciencia cognitiva en general. Por
ejemplo, la aversión a las pérdidas se presenta a menudo como una obviedad;
en cambio, una revisión de la literatura concluyó que "las pruebas no apoyan
que las pérdidas, en conjunto, tiendan a ser más impactantes que las
ganancias" (Gal y Rucker, 2018). La investigación fuera del programa de
heurística y sesgos que no confirma este mensaje -incluida la mayor parte de la
investigación psicológica descrita en este artículo- rara vez se cita en la
literatura de economía conductual (Gigerenzer, 2015). Para corregir esta
imagen, discuto los tres supuestos del argumento de la irracionalidad en la
primera parte de este artículo. En la segunda parte, abordo el primer supuesto
(falta de racionalidad) con más detalle y muestro que la economía conductual
está contaminada por un "sesgo de parcialidad", la tendencia a detectar sesgos
aunque no los haya (Brighton y Gigerenzer, 2015). No trataré en profundidad
la alternativa positiva a la economía conductual actual, un tema que va más
allá del alcance de este artículo; otros autores y yo hemos escrito en otros
lugares sobre cómo replantear la economía conductual basándonos en la
perspectiva de Simon (por ejemplo, Gigerenzer, 2016a,b; Gigerenzer et al.,
2011; Gigerenzer y Selten, 2001).

1 Parte I: El argumento de la irracionalidad

1.1 El sesgo Sesgo

Los economistas, incluidos los economistas experimentales, han confiado


tradicionalmente en la racionalidad de las personas, al menos en conjunto
y cuando se les da el tiempo y la oportunidad de aprender de la
experiencia (Binmore, 2009; Smith, 2007). La afirmación de que las
personas violan sistemáticamente las leyes de la probabilidad (Tversky y
Kahneman, 1974) fue nueva y sorprendente, dado que a lo largo de la
década de 1960 los psicólogos experimentales llegaron a la conclusión de
que las personas son estadísticos intuitivos bastante buenos (por ejemplo,
306 Gerd Gigerenzer

Edwards, 1968; Peterson y Beach, 1967; Piaget e Inhelder, 1975). También


entra en conflicto
El sesgo de la economía conductual 307

con la visión de los científicos cognitivos contemporáneos de los procesos


cognitivos conscientes y no conscientes de las personas como en gran medida
coherentes con la estadística bayesiana (por ejemplo, Anderson, 1990; Chater
et al., 2006) y con la investigación neurocientífica que habla del cerebro
bayesiano (por ejemplo, Friston, 2010). Sin embargo, el mensaje del sesgo dio
forma por sí solo al campo emergente de la economía conductual.
Según Conlisk (1996), las personas
mostrar intransitividad; malinterpretar la independencia
estadística; tomar erróneamente datos aleatorios por datos con
patrón y viceversa; no apreciar los efectos de la ley de los grandes
números; no reconocer la dominancia estadística; cometer errores
al actualizar las probabilidades sobre la base de nueva
información; subestimar la importancia de tamaños de muestra
dados; no comprender la covariación ni siquiera en las tablas de
continencia 2X2 más sencillas; hacer inferencias falsas sobre
causalidad; ignorar información relevante; utilizar información
irrelevante (como en las falacias de los costes hundidos); exagerar
la importancia de las pruebas vívidas sobre las pálidas; exagerar la
importancia de los predictores falibles; exagerar la probabilidad ex
ante de un suceso aleatorio que ya se ha producido; mostrar un
exceso de confianza en el juicio en relación con las pruebas;
exagerar las pruebas de con- firmación sobre las de
desconfirmación en relación con las creencias iniciales; dar
respuestas muy sensibles a cambios lógicamente irrelevantes en
las preguntas; realizan pruebas redundantes y ambiguas para
confirmar una hipótesis a expensas de pruebas decisivas para
desconfirmarla; cometen errores frecuentes en tareas de
razonamiento deductivo como silogismos; valoran más una
oportunidad si un experimentador la configura como la
oportunidad del "statu quo"; no descuentan el futuro de forma
consistente; no ajustan las elecciones repetidas para acomodar las
conexiones intertemporales; y más (p. 670). 670).
El argumento no es que la gente a veces cometa errores, tenga
ilusiones o carezca de formación en pensamiento estadístico; eso no sería
nada nuevo. Más bien se da a entender que estos sesgos están arraigados
en nuestros cerebros como ilusiones visuales cableadas, de modo que
prácticamente todo el mundo se equivoca de la misma manera
sistemática. Según Thaler (1991), "las ilusiones mentales deberían
considerarse la regla y no la excepción" (p. 4).
Un sesgo es una discrepancia sistemática entre el juicio (medio) de una
persona o un grupo y un valor o norma verdaderos. La mayoría de los sesgos
de esta lista se definen como desviaciones de los principios estadísticos. No se
trata de que la gente cometa errores -todos los cometemos-, sino de si esos
principios estadísticos o lógicos son realmente normas de comportamiento
sensatas, lo que calificaría las desviaciones de ilusiones mentales. Como sabe
todo estadístico en activo, un principio estadístico no se considera
308 Gerd Gigerenzer

automáticamente una norma general para todas las situaciones, sino que es
necesario un análisis minucioso del problema en cuestión y de los supuestos
en los que se basa. Aquí radica el problema denominado "sesgo de
parcialidad" (Gigerenzer, 2016a).
El sesgo de la economía conductual 309

Sesgo de parcialidad: La tendencia a ver sesgos sistemáticos en el


comportamiento incluso cuando sólo hay errores no sistemáticos o
ningún error verificable en absoluto.

Pero, ¿por qué mostrarían los investigadores un sesgo de parcialidad? Uno


de los motivos es una agenda académica para cuestionar la razonabilidad de
las personas. A diferencia de la visión de Simon, la economía conductual al
estilo de Kahneman y Thaler definió su agenda como la revelación de
desviaciones de la teoría de la elección racional; sin estas desviaciones
perdería su razón de ser. Un segundo motivo posible es una agenda comercial
para desacreditar el juicio de los jurados, como ilustra el vertido de petróleo
del Exxon Valdez en Alaska. En 1994, un jurado federal de Alaska concedió
5.300 millones de dólares a los pescadores y otras personas cuyos medios de
vida habían sido devastados por el vertido. Exxon financió discretamente una
nueva línea de investigación mediante estudios con jurados simulados que
cuestionaban las capacidades cognitivas de los jurados. Basándose en los
resultados, Exxon argumentó en un recurso "que los jurados son generalmente
incapaces de realizar las tareas que la ley les asigna en los casos de daños
punitivos" (Zarembo, 2003). Este argumento le sirvió a Exxon en los tribunales.
Un tercer motivo posible -o, más probablemente, una consecuencia no
deseada- es fomentar la confianza en la lógica abstracta, los algoritmos y los
análisis predictivos y desconfiar de la intuición y la experiencia humanas. Por
ejemplo, el algoritmo COMPAS se ha utilizado en los tribunales
estadounidenses para predecir la probabilidad de reincidencia de más de un
millón de acusados, influyendo en las decisiones previas al juicio, de libertad
condicional y de imposición de penas. Aparentemente, el algoritmo
permaneció incuestionable durante casi dos décadas hasta que un estudio
reveló que COMPAS no predecía mejor que la gente común sin ninguna
experiencia con la reincidencia y, para colmo, tenía un sesgo racial (Dressel y
Farid, 2018). En la sobrecubierta de su biografía sobre Kahneman y Tversky,
Lewis (2017) afirma que ellos "son más responsables que nadie de la poderosa
tendencia a desconfiar de la intuición humana y aferrarse a los algoritmos."

1.2 Obstinación e ilusiones visuales

En contraste con los informes de los economistas experimentales de que las


personas aprenden a tomar mejores decisiones con el tiempo (Binmore, 2009;
Smith, 2007), muchos economistas conductuales son más pesimistas. Se dice que
los sesgos exhiben una "obstinada persistencia" (Tversky y Kahneman, 1983, p.
300), que se atribuye a un "Sistema 1" biológicamente antiguo que "no es
fácilmente educable" (Kahneman, 2011, p. 417), de modo que "nuestra capacidad
para desprejuiciar a las personas es bastante limitada" (Thaler, citado en Bond,
2009, p. 1191). La retórica es que "no solo somos irracionales, sino
predeciblemente irracionales" (Ariely, 2008, p. xviii).
De nuevo, no se trata de que la gente cometa errores, como cuando los
angloparlantes nativos cometen errores gramaticales en francés, o los
310 Gerd Gigerenzer

estudiantes sin formación en cálculo intentan resolver problemas de cálculo.


Eso apenas habría llamado la atención y habría servido de base a la economía
conductual. La afirmación es que los sesgos están firmemente arraigados en
nuestro cerebro.
El sesgo de la economía conductual 311

Ilusiones visuales

A modo de sugerencia, artículos y libros presentan los sesgos junto con


imágenes de ilusiones visuales, dando a entender que los sesgos (a menudo
llamados "ilusiones cognitivas") son igualmente estables e inevitables. Si
nuestro sistema cognitivo comete errores tan grandes como nuestro sistema
visual, ¿qué se puede esperar de las decisiones cotidianas y empresariales?
Sin embargo, esta analogía es engañosa, y en dos aspectos.
En primer lugar, las ilusiones visuales no son un signo de irracionalidad, sino un
subproducto de un cerebro inteligente que hace "inferencias inconscientes" -
término acuñado por Hermann von Helmholtz- de imágenes retinianas
bidimensionales a un mundo tridimensional. En palabras de Kandel (2012), "de
hecho, si el cerebro dependiera únicamente de la información que recibe de los
ojos, la visión sería imposible" (p. 203). Consideremos la fascinante ilusión de las
dos tablas de Roger Shepard, que Thaler y Sunstein (2008) presentan como "la
idea clave que los economistas conductuales han tomado prestada de los
psicólogos", a saber, que nuestro juicio está "sesgado, y de forma predecible" (p.
20). Sin embargo, Shepard y otros psicólogos que estudian las ilusiones visuales no
han llegado a esa conclusión; consideran que nuestro sistema visual es una
maravilla de inteligencia inconsciente que consigue inferir objetos
tridimensionales (en este caso, mesas) a partir de una imagen bidimensional en la
retina. Dado que cualquier proyección bidimensional es coherente con realidades
tridimensionales infinitamente distintas, es sorprendente lo poco que nos
equivocamos. En palabras de Shepard (1990), "engañar a un sistema visual que
tiene una visión binocular completa y libremente móvil de una escena bien
iluminada es casi imposible" (p. 122). Así, en psicología, el sistema visual se
considera más un genio que un tonto a la hora de hacer inferencias inteligentes, e
inferencias, después de todo, necesarias para dar sentido a las imágenes de la
retina. En segundo lugar, la analogía con las ilusiones visuales sugiere que las
personas no pueden aprender, concretamente que la educación en razonamiento
estadístico es poco eficaz (Bond, 2009). Esto es incorrecto, como puede
demostrarse con uno de los elementos más importantes
en la lista de Conlisk: cometer errores al actualizar las probabilidades.

El razonamiento bayesiano puede enseñarse en 2 horas

Consideremos la afirmación de que las personas no hacen previsiones


coherentes con la regla de Bayes: la mente humana "no es bayesiana en
absoluto" (Kahneman y Tversky, 1972, p. 450; véase también Kahneman, 2011,
pp. 146-155). Esta afirmación es correcta si las personas no tienen formación
estadística y reciben la información pertinente en forma de probabilidades
condicionales. Pero surge otra imagen si las personas reciben una breve
formación y aprenden a utilizar representaciones adecuadas. Para ilustrarlo,
intente resolver este problema sin ayuda de una calculadora.

Probabilidades condicionales:
Una enfermedad tiene una tasa de base de 0,1, y se realiza una
312 Gerd Gigerenzer

prueba que tiene una tasa de acierto de 0,9 (la probabilidad


condicional de una prueba positiva dada
El sesgo de la economía conductual 313

enfermedad) y una tasa de falsos positivos de 0,1 (la probabilidad


condicional de un resultado positivo en ausencia de enfermedad).
¿Cuál es la probabilidad de que una persona al azar con un
resultado positivo tenga realmente la enfermedad?

Existen pruebas experimentales fiables de que la mayoría de la gente no


puede encontrar la probabilidad posterior bayesiana, que sería
(,1×,9)/[(,1×,9)+(,9×,1)] = 0,5. Sin embargo, cuando las personas pueden
aprender de la experiencia en su lugar, los informes de investigación
que las personas son bayesianos aproximados (por ejemplo, Edwards, 1968).
Sobre la base de este resultado, se puede presentar la información como el
recuento de frecuencias experimentadas, conocidas como frecuencias naturales
(porque las frecuencias experimentadas no se normalizan como las
probabilidades condicionales o las frecuencias relativas):

Frecuencias naturales:

De cada 100 personas, se espera que 10 padezcan una enfermedad.


De esas 10, se espera que nueve den correctamente positivo. De las
90 personas que no tienen la enfermedad, se espera que nueve den
falso positivo. ¿Qué proporción de los que dan positivo tienen
realmente la enfermedad?

Ahora es más fácil ver cuál es la respuesta: 9/(9 + 9) = 1 de 2. La razón


teórica es que las frecuencias naturales facilitan los cálculos bayesianos. Desde
la primera demostración del efecto disuasorio de las frecuencias naturales
(Gigerenzer y Hoffrage, 1995, 1999; Hoffrage et al., 2000), muchos estudios
han documentado este efecto tanto entre legos como entre expertos. Por
ejemplo, sólo el 21% de 160 ginecólogos pudieron inferir correctamente la
probabilidad posterior de que una mujer tuviera cáncer de mama tras una
mamografía de cribado positiva cuando la información se daba en
probabilidades condicionales. Esta cifra aumentó al 87% después de que los
ginecólogos recibieran formación sobre cómo traducir las probabilidades
condicionales en frecuencias naturales (Gigerenzer et al., 2007). Un efecto
similar de la enseñanza, en el que el porcentaje de los que hacían inferencias
correctas aumentó del 23% al 88%, se observó entre estudiantes de medicina
de último curso (Jenny et al., 2018). Cuando se impartió a estudiantes
universitarios un curso de 2 horas sobre frecuencias naturales, el número de
inferencias bayesianas correctas aumentó del 10 % al 90 %; lo que es más
importante, esta tasa del 90 % se mantuvo 3 meses después de la formación
(Sedlmeier y Gigerenzer, 2001). Los metaanálisis también han documentado el
efecto de "de-biasing", y las frecuencias naturales son ahora un término técnico
en la medicina basada en la evidencia (Aki et al., 2011; McDowell y Jacobs,
2017). Estos resultados son coherentes con una larga literatura sobre técnicas
para enseñar con éxito el razonamiento estadístico (por ejemplo, Fong et al.,
1986). En resumen, los seres humanos pueden aprender rápidamente la
inferencia bayesiana si la información se presenta en frecuencias naturales.
314 Gerd Gigerenzer

1.3 Falta de pruebas de los costes

El argumento de que los sesgos son costosos es esencial para justificar el


paternalismo gubernamental. El argumento de la irracionalidad proporciona
una retórica conveniente para atribuir los problemas causados por incentivos
defectuosos y fallos del sistema a defectos internos de la mente de las
personas, restando importancia a las causas políticas e industriales (por
ejemplo, Conley, 2013; Thaler, 2015; Thaler y Sunstein, 2008). La adicción a la
nicotina y la obesidad se han atribuido a la miopía y la ceguera probabilística
de las personas, no a las acciones de la industria alimentaria y tabacalera. Del
mismo modo, un artículo del Deutsche Bank Research "Homo economicus - ¿o
más bien Homer Simpson?" atribuyó la crisis financiera a una lista de 17 sesgos
cognitivos y no a las prácticas imprudentes y la excesiva fragilidad de los
bancos y el sistema financiero (Schneider, 2010).
La afirmación de que los prejuicios generan costes sustanciales se basa a
menudo en pruebas anecdóticas. Sin duda, debe haber pruebas contundentes
de esta importante hipótesis. Arkes et al. (2016) buscaron tales pruebas en
artículos que demostraban sesgos. En más de 100 estudios sobre violaciones de
la transitividad, la búsqueda no encontró ni uno solo que demostrara que una
persona pudiera convertirse en una bomba de dinero, es decir, ser explotada
continuamente debido a elecciones intransitivas. En más de 1.000 estudios que
identificaron inversiones de preferencias, el arbitraje o la retroalimentación
financiera hicieron desaparecer en gran medida las inversiones de preferencias
y sus costes. Del mismo modo, en cientos de estudios sobre el Problema de la
Enfermedad Asiática y otros efectos del encuadre, se encontraron pocas
pruebas de que la atención "irracional" al encuadre fuera costosa. En general,
apenas se encontraron pruebas de que las infracciones de estas y otras reglas
lógicas estén asociadas o causalmente relacionadas con menos ingresos, peor
salud, menor felicidad, creencias inexactas, vidas más cortas o cualquier otro
coste mensurable. Sin embargo, esta sorprendente ausencia sugiere que la
creciente lista de falacias aparentes incluye numerosos "fantasmas lógicos",
como dijo la psicóloga Lola Lopes. Hay dos formas de entender este resultado
negativo. Una razón es el sesgo de parcialidad, es decir, que muchos de los
supuestos sesgos no son sesgos en primer lugar. La segunda razón ya se ha
mencionado anteriormente: Los sesgos suelen definirse como desviaciones de
los juicios de las personas respecto a una regla lógica o estadística en algún
entorno de laboratorio y, por tanto, pueden tener poco que ver con la salud
real,
riqueza o felicidad.

1.4 Menos paternalismo y más ciudadanos conscientes del riesgo

El análisis anterior demostró que los tres supuestos del argumento que lleva
de los prejuicios al paternalismo gubernamental se basan en pruebas
cuestionables. Además, las desviaciones sistemáticas de la elección racional
pueden aumentar o disminuir la justificación del paternalismo por parte de los
responsables políticos, dependiendo de los supuestos específicos que se
El sesgo de la economía conductual 315

hagan; concretamente, las consecuencias agregadas de


316 Gerd Gigerenzer

Las salidas individuales pueden ser Pareto-inferiores o superiores (Berg y


Gigerenzer, 2007).
La alternativa al paternalismo es invertir en los ciudadanos para que
puedan alcanzar sus propios objetivos en lugar de ser pastoreados como
ovejas. Immanuel Kant (1784) instó a las personas a utilizar sus propias mentes
sin dirección ni coacción externas, lo que es igualmente importante hoy en día,
donde la combinación del nudging con la tecnología de big data ofrece
oportunidades para el "Big Nudging", es decir, la manipulación masiva de los
objetivos y preferencias de las personas utilizando grandes cantidades de
datos (Helbing et al., 2017). Para ello, es necesario tomar medidas para
perfeccionar las habilidades del público en general a la hora de hacer frente a
los riesgos y tomar decisiones, por ejemplo, enseñando técnicas como las
frecuencias naturales (véase más arriba) y la heurística de toma de decisiones
eficaces a legos y expertos en materias como la salud, las finanzas y los medios
digitales (Gigerenzer, 2014). La unidad de ciencias del comportamiento de la
cancillería alemana aplica este enfoque con éxito desde 2015
(Bundesregierung [Gobierno Federal de Alemania], 2018). Su objetivo es
"impulsar" en lugar de "empujar" (Hertwig y Grüne-Yanoff, 2017).
En la segunda parte de este artículo, aporto pruebas de la parcialidad del
sesgo. Utilizo varios sesgos que han alcanzado el estatus de tópicos para
ilustrar el punto general. Una vez más, el mensaje no es que las personas no
cometan errores, sino que los investigadores deben ser más cuidadosos a la
hora de atribuir sesgos sistemáticos a las personas.

2 Parte II: Casos prácticos sobre el sesgo sesgo

No hay espacio aquí para cubrir todos los elementos de la lista de Conlisk, por
no hablar de los aproximadamente 175 sesgos enumerados en Wikipedia. En
su lugar, me centraré en las intuiciones sobre la aleatoriedad, la frecuencia y el
encuadre, que desempeñan un papel en varios supuestos sesgos. En concreto,
me ocuparé de tres fuentes comunes del sesgo de parcialidad:

1. Las estadísticas de muestras pequeñas se confunden con los sesgos de las


personas. Los estadísticos de las muestras pequeñas pueden diferir
sistemáticamente de los parámetros de la población. Si los
investigadores ignoran esta diferencia, confundirán los juicios correctos
sobre muestras pequeñas con sesgos sistemáticos.

2. Los errores no sistemáticos se confunden con sesgos sistemáticos. Un


sesgo es un error sistemático, no asistemático.

3. Los marcos lógicamente equivalentes se confunden con los


informativamente equivalentes. Prestar atención a cómo se enmarca un
mensaje no es un error lógico, sino una característica esencial de la
inteligencia humana.

Por ejemplo, el punto 1 es relevante para evaluar críticamente la


El sesgo de la economía conductual 317

afirmación de la lista de Conlisk de que la gente "malinterpreta la independencia


estadística" y "confunde" la independencia estadística.
318 Gerd Gigerenzer

datos aleatorios por datos con patrones y viceversa", el punto 2 por la


afirmación de que la gente "muestra un exceso de confianza", y el punto 3 por
la afirmación de que la gente "utiliza información irrelevante" y "da respuestas
que son muy sensibles a cambios lógicamente irrelevantes en las preguntas".
En cada caso, el problema radica en la norma, contra la que se evalúa un juicio
como sesgo. Espero que estos análisis animen a los lectores a analizar de
forma más crítica otros sesgos.

2.1 Intuiciones de la gente sobre el azar

Numerosas investigaciones psicológicas han llegado a la conclusión de que las


personas tienen buenas intuiciones sobre el azar. Por ejemplo, los niños tienen
una comprensión bastante sólida de los procesos aleatorios, incluida la ley de
los grandes números (Piaget e Inhelder, 1975) y la producción de secuencias
aleatorias (Kareev, 1992), y los adultos son buenos estadísticos intuitivos
(Farmer et al., 2017; Peterson y Beach, 1967).
En contraste con estos hallazgos, uno de los sesgos cognitivos más
fundamentales señalados en el programa de heurísticas y sesgos es que las
intuiciones sobre el azar se apartan sistemáticamente de las leyes del azar.
Consideremos los experimentos sobre la percepción del azar en los que se
lanza varias veces una moneda y se registran los resultados de cara (H) y
cruz (T). Dos conclusiones experimentales clave son:

1. Ley de los números pequeños: La gente cree que una cadena es más
probable cuanto más se aproxime el número de caras y colas a las
probabilidades iguales subyacentes. Por ejemplo, la cadena HHHHHT se
considera más probable que HHHHHH.

2. Irregularidad: Si el número de caras y colas es el mismo en dos cadenas,


la gente piensa que la que tiene un patrón más irregular es más
probable. Por ejemplo, la cadena HHTHTH se considera más probable
que HTHTHT.

Ambos fenómenos se han denominado errores sistemáticos y a menudo se


confunden con la falacia del jugador. Pero no es así.

Ley de los números pequeños

Para simplificar la presentación, utilizaré cadenas cortas de longitud k = 3.


Si se lanza una moneda justa n veces (n ≥ k), ¿cuál de las dos cadenas
tiene más probabilidades de salir?
HHH
HHT
La mayoría de la gente piensa que la HHT es más probable, como se ha
documentado tanto en tareas de reconocimiento (como la anterior) como en
tareas de producción (en las que se pide a la gente que produzca cadenas
aleatorias; Hahn, 2014). Esta intuición se ha considerado una falacia
El sesgo de la economía conductual 319

H H H H H H H H T T T T T T T T
H H H H T T T T H H H H T T T T
H H T T H H T T H H T T H H T T
H T H T H T H T H T H T H T H T
✓ ✓+ + + - - - - ✓ + - - - - - -

Figura 1: Si la longitud de la cadena k es menor que la de la secuencia observada n, es


menos probable encontrar una cadena pura de cabezas (H) que una con una alternancia.
Esto se muestra aquí para el caso de k = 3 y n = 4. Hay 16 secuencias posibles de cuatro
lanzamientos
de una moneda justa, cada una igualmente probable. En tres de ellas, hay al menos una cadena
HHH ("check
marca"), mientras que la HHT se da en cuatro de ellas ("cruz"). En esta situación, las
intuiciones de las personas son correctas (Hahn y Warren, 2009).

porque se dice que cada una de las dos cadenas tiene la misma probabilidad
de ocurrir. El supuesto sesgo se explicaba por la creencia de la gente en la "ley
de los números pequeños", que significa que la gente espera que la misma
probabilidad de H y T se mantenga también en muestras pequeñas: HHT es
más "representativa" que HHH (Kahneman y Tversky, 1972). La creencia en la
ley de los números pequeños se ha considerado un ejemplo clave de cómo las
personas se apartan de la racionalidad perfecta, planteando un desafío radical
a la teoría económica neoclásica (Rabin, 1998), y se modeló como confundir
una urna con reemplazo con una con reemplazo limitado (Rabin, 2002). Rabin y
Vayanos (2010) llegaron a la conclusión de que la gente "considera que la
aleatoriedad en el lanzamiento de una moneda corresponde a una tasa de
cambio del 60% en lugar del 50%" (p. 735), lo que corresponde a
malinterpretar la independencia estadística en la lista de Conlisk. Sea cual sea
la explicación, el supuesto sesgo demuestra "terquedad", es decir, que las
personas muestran poca perspicacia y no logran superarla: "Para cualquiera
que desee ver al hombre como un estadístico intuitivo razonable, tales
resultados son desalentadores" (Kahneman y Tversky, 1972, p. 445).

Veámoslo más de cerca. Consideremos un experimento sencillo:


Juan coge una moneda y la lanza cuatro veces seguidas. Es más
probable que Juan se encuentre con una serie de HHH o de HHT?

Ambos parecen igualmente probables. Sin embargo, sorprendentemente,


la respuesta es que la HHT es más probable. Más concretamente, la frecuencia
relativa de
al menos una HHT es 4/16 = 0,25 y la de HHH es 3/16 = 0,19. En la figura
1 se muestran las 16 secuencias posibles; todas son igual de probables. En
cuatro de 16 secuencias posibles, Juan encontrará al menos un HHT, y en tres
secuencias, Juan encontrará al menos un HHH. La razón es que la probabilidad
empírica en una muestra pequeña no es la misma que la probabilidad real.
Otra forma de entender el resultado es que dos cadenas de HHH se solapan en
la primera columna de la Figura 1, mientras que no se producen solapamientos
de este tipo (o ni siquiera son posibles) para HHT. Por tanto, la intuición de la
gente de que es más probable encontrar un HHT que un HHH en una secuencia
320 Gerd Gigerenzer

de cuatro tiradas es correcta.


El sesgo de la economía conductual 321

Consideremos ahora el caso general. Sea k la longitud de la cadena de


caras y colas juzgadas (que es tres en el ejemplo anterior), y n la secuencia
total (número de lanzamientos) observada (k ≤ n). Si k = n = 3, hay ocho
resultados posibles, todos igualmente probables, y uno de ellos contiene HHH y
otro
HHT; por lo tanto, ambas tienen la misma probabilidad de encontrarse. En
esta situación, la intuición de que HHT es más probable sería una falacia.
Sin embargo, si k < n, esa misma intuición es correcta. Del mismo modo, se
puede demostrar que es probable que HHT se encuentre antes que HHH: el
tiempo de espera esperado para HHT es de ocho lanzamientos de una
moneda, frente a 14 lanzamientos para HHH (Hahn y Warren, 2009).
Ahora podemos especificar el principio general según el cual la intuición de las
personas es
ecológicamente racional :

Si k < n < ∞, es más probable encontrar una cadena de H con


una sola alternancia como HHT que una cadena pura como
HHH.

El calificativo ecológicamente significa que las afirmaciones sobre la


racionalidad de los juicios deben matizarse con respecto a las condiciones
ecológicas: aquí, el tamaño k de la cadena y el tamaño n de la secuencia. En
resumen, la intuición de que es más probable encontrar HHT que HHH no
es generalmente un error lógico, sino ecológicamente racional si k < n <
∞. La condición k < n se cumple cuando una persona ha visto más pruebas
que la cadena corta en cuestión, y la condición n < ∞ es siempre cierta
para los mortales. En otras palabras, el principio ecológico establece sólo
dos excepciones en las que la "creencia en la ley del pequeño
números" puede calificarse de falacia: si k = n y si la ventana de observaciones
es infinita (lo cual es imposible para un ser mortal).
Si aún no estás convencido, prueba esta apuesta (Hahn y Warren, 2010),
que llamaré la apuesta de la ley de los números pequeños:

Lanza una moneda al aire 20 veces. Si esta secuencia contiene al


menos un HHHH, te pago 100 $. Si contiene al menos un HHHT,
me pagas 100 $. Si no contiene ninguna de las dos, nadie gana.

Si HHHH y HHHT tuvieran las mismas probabilidades de salir, los dos


jugadores saldrían ganando. Pero, de hecho, la persona que acepta la apuesta
puede esperar perder a largo plazo. Si observa 20 tiradas, la probabilidad de
que vea al menos una HHHH es de aproximadamente el 50%, pero la
probabilidad de una HHHT es de alrededor del 75% (Hahn y Warren, 2009).
Por la misma razón, un jugador que observa los resultados de la ruleta en un
casino durante media hora tiene más probabilidades de ver una serie de tres
rojos seguida de un negro que una serie de cuatro rojos. En esta situación,
creer en la ley de los números pequeños es rentable.
El fenómeno de que la gente espera más alternancias de las que predice la
teoría de la probabilidad se ha relacionado a veces con la falacia del jugador.
Sin embargo, esa suposición es errónea, como puede deducirse de la
322 Gerd Gigerenzer

racionalidad ecológica
El sesgo de la economía conductual 323

condición. La falacia del jugador se refiere a la intuición de que después de


presenciar una serie de, digamos, tres caras, uno espera que el siguiente
resultado sea más probablemente cruz que cara. Se trataría de una falacia
verdadera porque corresponde a
la condición k = n. En otras palabras, se considera un total de cuatro
lanzamientos, ya sean HHHH o HHHT, y no hay ninguna muestra k con la
propiedad k < n.

Irregularidad

El segundo supuesto concepto erróneo sobre el azar es que la gente cree que
las secuencias irregulares son más probables. Consideremos las dos
secuencias siguientes:
HTHTHT
HTTHTH
¿Qué secuencia es más probable encontrar? El número de caras y de
colas es idéntico, pero las alternancias son regulares en la primera cadena
e irregulares en la segunda. Las investigaciones psicológicas documentan que la
mayoría de la gente considera más probable la cadena más irregular. Según
Kahneman y Tversky (1972), entre todas las cadenas posibles de longitud seis,
"nos aventuramos a decir que sólo HTTHTH parece realmente aleatoria" (p.
436).
Una vez más, esta intuición fue declarada generalmente una falacia, por la
misma razón que antes: Se supone que todas las secuencias tienen la misma
probabilidad. Sin embargo, el mismo análisis ecológico demuestra que si k < n
< ∞, entonces la secuencia HTTHTH es en realidad más probable que la
normal. Por ejemplo, si Juan lanza una moneda justa, el tiempo de espera
esperado para obtener una HTTHTH es de 64 lanzamientos, mientras que es
de 84 para HTHTHT (y de 126 para HHHHHH; véase Hahn y Warren, 2009).
Esto puede comprobarse del mismo modo que con la tabla anterior.
En resumen, bajo la condición ecológica, la creencia de la gente de que las
alternativas irregulares son más probables o más rápidas de encontrar refleja
una sensibilidad asombrosamente afinada a las estadísticas de muestras
finitas. La creencia es errónea sólo en los casos en los que no se cumple la
condición.

La intuición afinada se confunde con la parcialidad

En resumen, las intuiciones de las personas sobre el azar se han interpretado


como sistemáticamente defectuosas porque (i) son presa de la ley de los
números pequeños y
(ii) confunden irregularidad con azar, tanto en el reconocimiento como en la
producción de aleatoriedad. En cambio, un análisis ecológico demuestra que si
k < n < ∞, que es la ventana típica de la experiencia, las intuiciones de la gente
son de hecho correctas. La intuición general es que las propiedades del
proceso de azar subyacente (como la igualdad de probabilidades) no coinciden
con las propiedades de las muestras pequeñas, un fenómeno conocido como
324 Gerd Gigerenzer

estimadores muestrales sesgados en estadística. En otras palabras, las


intuiciones de la gente se evaluaron con arreglo a una norma equivocada, que
no refleja las propiedades de las muestras.
El sesgo de la economía conductual 325

En las diversas justificaciones de por qué la gente comete la falacia del


jugador, la condición k < n < ∞ parece haber sido pasada por alto en la literatura
sobre el sesgo. En la siguiente sección, veremos que el mismo descuido se aplica a
la falacia de la mano caliente, la imagen especular de la falacia del jugador.

2.2 Intuiciones profesionales sobre el azar: La falacia de la mano


caliente

La mayoría de los aficionados al baloncesto pueden recordar momentos mágicos


en los que un jugador está "on fire", "in the zone", "in rhythm" o "unconscious".
Este rendimiento temporalmente elevado se conoce como "mano caliente". Para
jugadores y entrenadores, la mano caliente es una experiencia común. Sin
embargo, Gilovich et al. (1985) consideraron esta intuición una ilusión cognitiva y
la denominaron falacia de la mano caliente. Incluso la página web de la
National Collegiate Athletic Association (NCAA) advirtió en una ocasión de
la necesidad de creer en la magia: "Las rachas y las 'manos calientes' son
simplemente ilusiones en el deporte. Y es mejor ser científico que regirse
por supersticiones irracionales".
Los entrenadores y los jugadores reaccionaron con una obstinada
incredulidad, que algunos economistas conductuales consideraron un indicio
de que la falacia de la mano caliente se asemeja a una sólida ilusión visual.
Thaler y Sunstein (2008) afirmaron "que la ilusión cognitiva es tan poderosa
que la mayoría de las personas (influidas por su sistema automático) no están
dispuestas siquiera a considerar la posibilidad de que sus creencias más
arraigadas puedan estar equivocadas" (p. 31). Al igual que la falacia del
jugador, la falacia de la mano caliente fue atribuida a la "representatividad" y
formalizada por Rabin y Vayanos (2010). Ha servido para explicar diversos
vicios y comportamientos en los mercados financieros, las apuestas deportivas
y los juegos de casino.
Es de suponer que los entrenadores y jugadores profesionales no tienen
incentivos para equivocarse, sólo para acertar. Entonces, ¿por qué existe y
persiste esta creencia errónea? La respuesta es la misma que en el caso de las
intuiciones sobre el azar.
Gilovich et al. (1985) se preocuparon de recopilar múltiples fuentes de
datos y expusieron sus argumentos más sólidos contra la mano caliente
observando los tiros libres, en los que el otro equipo no puede reducir
estratégicamente el número de aciertos de un jugador "caliente" mediante la
intervención física (Raab et al., 2012). Veintiséis tiradores de Cornell realizaron
100 tiros libres cada uno desde una distancia fija con ubicaciones variables. Los
autores argumentaron que si no hay mano caliente (la hipótesis nula),
entonces la frecuencia de un acierto después de tres aciertos debería ser la
misma que la de un fallo después de tres aciertos. Y eso es exactamente lo que
observaron en todos los jugadores menos en uno: era de esperar que esta
excepción se produjera por casualidad. Por lo tanto, su conclusión fue que la
mano caliente no existe.
Veamos ahora más de cerca la hipótesis nula del azar. Para abreviar,
utilizo el análisis de la falacia del jugador de Hahn y Warren (2009) como
analogía, mientras que el análisis original de la mano caliente de Miller y
326 Gerd Gigerenzer

Sanjuro (de próxima publicación) y Miller y Sanjuro (2016) fue en términos


de sesgo de selección. Si no hay mano caliente, la frecuencia de acierto
después de tres aciertos no debería ser igual, sino en realidad menor, y por
la razón que acabamos de comentar. De nuevo
El sesgo de la economía conductual 327

estamos tratando con k = 4 (la longitud de la cuerda) y n = 100; es decir,


se cumple la condición ecológica k < n < ∞. En la figura 1 se puede ilustrar
este punto sustituyendo la moneda de feria por un jugador que dispara a
distancia
donde hay una probabilidad de 0,50 de acertar y sustituyendo la racha de cuatro
en el experimento de tiro libre por una racha de tres. En esta situación, ¿es más
probable acertar o fallar después de dos aciertos?
Si un jugador realiza n = 4 tiros libres, existen 16 secuencias con las
mismas probabilidades. En ausencia de una mano caliente, observamos un
fallo (T) después de dos
aciertos (H) en cuatro de estas secuencias y un acierto después de dos aciertos
en sólo tres secuencias. Por tanto, la hipótesis nula de Gilovich et al. de que la
frecuencia relativa esperada de aciertos y fallos tras una racha de aciertos
debería ser la misma no es correcta en una muestra pequeña. La hipótesis nula
correcta es que después de una racha de HH, H tiene una proporción esperada
de aproximadamente .42, no .50 (Miller y San- juro, de próxima publicación).
Dado que HHH debería observarse con menos frecuencia, encontrar una
frecuencia relativa de .50 en lugar de .42 indica en realidad una mano caliente.
En un nuevo análisis de los datos originales, un número considerable de
tiradores mostraron un patrón consistente con la mano caliente (Miller y
Sanjuro, de próxima publicación). En todos los jugadores, la mano caliente
aumentó el rendimiento en 11 puntos porcentuales, lo que es sustancial y
aproximadamente igual a la diferencia en el porcentaje de tiros de campo
entre el tirador medio y el mejor tirador de tres puntos de la NBA.
Muchos se han quedado perplejos acerca de la relación entre la falacia del
jugador y la falacia de la mano caliente, dado que se refieren a fenómenos
contrarios, un sesgo negativo de recencia y un sesgo positivo de recencia (Rabin y
Vayanos, 2010). Ambos se han atribuido a los sospechosos habituales, el heurístico
de representatividad o el Sistema asociativo 1. El presente análisis muestra un
vínculo bastante diferente: Ambos son consecuencia del mismo sesgo
h e u r í s t i c o . Los entrenadores y los jugadores tienen buenas razones para
mantener su creencia en la mano caliente.

2.3 Frecuencias: ¿Sobreestimación de los riesgos bajos e


infraestimación de los riesgos grandes?

La frecuencia es uno de los pocos atributos de los objetos que parecen


codificarse automáticamente (otros son la ubicación espacial, la información
temporal y el significado de las palabras; véanse Hasher y Zacks, 1984;
Barsalou, 1992). Por ejemplo, los bebés de 8 meses aprenden el lenguaje a
partir de las relaciones estadísticas entre sonidos vecinos (Saffran et al., 1996).
La codificación de frecuencias parece ser un proceso fundamental en el
aprendizaje y la codificación de información; un metaanálisis de 26 estudios
con 4.570 participantes informó de una correlación de Pearson media de
.73 entre las estimaciones de frecuencia y las frecuencias reales en muchas
variables, como palabras, imágenes, acontecimientos y letras (Kane y Woehr,
2006). Como señalaron Jonides y Jones (1992) en su resumen de la literatura
psicológica, "Pregunte sobre los números relativos de muchos tipos de
328 Gerd Gigerenzer

eventos, y es probable que...".


El sesgo de la economía conductual 329

1,000,000

TODOS LOS ACCIDENTES


TODAS LAS
100,000
Número estimado de muertes al año

ENFERMEDA
DES
MOTOR VEH. ACC.
TODO CÁNCER
10,000 HOMICIDI STROKE
ENFERMEDADES DEL
O
CORAZÓN DE
CÁNCER
EMBARAZO ESTÓMAGO
DIABETES
INUND TB
1,000 ACIÓN ELECTROCUCIÓ
BOTULISM
TORNADO
O N POR ASMA

100
VACUNACIÓN CONTRA LA
VIRUELA
10

1
1 10 100 1,000 10,000 100,000 1,000,000

Número real de muertes al año

Figura 2: Relación entre el número estimado y real de muertes al año por 41 causas de
muerte en Estados Unidos (Lichtenstein et al., 1978). Cada punto es la estimación media
(media geométrica) de 39 estudiantes; las barras verticales muestran la variabilidad (percentil
25 y 75) en torno a las estimaciones medias para el botulismo, la diabetes y todos los
accidentes. La línea curva es la línea de regresión cuadrática que mejor se ajusta. Este patrón
se ha interpretado (erróneamente) como prueba de la sobreestimación de los riesgos bajos y
la subestimación de los riesgos altos. (Adaptado de Slovic et al., 1982).

obtener respuestas que reflejen con gran fidelidad las frecuencias relativas reales
de los acontecimientos" (p. 368).
Frente a estas pruebas, la afirmación de que las personas muestran sesgos
sistemáticos a la hora de evaluar la frecuencia de los sucesos resulta
sorprendente. En un estudio clásico, se pidió a 39 estudiantes universitarios que
estimaran la frecuencia de 41 causas de muerte en Estados Unidos, como el
botulismo, el tornado y la apoplejía (Lichtenstein et al., 1978; Slovic et al., 1982).
Se interpretó que el resultado (Figura 2) mostraba dos sesgos sistemáticos en la
mente de las personas: "En general, se sobrestimaban las causas de muerte raras y
se subestimaban las causas de muerte comunes" (p. 467).
¿Por qué la gente sobrevalora los riesgos bajos y subestima los altos? Slovic
et al. (1982) argumentaron que "una implicación importante de la heurística
de la disponibilidad es que la discusión de un peligro de baja probabilidad
puede aumentar su memorabilidad e imaginabilidad y, por tanto, su
percepción del riesgo" (p. 456). Kahneman (2011, p. 324) se refirió al sistema
asociativo 1. Los dos sesgos corresponden a la función de ponderación en la
teoría de las perspectivas y se citaron ampliamente como la razón por la que el
público carece de competencia en las decisiones políticas: La gente exagera los
peligros de la tecnología de bajo riesgo, como las centrales nucleares, y
subestima los peligros de los riesgos de alta frecuencia.
330 Gerd Gigerenzer

Veamos ahora más de cerca cómo se diagnosticaron estos sesgos. Slovic et


al. (1982) explican: "Si los juicios de frecuencia fueran precisos, serían iguales a
los índices estadísticos, con todos los puntos de datos cayendo en la línea de
identidad". (p. 466-467). La línea de identidad se toma como hipótesis nula. Sin
embargo, eso sólo sería correcto si no hubiera ruido en los datos, lo que no es
el caso, como revelan las anchas barras verticales de la figura 2. En presencia
de ruido, es decir, de error no sistemático, la curva no es la línea de identidad,
sino una línea que se dobla más horizontalmente, un fenómeno conocido
como regresión hacia la media. Fue descubierto en la década de 1880 por el
polímata británico Sir Francis Galton, que lo llamó "reversión hacia la media".
Galton observó que los hijos de padres pequeños eran por término medio más
altos que sus padres, y los hijos de padres altos eran por término medio más
pequeños que sus padres. Si sustituimos padres e hijos por riesgos reales y
percibidos, respectivamente, el resultado se asemeja a la línea curva de la
figura 2. Sin embargo, Galton también observó que los padres de hijos
pequeños eran, por término medio, más altos que sus hijos, y los padres de
hijos altos eran, por término medio, más pequeños que sus hijos. La primera
observación sugeriría erróneamente que la variabilidad real de los hijos es
menor que la de sus padres; la segunda, lo contrario. Lo que disminuye en
presencia de ruido es la variabilidad de las estimaciones, tanto las estimaciones
de la estatura de los hijos basadas en la de sus padres, como viceversa. La
regresión hacia la media es el resultado de un error no sistemático, no
sistemático (Stigler, 1999).
Si el patrón de la Figura 2 se debe a un error no sistemático y no
sistemático, el trazado de los datos al revés, como hizo Galton, lo demostrará.
En una repetición del estudio original (Hertwig et al., 2005), cuando se
predijeron las frecuencias estimadas a partir de las frecuencias reales, como se
hizo originalmente, se repitió la misma línea de regresión que se ajustaba
mejor a los datos (Figura 3). Sin embargo, cuando las frecuencias reales se
predijeron a partir de las frecuencias estimadas, la línea de regresión mostró un
patrón inverso, sugiriendo sesgos opuestos. Por ejemplo, consideremos las
estimaciones bajas entre 10 y 100 por año en el eje Y. La frecuencia real
correspondiente en la segunda línea de regresión es más alta, entre 50 y 500
aproximadamente. Esta discrepancia hace que parezca que la gente
subestima, y no sobreestima, los riesgos bajos. Pero no es así: Las dos líneas de
regresión son consecuencia del ruido no sistemático.
Los economistas conductuales han señalado repetidamente que la gente
confunde la regresión hacia la media con los efectos reales. En este caso, ha
confundido a los propios investigadores. Milton Friedman (1992) sospechaba
que "la falacia de la regresión es la más común en el análisis estadístico de los
datos económicos" (p. 2131).
Así pues, el nuevo análisis es coherente con el resultado general de la
investigación psicológica, según el cual las personas son, por término medio,
bastante precisas a la hora de estimar frecuencias, mientras que el error no
sistemático puede ser grande.
El sesgo de la economía conductual 331

1,000,000
TODAS LAS
ENFERMEDADES

100,000 TODO CÁNCER


Número estimado de muertes al año

MOTOR VEH. ACC. ENFERMEDADES DEL


10,000 CORAZÓN

Frecuencia estimada prevista


HOMICIDI
1,000 por frecuencia real O
DIABETES
ASMA

ACC. DE TB FRÍO
100 ARMAS DE
FUEGO EXCESIVO

Frecuencia real prevista


10
por frecuencia estimada

1
1 10 100 1,000 10,000 100,000 1,000,000

Número real de muertes al año

Figura 3: Replicación del estudio de causas de muerte (Lichtenstein et al., 1978, Figura 2) por
Hertwig et al. (2005) que muestra que lo que parece ser una sobreestimación de los riesgos
bajos y una subestimación de los riesgos altos es en realidad un artefacto estadístico conocido
como regresión hacia la media. La réplica utilizó las mismas 41 causas (7 no se muestran
porque sus frecuencias eran cero en 1996-2000), 45 participantes y ningún ancla. Cuando se
predicen las frecuencias estimadas a partir de las frecuencias reales, la curva resultante (la
línea de regresión cuadrática mejor ajustada) es prácticamente idéntica a la del estudio
original (Figura 2). Sin embargo, cuando las frecuencias reales se predicen a partir de las
frecuencias estimadas, la curva resultante parece mostrar el sesgo opuesto: Los riesgos poco
frecuentes parecen estar infravalorados y los riesgos elevados, sobrevalorados. La figura
también muestra el gran error no sistemático de los datos (puntos de datos individuales).
(Adaptado con permiso de Hertwig et al., 2005).

El error asistemático se confunde con el error sistemático

El estudio clásico de Lichtenstein et al. ilustra la segunda causa de un sesgo de


parcialidad: cuando el error no sistemático se confunde con un error
sistemático. Se podría objetar que los sesgos sistemáticos en la estimación de
frecuencias se han demostrado en el ampliamente citado estudio de
frecuencia de letras (Kahneman, 2011; Tversky y Kahneman, 1973). En este
estudio, se preguntó a la gente si era más probable que la letra K (y cada una
de las otras cuatro consonantes) apareciera en la primera o en la tercera
posición de una palabra. Más personas eligieron la primera posición, lo que se
interpretó como un sesgo sistemático en la estimación de la frecuencia y se
atribuyó post hoc al heurístico de disponibilidad. Tras no encontrar ninguna
réplica de este estudio, lo repetimos con todas las consonantes (no sólo con el
conjunto de cinco seleccionado, cada una de las cuales tiene la propiedad
atípica de ser más frecuente en la tercera posición) y medimos realmente la
disponibilidad en términos de sus dos significados principales, número
332 Gerd Gigerenzer

y velocidad, es decir, por la frecuencia de palabras producidas en un tiempo


fijo y por el tiempo transcurrido hasta la primera palabra producida (Sedlmeier
et al., 1998). Ninguna de las dos medidas de disponibilidad predijo los juicios
de frecuencia reales. Por el contrario, los juicios de frecuencia altamente
correlacionados con las frecuencias reales, sólo retrocedieron hacia la media.
Por tanto, un nuevo análisis del estudio de frecuencia de letras no aporta
pruebas de los dos supuestos sesgos sistemáticos en las estimaciones de
frecuencia ni del poder predictivo de la disponibilidad.
Estos estudios ejemplifican dos deficiencias metodológicas generalizadas
en los estudios de sesgo. En primer lugar, los heurísticos (disponibilidad,
representatividad, afecto) nunca se especifican; desde los años 70, cuando se
propusieron por primera vez, siguen siendo etiquetas de sentido común que
carecen de modelos formales. En segundo lugar, la heurística se utiliza para
"explicar" un sesgo a posteriori, lo que casi siempre es posible dada la
vaguedad de la etiqueta. La alternativa es utilizar modelos formales de
heurística que puedan probarse; probar estos modelos en la predicción, no
mediante el ajuste de datos a posteriori; y probar múltiples modelos de forma
competitiva, en lugar de probar un único modelo contra el azar (Berg y
Gigerenzer, 2010; Gigerenzer et al., 2011).

2.4 Probabilidad subjetiva: El sesgo del exceso de confianza

Se dice que el exceso de confianza es quizá el hallazgo más sólido en la


psicología del juicio y la elección (DeBondt y Thaler, 1995). "Quizás el hallazgo
central de los economistas conductuales es que la mayoría de nosotros
confiamos demasiado cuando hacemos predicciones" (Silver, 2012, p. 359).
"Uno de los hallazgos más significativos e irrefutables de los psicólogos
conductuales es que la gente confía demasiado en sus juicios" (Parikh, 2009, p.
142). Discutir estas afirmaciones es difícil porque el término exceso de
confianza se refiere al menos a media docena de fenómenos diferentes sin
vínculos teóricos probados ni correlaciones empíricas (Mousavi y Gigerenzer,
2011; Olsson, 2014). Por ello, distinguiré los más destacados de estos
fenómenos numerándolos.

Exceso de confianza 1: Miscalibración

La demostración clásica del desajuste se ha hecho con preguntas de


conocimientos generales, como:

¿Qué ciudad está más al sur? Nueva York o Roma.


¿Qué grado de confianza tiene en su respuesta? 50%, 60%, 70%, 80%, 90%,
100%.
En un estudio típico, se hacen muchas preguntas de este tipo a los
participantes y, a continuación, se representa gráficamente el porcentaje
medio de respuestas correctas para cada nivel de confianza. Un resultado
típico es: Cuando la gente decía que tenía un 100% de confianza, la media de
El sesgo de la economía conductual 333

proporción de respuestas correctas era sólo del 90%; cuando decían tener un
90% de confianza, la precisión era del 80%; y así sucesivamente. Este
"desajuste" se denominó exceso de confianza (Lichtenstein et al., 1982). Sin
embargo, cuando la confianza era baja, por ejemplo del 50%, la precisión era
en realidad mayor que la confianza; este fenómeno se denominó el efecto
difícil-fácil: las preguntas difíciles provocan falta de confianza, mientras que las
preguntas fáciles provocan exceso de confianza (Gigerenzer et al., 1991).
Las curvas de descalibración resultantes son similares a las de la Figura 2, con
la confianza en el eje X (rango de 50% a 100%) y el porcentaje medio de respuestas
correctas en el eje Y. Y están sujetas al mismo argumento que las anteriores: En
presencia de ruido (los juicios cuantitativos de confianza son ruidosos), el patrón
que se ha interpretado como sesgo por exceso de confianza en realidad resulta de
un error no sistemático debido a la regresión hacia la media. Este resultado puede
mostrarse del mismo modo que en la sección anterior para la sobreestimación de
riesgos pequeños (similar a la Figura 3). Si se estiman los juicios de confianza a
partir de la proporción de respuestas correctas (en lugar de viceversa, como es
habitual), debería obtenerse el resultado inverso, que parece ser la infravaloración.
Los estudios que volvieron a analizar conjuntos de datos empíricos de esta doble
manera informaron sistemáticamente de que la regresión hacia la media explicaba
la mayor parte o la totalidad del patrón que se había atribuido al exceso de
confianza de las personas (Dawes y Mulford, 1996; Erev et al., 1994; Pfeifer, 1994).
Por ejemplo, cuando se analizaban todas las preguntas que los participantes
respondían correctamente al 100% (en lugar de analizar todas las preguntas en las
que los participantes tenían un 100% de confianza), se observaba que la media de
confianza era más baja, por ejemplo del 90%, lo que parecía una falta de confianza.
El efecto de regresión también explica el efecto difícil-fácil, es decir, por qué el
"exceso de confianza" se convierte en "falta de confianza" cuando la confianza es
baja (Juslin et al., 2000).
En resumen, los estudios sobre la "descalibración" han interpretado
erróneamente la regresión hacia la media como un exceso de confianza de la
gente, al igual que han hecho los estudios sobre la sobreestimación de los
riesgos bajos y la subestimación de los riesgos altos. No obstante, se podría
objetar que el exceso de confianza se ha documentado en otros lugares.
Consideremos entonces una segunda definición destacada de exceso de
confianza.

Exceso de confianza 2: confianza media > porcentaje correcto

El segundo significado de exceso de confianza corresponde a su definición en


la Behavioral Economics Guide 2014 : "El efecto de exceso de confianza se
observa cuando la confianza subjetiva de las personas en su propia capacidad
es mayor que su rendimiento objetivo (real). Con frecuencia se mide haciendo
que los participantes en el experi- mental respondan a preguntas de un test de
conocimientos generales" (Samson, 2014, p. 21).
Los estudios indicaron que, en todos los participantes y preguntas, la confianza
media era normalmente del orden de 10 puntos porcentuales por encima del
334 Gerd Gigerenzer

verdadero porcentaje corres- pondiente.


El sesgo de la economía conductual 335

recto. Obsérvese que no existe ninguna relación teórica conocida entre el


exceso de confianza 1 y el exceso de confianza 2. Ninguno implica lógicamente
al otro. La miscalibración puede observarse con o sin diferencia en la
confianza media y la proporción correcta. Que yo sepa, tampoco hay pruebas
empíricas de que ambos fenómenos estén correlacionados.
Se afirmaba que el exceso de confianza 2 era un sesgo estable en las personas
hasta que se demostró que había surgido de la selección de preguntas atípicas por
parte de los investigadores (Gigerenzer et al., 1991). Consideremos la pregunta de
si Nueva York o Roma están más al sur. Sabemos que la gente utiliza indicios de
probabilidad para hacer una inferencia informada. La temperatura es un indicio de
este tipo, que tiene una gran validez para predecir la latitud y sólo conduce a
errores en contadas ocasiones. Uno de esos casos es Nueva York, cuya latitud está
realmente al sur de Roma.
Gigerenzer et al. (1991) descubrieron que el uso de conjuntos
representativos (aleatorios) de preguntas en lugar de conjuntos seleccionados,
como todas las grandes ciudades de una región definida, hacía desaparecer el
exceso de confianza 2. Posteriormente, un análisis de 130 estudios demostró
la generalidad de este resultado: El exceso de confianza 2 se limitaba a los
estudios con preguntas seleccionadas, pero era prácticamente inexistente en
los estudios que utilizaban conjuntos representativos (Juslin et al., 2000).
En resumen, al utilizar selectivamente preguntas con respuestas
"sorprendentes", los investigadores han confundido las inferencias inteligentes,
modeladas por la teoría de los modelos mentales probabilísticos (Gigerenzer et al.,
1991), con el sesgo de exceso de confianza. Tanto para Exceso de Confianza 1
como para Exceso de C o n f i a n z a 2, hay pocas pruebas de que el problema esté
localizado en la mente de las personas, pero sí pruebas de un sesgo de parcialidad.
Esto puede explicar por qué la gente parece aferrarse obstinadamente a sus
juicios, por qué el debiasing no ayuda en este caso, y por qué hay una falta general
de pruebas de que el Exceso de Confianza 1 y 2 incurran en costes sustanciales en
términos de menos salud, riqueza o felicidad (Arkes et al., 2016).

Una etiqueta, muchos fenómenos

Otros fenómenos que han recibido el nombre de exceso de confianza son la


constatación de que la mayoría de las personas creen que son mejores que la
media y que la gente produce intervalos de confianza demasiado estrechos.
Ninguno de los dos es necesariamente un sesgo; primero hay que especificar
las condiciones ecológicas. Consideremos la conclusión de que la mayoría de
los conductores creen que conducen mejor que la media. Si se interpreta que
conducir mejor significa tener menos accidentes, entonces la creencia de la
mayoría de los conductores es cierta. El número de accidentes por persona
tiene una distribución sesgada, y un análisis de
Las estadísticas de accidentes de EE.UU. mostraron que alrededor del 80% de los
conductores tienen menos accidentes que la media de accidentes (Mousavi y
Gigerenzer, 2011). Se puede evitar este problema preguntando a la gente por los
percentiles, pero eso sigue dejando un segundo problema, a saber, que el estudio
336 Gerd Gigerenzer

típico no define cuál es exactamente la variable objetivo. En el caso de la


conducción, la gente puede elegir cualquier factor
El sesgo de la economía conductual 337

que consideran relevantes -conducción más segura o más rápida o sin


cansarse, o tener menos accidentes o asumir más riesgos-, produciendo el
efecto mejor que la media. Con respecto a los intervalos de confianza
estrechos, Juslin et al. (2000) y Olsson (2014) han demostrado cómo invertir el
fenómeno en la misma persona, lo que sugiere una explicación racional más
que un sesgo sistemático. Berg y Lien (2005) demostraron que el overtrading,
otro fenómeno denominado exceso de confianza, puede cambiar un equilibrio
de mercado estándar a un equilibrio Pareto-superior, con mayor liquidez y
menores costes de transacción. Por último, existe un significado funcional del
exceso de confianza. Los analistas que ganan su dinero con predicciones en su
mayoría incorrectas, como la previsión de los tipos de cambio o del mercado
de valores, más vale que tengan un exceso de confianza; de lo contrario, pocos
comprarían sus consejos.
Se necesita desesperadamente claridad conceptual.

2.5 Encuadre

La economía neoclásica suele suponer preferencias estables y un conocimiento


pleno del conjunto exhaustivo y mutuamente excluyente de estados futuros
del mundo y sus consecuencias. En este mundo de certidumbre, el encuadre
de las opciones (positivas o negativas) no debería influir en la elección. Sin
embargo, la certeza no existe en muchas decisiones importantes, como
someterse a una operación quirúrgica arriesgada o invertir en un posible solar
inmobiliario. En la incertidumbre, las preferencias no siempre están fijadas y
pedir consejo e información puede ser útil. Al enmarcar una opción, el
hablante puede comunicar información que no está contenida en el mensaje
literal, pero que el oyente inteligente es capaz de descodificar e incorporar a la
elección en consecuencia. Esta descodificación se conoce como "inferencias
invitadas", que suponen un reto intelectual mayor que las inferencias lógicas.
Los psicólogos y los psicolingüistas han descubierto varios heurísticos en
los que se basan las personas para hacer tales inferencias (por ejemplo, Grice,
1989; Hertwig y Gigerenzer, 1999). Por ejemplo, los oyentes esperan que lo
que el hablante dice y cómo lo dice sea relevante: la máxima de relevancia. Un
ejemplo es la implicación de que un hablante probablemente está haciendo
una recomendación tácita cuando utiliza un marco positivo para una opción,
mientras que un marco negativo probablemente indica una advertencia. En
general, la capacidad de escuchar atentamente y prestar atención al modo en
que los mensajeros enmarcan los mensajes se considera una forma de
inteligencia, no de parcialidad (por ejemplo, Sher y McKenzie, 2006). Del
mismo modo, en el primer estudio sobre los valores por defecto en la
donación de órganos se comprobó si las personas siguen los valores por
defecto de inclusión o exclusión voluntaria porque los interpretan como
recomendaciones o porque seguir el valor por defecto exige menos esfuerzo
(Johnson y Goldstein, 2003). Los autores informaron de que cuando el esfuerzo
para optar por la inclusión o la exclusión se reducía a un solo clic del ratón, el
valor por defecto seguía influyendo sustancialmente en la elección, lo que
concuerda con la explicación de la recomendación y "elimina en gran medida
338 Gerd Gigerenzer

la explicación del esfuerzo" (p. 1338). Aun así, en algunos informes posteriores
de este estudio clásico, el aspecto de la recomendación ni siquiera se
menciona.
El sesgo de la economía conductual 339

mencionado y el comportamiento de las personas se atribuye a su "inercia"


(Thaler y Sunstein, 2008, pp. 186-188), o a la "pereza" y como prueba
"embarazosa" de las ilusiones cognitivas (Kahneman, 2011, pp. 373-374).
El encuadre se considera desde hace tiempo un arte en matemáticas y
física, como ilustra la importancia de la notación y la representación numérica.
Richard Feynman (1967) señaló la importancia de trabajar con diferentes for-
mulaciones de la misma ley física, aunque sean lógicamente equivalentes.
"Psicológicamente son diferentes porque son completamente desiguales
cuando se intenta adivinar nuevas leyes" (p. 53).
Los economistas conductuales, por el contrario, han utilizado la economía
neoclásica como estándar para la elección racional, y han interpretado la
atención al encuadre como una forma de irracionalidad, como un sesgo de
encuadre. En palabras de Conlisk en su lista de sesgos, la gente "da respuestas
que son muy sensibles a cambios lógicamente irrelevantes en las preguntas"
(p. 670). Como ya se ha mencionado, ambos fenómenos -el efecto del
encuadre y los incumplimientos- se atribuyeron a la pereza de las personas, la
inercia en la toma de decisiones, la procrastinación y el sesgo del statu quo. Se
decía que los efectos del encuadre violaban la "invariancia de la descripción",
una "condición esencial" para la racionalidad (Tversky y Kahneman, 1986, p.
S253). También se dijo que las personas carecían de perspicacia: "en su
obstinado atractivo, los efectos de encuadre se parecen más a ilusiones
perceptivas que a errores computacionales" (Kahneman y Tversky, 1984, p.
343). Del mismo modo, cuando un estudio descubrió que los agentes de
inteligencia de seguridad nacional experimentados mostraban mayores
"sesgos de encuadre" que los estudiantes universitarios, este hallazgo se
interpretó como una forma sorprendente de irracionalidad entre los agentes
experimentados (Reyna et al., 2014).
Consideremos una demostración clásica de encuadre. Un paciente que
padece una cardiopatía grave se plantea una operación de alto riesgo y
pregunta a su médico sobre sus perspectivas. El médico puede enmarcar la
respuesta de dos maneras:

Marco positivo: Cinco años después de la cirugía, el 90% de los pacientes


están vivos.
Marco negativo: Cinco años después de la cirugía, el 10% de los pacientes
han muerto.

¿Debe el paciente hacer caso de cómo enmarca el médico la respuesta?


Los economistas conductuales dicen que no porque ambos marcos son
lógicamente equivalentes (Kahneman, 2011). Sin embargo, la gente escucha.
Hay más personas dispuestas a aceptar un procedimiento médico si el médico
utiliza un encuadre positivo (90% de vida) que si utiliza un encuadre negativo
(10% de muerte) (Moxey et al., 2003). Los efectos del encuadre desafían el
supuesto de preferencias estables, dando lugar a inversiones de preferencias.
Thaler y Sunstein (2008), que presentaron el problema quirúrgico anterior,
llegaron a la conclusión de que "el encuadre funciona porque las personas
tienden a ser tomadores de decisiones en cierto modo descerebrados y
340 Gerd Gigerenzer

pasivos" (p. 40).


Los efectos de encuadre se han presentado como justificaciones clave de la
política del paternalismo libertario. En palabras de Thaler y Sunstein (2008),
una "política es 'paternalista' si trata de influir en las elecciones de forma que
los que eligen estén mejor, según su propio juicio" (p. 5, cursiva en el original).
Paradójicamente,
El sesgo de la economía conductual 341

Sin embargo, los responsables políticos paternalistas rara vez intentan


averiguar las preferencias reales de los individuos, una vez más basándose en
el efecto de encuadre: las respuestas o "preferencias reveladas" de la gente
dependerán de cómo se encuadre la pregunta (Thaler y Sunstein, 2003, p.
178).

Inferencias inteligentes confundidas con prejuicios

Consideremos de nuevo el problema de la cirugía. Para el paciente, no se trata


de comprobar la coherencia lógica, sino de tomar una decisión con
conocimiento de causa. Para ello, la pregunta pertinente es: ¿es mayor la
supervivencia con o sin cirugía? La tasa de supervivencia sin cirugía es el punto
de referencia con el que hay que comparar la opción quirúrgica. Ni
"supervivencia del 90%" ni "mortalidad del 10%" proporcionan esta
información.
Hay varias razones por las que falta información y las recomendaciones no se
comunican directamente. Por ejemplo, la legislación estadounidense sobre
responsabilidad civil fomenta las demandas por negligencia, lo que alimenta una
cultura de culpabilización en la que los médicos temen hacer recomendaciones
explícitas (Hoffman y Kanzaria, 2014). Sin embargo, al enmarcar una opción, los
médicos pueden transmitir información sobre el punto de referencia y hacer una
recomendación implícita que los oyentes inteligentes entienden intuitivamente.
Los experimentos han demostrado, por ejemplo, que cuando el punto de
referencia era más bajo, es decir, menos pacientes sobrevivían sin cirugía, el 80-
94% de los hablantes elegían el marco "supervivencia" (McKenzie y Nelson, 2003).
Cuando, por el contrario, el punto de referencia era más alto, es decir, más
pacientes sobrevivían sin cirugía, se elegía con más frecuencia el marco de
"mortalidad". Por lo tanto, al seleccionar un marco positivo o negativo, los
médicos pueden comunicar su creencia sobre si la cirugía tiene un beneficio
sustancial en comparación con no operarse y hacer una recomendación implícita.
Un marco elegido puede comunicar implícitamente no sólo una
recomendación, sino también otras informaciones. Considere el prototipo de
encuadre:

El vaso está medio

lleno. El vaso está

medio vacío.

Ambos marcos son iguales lógicamente, pero no psicológicamente. En


un experimento de Sher y McKenzie (2006), se colocaron sobre una mesa
un vaso lleno y otro vacío, y se pidió al participante que vertiera la mitad
del agua en el otro vaso y que después colocara el "vaso medio vacío" en el
borde de la mesa. La mayoría eligió el vaso que estaba lleno. En este caso,
el encuadre transmite información tácita, y un oyente atento entiende que
342 Gerd Gigerenzer

medio lleno y medio vacío no son lo mismo.


El sesgo de la economía conductual 343

El problema de las enfermedades asiáticas reevaluado


Quizá el ejemplo más famoso de efecto de encuadre se deriva del "problema
de la enfermedad asiática" (Tversky y Kahneman, 1981). Se ha presentado
como prueba de la aversión al riesgo por las ganancias y de la búsqueda de
riesgo por las pérdidas, así como de la función de valor de la teoría de las
perspectivas:
Imagine que Estados Unidos se prepara para un brote de una
inusual enfermedad asiática, que se espera que mate a 600
personas. Se han propuesto dos programas alternativos para
combatir la enfermedad. Supongamos que las estimaciones
científicas exactas de las consecuencias de los programas son las
siguientes:
[Marco positivo]
Si se adopta el Programa A, se salvarán 200 personas.
Si se adopta el Programa B, hay una probabilidad de 1/3 de que se
salven 600 personas y una probabilidad de 2/3 de que no se salve
ninguna.
[Marco Negativo]
Si se adopta el Programa A, morirán 400 personas.
Si se adopta el Programa B, hay una probabilidad de 1/3 de que
no muera nadie y una probabilidad de 2/3 de que mueran 600
personas.
Los autores argumentaron que los dos problemas son lógicamente
equivalentes y que la invariabilidad exige que el encuadre positivo frente al
negativo no altere el orden de preferencia. Sin embargo, cuando se les dio el
marco positivo, la mayoría de las personas se decantaron por el Programa A,
pero prefirieron el Programa B cuando se les dio el marco negativo. Esta
diferencia se interpretó como una prueba de que las personas tienen
aversión al riesgo en caso de ganancias (marco positivo) y búsqueda de riesgo
en caso de pérdidas (marco negativo) (Tversky y Kahneman, 1981). En esta
interpretación lógica, el problema de la enfermedad asiática refuta el
supuesto de las preferencias estables y demuestra que las personas
pueden ser manipuladas fácilmente.
Ahora recordemos el análisis psicológico del problema de la cirugía: si la
gente se da cuenta de que se omite parte de la información, como el efecto de
no operar, tiende a hacer inferencias. En el problema de la enfermedad
asiática, la opción "arriesgada" siempre se explica completamente en ambos
marcos (por ejemplo, 1/3 de probabilidad de que se salven 600 personas y 2/3
de probabilidad de que no se salve nadie), mientras que la opción "segura"
siempre está incompleta. Por ejemplo, comunica que 200 personas se
salvarán, pero no que 400 no se salvarán. Esta asimetría sistemática no
importa ni para la norma lógica de la "invariancia de la descripción" ni para la
teoría de las perspectivas, dado que se mantiene el encuadre en términos de
pérdidas y ganancias. Pero debería importar si la gente hace inferencias
344 Gerd Gigerenzer

inteligentes. Para probar estas dos explicaciones contrapuestas -error lógico o


inferencia inteligente- todo lo que hay que hacer es completar las opciones
que faltan en ambos marcos. He aquí la versión completa del marco positivo:
El sesgo de la economía conductual 345

Si se adopta el Programa A, se salvarán 200 personas y 400 no se


salvarán.
Si se adopta el Programa B, hay una probabilidad de 1/3 de que se
salven 600 personas y una probabilidad de 2/3 de que no se salve
ninguna.
Si alguna de las explicaciones propuestas -la susceptibilidad de las personas a
los errores de encuadre, su aversión al riesgo en caso de ganancias y su
búsqueda de riesgo en caso de pérdidas, o la función de valor de la teoría de
las perspectivas- fuera cierta, este añadido no debería importar. Pero, de
hecho, cambia todo el resultado. Cuando la información se proporcionó por
completo, el efecto de los marcos positivos frente a los negativos desapareció
en un estudio tras otro (por ejemplo, Kühberger, 1995; Kühberger y Tanner,
2010; Mandel, 2001; Tombu y Mandel, 2015). Otros estudios indicaron que
muchas personas se dan cuenta de la asimetría e infieren que la opción
incompleta significa que al menos 200 personas se salvan porque, a diferencia
del Programa B, no se proporciona la información de cuántos no se salvarán
(Mandel, 2014). Según esta inferencia, el Programa A garantiza que se salven
200 o más personas, en lugar de exactamente 200. Así, los juicios de la gente
no parecen tener nada que ver con preferencias inestables o con un encuadre
positivo frente a uno negativo. El carácter incompleto del Programa A por sí
solo provoca todo el efecto. Cuando se les suministra información incompleta,
las personas tienen que hacer inferencias inteligentes. Hacerlo no es un sesgo.

¿Es inevitable enmarcar?


La propuesta de que los gobiernos den codazos a la gente enmarcando los
mensajes se ha defendido con el argumento de que no hay escapatoria del
enmarcado: Los resultados tienen que enmarcarse positiva o negativamente
(Thaler y Sunstein, 2008). Sin embargo, esto no es necesariamente así. Como han
demostrado los ejemplos anteriores, existe una alternativa al encuadre positivo o
negativo, a saber, especificar el mensaje en su totalidad, como "Cinco años
después de la cirugía, el 90% de los pacientes están vivos y el 10% muertos", o
"200 personas se salvarán y 400 no".
En resumen, el principio de equivalencia lógica o "invariancia de la
descripción" es una mala guía para entender cómo la inteligencia humana se
enfrenta a un mundo incierto en el que no todo está dicho explícitamente. No
tiene en cuenta la naturaleza misma de la inteligencia, la capacidad de ir más
allá de la información dada (Bruner, 1973).
Las tres fuentes del sesgo que he identificado -no darse cuenta cuando las
estadísticas de muestras pequeñas difieren de las de muestras grandes, confundir
el error aleatorio de las personas con el error sistemático y confundir las
inferencias inteligentes con errores lógicos- se generalizan también a otros
elementos de la lista de Conlisk (por ejemplo, Gigerenzer et al., 2012; Gigerenzer
et al., 1988; McKenzie y Chase, 2012). También parece haber un denominador
común en estas fuentes. Si se acepta la teoría de la elección racional como norma
universal, como en la versión de la economía conductual de Kahneman y Thaler,
346 Gerd Gigerenzer

en la que toda incertidumbre puede reducirse a riesgo, las estadísticas de


El sesgo de la economía conductual 347

las muestras pequeñas o el arte del encuadre no desempeñan ningún papel


normativo. Las consecuencias normativas de la incertidumbre se pasan por
alto con facilidad, y es probable que las intuiciones de la gente se perciban
erróneamente como errores lógicos.

Tomarse en serio la incertidumbre


El argumento de la irracionalidad se ha convertido en la columna vertebral de
la economía conductual, y enumerar y modelizar las desviaciones de la teoría
de la elección racional se ha convertido en todo lo que la mantiene erguida.
Una nueva economía del comportamiento que pueda valerse por sí misma
limitaría la teoría de la elección racional a las situaciones de riesgo y se
centraría en estudiar cómo los individuos y las organizaciones toman
realmente decisiones en condiciones de incertidumbre, cuando no se cumplen
los supuestos de la economía neoclásica (Gigerenzer y Selten, 2001). Esto
requiere modelos formales de toma de decisiones heurísticas y un análisis
formal de las condiciones ecológicas en las que los heurísticos simples superan
a las estrategias más complejas (Gigerenzer et al., 2011). Como ilustran los
ejemplos de este artículo, lo que parece normativo en situaciones de riesgo no
siempre lo es en situaciones de incertidumbre. La heurística, el encuadre, los
incumplimientos y las emociones pueden ser raramente necesarios en un
mundo de certidumbre, pero son herramientas esenciales para hacer frente a
la incertidumbre.
Al desviarse por la senda simoniana, la economía conductual puede
liberarse de los confines del argumento de la irracionalidad. La clave es
tomarse en serio la incertidumbre, tomarse en serio la heurística y tener
cuidado con el sesgo.

Referencias

Aki, E. A., A. D. Oxman, J. Herrin, G. E. Vist, I. Terrenato, F. Sperati, y et al.


2011. "Uso de formatos estadísticos alternativos para presentar riesgos y
reducciones de riesgos". Base de datos Cochrane de revisiones sistemáticas
(Cochrane Database of Systematic Reviews). 3: CD006776. Anderson, J. R.
1990. El carácter adaptativo del pensamiento. Hillsdale, NJ: Erl-.
baum.
Ariely, D. 2008. Predictably irrational: the hidden forces that shape our decisions.
1er. Nueva York: HarperCollins.
Arkes, H. R., G. Gigerenzer y R. Hertwig. 2016. "¿Cómo de mala es la
incoherencia?".
Decisión. 3: 20-39.
Barsalou, L. W. 1992. Psicología cognitiva: Una visión general para los científicos
cognitivos.
Hillsdale, NJ: Erlbaum.
Berg, N. y G. Gigerenzer. 2007. "¿La psicología implica paternalismo? Bounded
rationality may reduce the rationale to regulate risk-taking". Elección social
348 Gerd Gigerenzer

y bienestar. 28: 337-359.


Berg, N. y G. Gigerenzer. 2010. "As-if behavioral economics: ¿La economía
neoclásica disfrazada?". Historia de las ideas económicas. 18: 133-165. doi:
10.1400/140334.
El sesgo de la economía conductual 349

Berg, N. y D. Lien. 2005. "¿Se beneficia la sociedad del exceso de confianza de


los inversores en la capacidad de los expertos de los mercados
financieros?". Journal of Economic Behavior and Organization. 58: 95-116.
Binmore, K. 2009. Decisiones racionales. Princeton, NJ: Princeton
University Press.
Bond, M. 2009. "La escuela del riesgo". Nature. 461(2): 1189-1192. doi: 10 .
1038 / 4611189a.
Brighton, H. y G. Gigerenzer. 2015. "El sesgo del sesgo". Journal of Business
Research. 68: 1772-1784. doi: 10.1016/j.jbusres.2015.01.061.
Bruner, J. S. 1973. Más allá de la información dada: Estudios sobre la
psicología del conocimiento. Oxford, Inglaterra: W. W. Norton.
Bundesregierung [Gobierno Federal de Alemania]. 2018. "Wirksam regieren". url:
https://www.bundesregierung.de/Webs/Breg/DE/Themen/Wirksam-
regieren/_node.html.
Camerer, C., S. Issacharoff, L. Loewenstein, T. O'Donoghue y M. Rabin.
2003. "Regulación para conservadores: Behavior Economics and the case
for 'asymmetric paternalism'". Revista de Derecho de la Universidad de
Pensilvania. 151: 1211-1254.
Chater, N., J. B. Tenenbaum y A. Yuille. 2006. "Modelos probabilísticos
de cognición: Conceptual foundations". TRENDS in Cognitive Sciences.
10: 335-344.
Conley, S. 2013. Contra la autonomía. Justificando el paternalismo coercitivo.
Nueva York: Cambridge University Press.
Conlisk, J. 1996. "Por qué la racionalidad limitada". Journal of Economic
Literature.
34: 669-700.
Dawes, R. M. y M. Mulford. 1996. "The false consensus effect and
overconfidence: ¿Fallas en el juicio o fallas en cómo estudiamos el juicio?".
Organiza- tional Behavior and Human Decision Processes. 65: 201-211.
DeBondt, W. F. y R. Thaler. 1995. "Financial decision-making in mar- kets
and firms: A behavioral perspective". En: Handbook in Operations
Research and Management Science, Vol. 9, Finance. Ed. por R. A.
Jarrow,
V. Maksimovic, y V. T. Ziemba. Holanda Septentrional: Elsevier. 385-410.
Dressel, J. y H. Farid. 2018. "La precisión, la equidad y los límites de la
predicción de la reincidencia". Science Advances. 4: eaao5580.
Edwards, W. 1968. "El conservadurismo en el procesamiento humano de la
información". En: Representación formal del juicio humano. Ed. por B.
Kleinmuntz. New York: Wiley. 17-52.
Erev, I., T. S. Wallsten y D. V. Budescu. 1994. "Simultaneous over- and
under confidence: The role of error in judgment processes". Psychological
Review. 101: 519-527.
Farmer, G. D., P. A. Warren y U. Hahn. 2017. "¿Quién 'cree' en la falacia del
jugador y por qué?". Revista de Psicología Experimental: General. 146:
63-76.
350 Gerd Gigerenzer

Feynman, R. P. 1967. El carácter de la ley física. Cambridge, MA: MIT Press.


Fong, G. T., D. H. Krantz y R. E. Nisbett. 1986. "The effects of statistical
training on thinking about everyday problems". Cognitive Psychology. 18:
253-292.
Friedman, M. 1992. "¿Mueren alguna vez las viejas falacias?". Journal of Economic
Literature.
30: 2129-2132.
Friston, K. 2010. "El principio de la energía libre: ¿una teoría unificada del
cerebro?". Nature Reviews Neuroscience. 11(2): 127-138. doi:
10.1038/nrn2787.
Gal, D. y D. D. Rucker. 2018. "La pérdida de la aversión a la pérdida:
¿Asomará más que su ganancia?". Journal of Consumer Psychology:
497-516. doi: 10.1002/jcpy.1047.
Gigerenzer, G. 2014. Conocedores del riesgo: Cómo tomar buenas
decisiones. Nueva York: Viking.
Gigerenzer, G. 2015. "Sobre la supuesta evidencia del paternalismo libertario".
Revista de filosofía y psicología. 6: 363-383. doi: 10.1007/s13164- 015-
0248-1.
Gigerenzer, G. 2016a. "Introducción: Tomarse en serio la heurística". En:
The Behavioral Economics Guide 2016. Ed. por A. Samson. Londres:
Behav- ioral Science Solutions. V-XI. url:
www.behavioraleconomics.com/the- behavioral-economics-guide-
2016/.
Gigerenzer, G. 2016b. "Hacia una teoría racional de la heurística". En: Mentes,
modelos y entornos: Conmemoración del centenario del nacimiento de
Herbert Simon. Ed. por R. Frantz y L. Marsh. Nueva York: Palgrave
Macmillan. 34-59.
Gigerenzer, G., K. Fiedler y H. Olsson. 2012. "Repensar los sesgos
cognitivos como consecuencias ambientales". En: P. M. Todd, G.
Gigerenzer, y el Grupo de Investigación ABC. Racionalidad ecológica: La
inteligencia en el mundo. Nueva York: Oxford University Press. 80-110.
Gigerenzer, G., W. Gaissmaier, E. Kurz-Milcke, L. M. Schwartz y S.
Woloshin. 2007. "Ayudar a médicos y pacientes a entender las
estadísticas sanitarias". Psychological Science in the Public Interest. 8:
53-96. doi: 10.1111/j.1539-6053.2008.00033.x.
Gigerenzer, G., W. Hell y H. Blank. 1988. "Presentación y contenido: El uso de
tasas base como variable continua". Journal of Experimental Psychology:
Human Perception and Performance. 14: 513-525.
Gigerenzer, G., R. Hertwig, y T. Pachur, eds. 2011. Heuristics: The founda-
tions of adaptive behavior. New York: Oxford University Press.
Gigerenzer, G. y U. Hoffrage. 1995. "Cómo mejorar el razonamiento bayesiano
sin instrucción: Formatos de frecuencia". Psychological Review. 102: 684-
704. doi: 10.1037/0033-295X.102.4.684.
El sesgo de la economía conductual 351

Gigerenzer, G. y U. Hoffrage. 1999. "Superar las dificultades del razonamiento


bayesiano: A reply to Lewis & Keren and Mellers & McGraw". Psychological
Review. 106: 425-430. doi: 10.1037/0033-295X.106.2.425.
Gigerenzer, G., U. Hoffrage y H. Kleinbölting. 1991. "Modelos mentales
probabilísticos: A Brunswikian theory of confidence". Psychological Review.
98: 506-528.
Gigerenzer, G. y R. Selten. 2001. Racionalidad limitada: The adaptive toolbox.
Cambridge, MA: MIT Press.
Gilovich, T., R. Vallone y A. Tversky. 1985. "La mano caliente en el
baloncesto: Sobre la percepción errónea de secuencias aleatorias".
Psicología cognitiva. 17: 295-314.
Grice, H. P. 1989. Studies in the way of words. Cambridge, MA: Harvard
University Press.
Hahn, U. 2014. "Limitación experiencial en el juicio y la decisión". Temas en
ciencias cognitivas. 6: 229-244.
Hahn, U. y P. A. Warren. 2009. "Percepciones de la aleatoriedad: Por qué tres
cabezas piensan mejor que cuatro". Psychological Review. 116: 454-461.
Hahn, U. y P. A. Warren. 2010. "Por qué tres cabezas son mejor que cuatro:
A reply to Sun, Tweney, and Wang (2010)". Psychological Review. 117:
706-711.
Hasher, L. y R. T. Zacks. 1984. "Procesamiento automático de la información
fundamental: El caso de la frecuencia de ocurrencia". American Psychologist.
39: 1372-1388.
Helbing, D., B. S. Frey, G. Gigerenzer, E. Hafen, M. Hagner, Y. Hofstetter,
J. van der Hoven, R. V. Zicari y A. Zwitter. 2017. "¿Sobrevivirá la
democracia al big data y la inteligencia artificial?". Scientific
American. url:
https:/ / w w w . s c i e n t i f i c a m e r i c a n . c o
m/ a rti cl e/ wi l l - d emo cra cy-
s u r v i v e - b i g - data-and-artificial-intelligence/.
Hertwig, R. y G. Gigerenzer. 1999. "La 'falacia de la conjunción' revisitada:
Cómo las inferencias inteligentes parecen errores de razonamiento". Journal of
Behavioral Decision Making. 12: 275-305. doi: 10.1002/(SICI)1099-
0771(199912)12: 4<275::AID-BDM323>3.0.CO;2-M.
Hertwig, R. y T. Grüne-Yanoff. 2017. "Nudging y boosting: dirigir o potenciar las
buenas decisiones". Perspectivas en la ciencia psicológica. 12: 973- 986. doi:
10.1177/1745691617702496.
Hertwig, R., T. Pachur y S. Kurzenhäuser. 2005. "Judgments of risk fre-
quencies: Tests of possible mechanisms". Journal of Experimental Psychol- ogy:
Learning, Memory & Cognition. 31: 621-642. doi: 10 . 1037 /0278 -
7393.31.4.621.
Hoffman, J. R. y H. K. Kanzaria. 2014. "Intolerance of error and culture of
blame drive medical excess". British Medical Journal. 349: g57-02. doi:
10.1136/bmj.g5702.
352 Gerd Gigerenzer

Hoffrage, U., S. Lindsey, R. Hertwig y G. Gigerenzer. 2000. "Comunicar


información estadística". Science. 290: 2261-2262.
Jenny, M. A., N. Keller y G. Gigerenzer. 2018. "Evaluación de la
alfabetización médica mínima utilizando el Quick Risk Test: Un estudio
observacional prospectivo en Alemania". BMJ Open. 8(8): e020847. doi:
10.1136/bmjopen-2017-020847. Johnson, E. J. y D. G. Goldstein. 2003.
"¿Salvan vidas los impagos?". Science.
302: 1338-1339. doi: 10.1126/science.1091721.
Jonides, J. y C. M. Jones. 1992. "Codificación directa de la frecuencia de
ocurrencia". Journal of Experimental Psychology: Aprendizaje, Memoria y
Cognición. 18: 368-378.
Juslin, P., A. Winman y H. Olsson. 2000. "Empirismo ingenuo y dogmatismo en
la investigación sobre la confianza: A critical examination of the hard-easy
effect". Psychological Review. 107: 384-396.
Kahneman, D. 2011. Pensar, rápido y despacio. London: Allen Lane.
Kahneman, D. y A. Tversky. 1972. "Probabilidad subjetiva: Un juicio de
representatividad". Psicología cognitiva. 3: 430-454.
Kahneman, D. y A. Tversky. 1984. "Elecciones, valores y marcos". American
Psychologist. 39: 341-350.
Kandel, E. 2012. La búsqueda para entender el inconsciente en el arte, la
mente y el cerebro, Desde Viena 1900 hasta el presente. Nueva York:
Random House.
Kane, J. S. y D. J. Woehr. 2006. "Performance measurement reconsidered:
An examination of frequency estimation as a basis for assessment". En:
Performance measurement: Perspectivas actuales y retos futuros. Ed. por W. J.
Bennett, C. E. Lance y D. J. Woehr. Mahwah, NJ: Lawrence Erlbaum. 77-
109.
Kant, I. 1784. "Beantwortung der Frage: Was ist Aufklärung?" Berlinische
Monatsschrift, Dezember-Heft. 2: 481-494.
Kareev, Y. 1992. "No tan malo después de todo: Generación de secuencias
aleatorias". Journal of Experimental Psychology: Human Perception and
Performance. 18: 1189-1194.
Kühberger, A. 1995. "El encuadre de las decisiones: Una nueva mirada a viejos
problemas". Comportamiento organizativo y procesos de decisión humana.
6: 230-240. doi: 10.1006/obhd.1995.1046.
Kühberger, A. y C. Tanner. 2010. "Risky choice framing: Task versions and a
comparison of prospect theory and fuzzy-trace theory". Journal of
Behavioral Decision Making. 23(3): 314-329.
Lewis, M. 2017. El proyecto de deshacer. Nueva York: Norton.
Lichtenstein, S., B. Fischhoff y L. D. Phillips. 1982. "Calibration of sub-
jective probabilities: The state of the art up to 1980". En: Judgment
under uncertainty: Heuristics and biases. Ed. por D. Kahneman, P. Slovic,
y
A. Tversky. Cambridge University Press: Cambridge University Press. 306-
334.
El sesgo de la economía conductual 353

Lichtenstein, S., P. Slovic, B. Fischhoff, M. Layman y B. Combs. 1978.


"Judged frequency of lethal events" (Frecuencia juzgada de sucesos
letales). Journal of Experimental Psychology: Human Learning and
Memory. 4: 551-578.
Mandel, D. R. 2001. "Gain-loss framing and choice: Separating outcome formu-
lations from descriptor formulations". Comportamiento organizativo y
procesos de decisión humana. 85(1): 56-76. doi: 10.1006/obhd.2000.2932.
Mandel, D. R. 2014. "¿Los efectos de encuadre revelan la elección irracional?".
Revista de Psicología Experimental: General. 143: 1185-1198. doi:
10.1037/a0034207. McDowell, M. y P. Jacobs. 2017. "Meta-análisis del efecto
de las frecuencias naturales en el razonamiento bayesiano". Psychological
Bulletin. 143: 1273-1312.
doi: 10.1037/bul0000126.
McKenzie, C. R. M. y V. Chase. 2012. "Por qué las cosas raras son preciosas:
cómo la rareza beneficia la inferencia". En: P. Todd, G. Gigerenzer, y el
Grupo de Investigación ABC. Racionalidad ecológica: La inteligencia en el
mundo. Nueva York: Oxford University Press. 309-334.
McKenzie, C. R. M. y J. D. Nelson. 2003. "What a speaker's choice of frame
reveals: Reference points, frame selection, and framing effects". Psychonomic
Bulletin and Review. 10: 596-602. doi: 10.3758/BF03196520.
Miller, J. B. y A. Sanjuro. De próxima publicación. "¿Sorprendido por las
falacias del jugador y de la mano caliente?". Econometrica.
Miller, J. B. y A. Sanjuro. 2016. Sesgo de selección, descuido del tamaño de
la muestra y persistencia de las creencias de la falacia del jugador.
Documento de trabajo.
Mousavi, S. y G. Gigerenzer. 2011. "Revisitando el "error" en los estudios
sobre errores cognitivos". En: El error en las organizaciones. Ed. por D.
A. Hofmann y
M. Frese. Nueva York: Taylor & Francis. 97-112.
Moxey, A., D. O'Connell, P. McGettigan y D. Henry. 2003. "Describing
treatment effects to patients: How they are expressed makes a difference".
Journal of General Internal Medicine. 18: 948-959. doi: 10.1046/j.1525-
497.2003.20928.x.
Olsson, H. 2014. "Midiendo el exceso de confianza: Problemas metodológicos
y artefactos estadísticos". Journal of Business Research. 67: 1766-1770.
Parikh, M. 2009. Value investing and behavioral finance: Insights into Indian
stock market realities. Nueva Delhi: Tata McGraw Hill.
Peterson, C. R. y L. R. Beach. 1967. "El hombre como estadístico intuitivo".
Boletín Psicológico. 68: 29-46.
Pfeifer, P. E. 1994. "¿Tenemos exceso de confianza en la creencia de que los
previsores de probabilidades tienen exceso de confianza?".
Comportamiento organizativo y procesos de decisión humana. 58: 203-213.
Piaget, J. y B. Inhelder. 1975. El origen de la idea de azar en los niños.
New York: Norton.
Raab, M., B. Gula y G. Gigerenzer. 2012. "La mano caliente existe en el voleibol
y se utiliza para las decisiones de asignación". Revista de Psicología
Experimental: Applied. 18: 81-94. doi: 10.1037/a0025951.
354 Gerd Gigerenzer

Rabin, M. 1998. "Psicología y economía". Revista de literatura económica.


36: 11-46.
Rabin, M. 2002. "Inference by believers in the law of small numbers".
Quarterly Journal of Economics. 117: 775-816.
Rabin, M. y D. Vayanos. 2010. "Las falacias del jugador y de la mano caliente:
Theory and applications". Revista de Estudios Económicos. 77: 730-778.
Rebonato, R. 2012. Tomarse libertades: Un examen crítico del
paternalismo libertario. Basingstoke, Reino Unido: Palgrave Macmillan.
Reyna, V. F., C. F. Chick, J. C. Corbin y A. N. Hsia. 2014. "Developmental
reversals in risky decision making: Los agentes de inteligencia muestran
mayores sesgos de decisión que los estudiantes universitarios".
Psychological Science. 25(1): 76-84.
Saffran, J. R., R. N. Aslin y E. L. Newport. 1996. "Statistical learning by 8-
month-old infants". Science. 274: 1926-1928.
Samson, A. 2014. Behavioral Economics Guide 2014. url: https ://www.
behavioraleconomics.com/BEGuide2014.pdf.
Schneider, S. 2010. Homo economicus, ¿o más bien Homer Simpson? (Informe).
Investigación del Deutsche Bank.
Sedlmeier, P. y G. Gigerenzer. 2001. "Enseñanza del razonamiento
bayesiano en menos de dos horas". Revista de Psicología Experimental:
General. 130: 380- 400.
Sedlmeier, P., R. Hertwig y G. Gigerenzer. 1998. "¿Están los juicios sobre las
frecuencias posicionales de las letras sistemáticamente sesgados debido a
la disponibilidad?". Journal of Experimental Psychology: Aprendizaje,
Memoria y Cognición. 24: 754-770.
Shepard, R. N. 1990. Mind sights. New York: Freeman.
Sher, S. y C. R. M. McKenzie. 2006. "Fuga de información de marcos
lógicamente equivalentes". Cognition. 101: 467-494.
Silver, N. 2012. La señal y el ruido. New York: Penguin.
Simon, H. A. 1979. "Information processing models of cognition". Annual
Review of Psychology. 30: 363-396.
Simon, H. A. 1989. "El científico como solucionador de problemas". En: El
procesamiento complejo de la información: El impacto de Herbert A.
Simon. Ed. por D. Klahr y K. Kotovsky. Hillsdale, NJ: Erlbaum. 375-398.
Slovic, P., B. Fischhoff y S. Lichtenstein. 1982. "Facts versus fears: Under-
standing perceived risk". En: Judgment under uncertainty: Heuristics
and biases. Ed. por D. Kahneman, P. Slovic y A. Tversky. Cambridge,
Reino Unido. 463-489.
Smith, V. L. 2007. Rationality in economics. New York: Cambridge
University Press.
Stigler, S. M. 1999. Estadísticas sobre la mesa. Cambridge, MA: Harvard
University Press.
Thaler, R. H. 1991. Quasi rational economics. New York: Russell Sage Foun-
dation.
El sesgo de la economía conductual 355

Thaler, R. H. 2015. Misbehaving: The making of behavioral economics. New


York: Norton.
Thaler, R. H. y C. R. Sunstein. 2003. "El paternalismo libertario". American
Economic Review. 93(2): 175-179.
Thaler, R. H. y C. R. Sunstein. 2008. Nudge: Mejorar las decisiones sobre
salud, riqueza y felicidad. New Haven, CT: Yale University Press.
Tombu, M. y D. R. Mandel. 2015. "¿Cuándo influye el encuadre en las
preferencias, las percepciones del riesgo y las actitudes ante el riesgo? The
explicated valence account". Jour- nal of Behavioral Decision Making. 28:
464-476. doi: 10.1002/bdm.1863.
Tversky, A. y D. Kahneman. 1973. "Disponibilidad: A heuristic for judging
frequency and probability". Psicología cognitiva. 4: 207-232.
Tversky, A. y D. Kahneman. 1974. "Judgment under uncertainty: Heuristics and
biases". Science. 185: 1124-1131.
Tversky, A. y D. Kahneman. 1981. "El encuadre de las decisiones y la psicología
de la elección". Science. 211: 453-458.
Tversky, A. y D. Kahneman. 1983. "Razonamiento extensional frente a
razonamiento intuitivo: La falacia de la conjunción en el juicio de
probabilidad". Psychological Review. 90: 293-315. doi: 10.1037/0033-
295X.90.4.293.
Tversky, A. y D. Kahneman. 1986. "Rational choice and the framing of
decisions". The Journal of Business. 59(4): S251-S278.
Zarembo, A. 2003. "La financiación de los estudios se adapta a las
necesidades". Los Angeles Times. url: http://www.latimes.com/nation/la-
na-valdez3-2003dec03-story.html.

También podría gustarte