Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Aristóteles definió al hombre como el animal que posee logos y, a menudo, se ha afirmado
que Aristóteles define al ser humano como un animal racional. En cambio, ambas
expresiones no son equivalentes. De hecho, a pesar de que tengamos la capacidad de
investigar, razonar y tomar decisiones deliberadas y racionales, a menudo el ser humano
actúa de modo irracional.
Todos cometemos a veces son errores puntuales; en estos casos, simplemente nos
equivocamos y esto no cuestiona la racionalidad de nuestras acciones. Quizás somos un
poco miopes y vemos mal de lejos o en ambientes con poca luz, o no recordamos la fecha
exacta de algo o hacemos una operación matemática errónea. Estos errores son triviales.
En cambio, hay otro tipo de errores que aunque son puntuales se deben a la influencia de las
emociones. Y otros errores son sistemáticos. Algunos responden a patrones tan
comúnmente extendidos que casi parecen genéticos y otros se deben a causas sociales,
culturales… pero no son meros errores de cálculo. Este tipo de errores sí han sido
considerados por algunos autores como fallos en nuestra racionalidad. De entre ellos,
estudiaremos los que se conocen como sesgos cognitivos (cognitive biases). Estos suelen
ser procesos inconscientes y tienen múltiples causas. Como veremos más adelante pueden
llevar a cometer errores lógicos graves en nuestras argumentaciones. Estudiaremos algunas
de estas falacias, poniendo especial atención en las falacias informales y en sus causas. Pero
veamos todo esto más despacio.
Está claro que la toma de decisiones en nuestro día a día no siempre se da en las condiciones
ideales. A menudo necesitamos tomar decisiones con poca o nula información. Unas veces
esto se debe a que no existe más información; otras veces esa información no está a nuestro
alcance; o es costosa. En otras ocasiones el problema es demasiado complejo y, en otras, la
decisión es urgente y no tenemos tiempo de buscar información extra. En todos estos casos,
puede resultar útil tomar un atajo y emitir la mejor respuesta posible con ese conjunto
restringido de información. Llamamos heurísticos a estos atajos mentales que nos permiten
tomar decisiones en situaciones de poca información. Para ello nos valemos de estrategias,
esquemas, reglas, estereotipos… que nos permiten llevar a cabo estas tareas. Por supuesto,
algunas de estas estrategias también las pueden llevar a cabo animales o máquinas.
Pero no todos los mecanismos que nos llevan a emitir respuestas automáticas, rápidas o
prefijadas son heurísticos o atajos mentales. De hecho, los reflejos, los instintos, la
impronta o troquelado y las pautas de acción fija con los que nacen equipados algunos
animales, les sirven para “tomar decisiones” inconscientes ante demandas ambientales sin
ser heurísticos. Veámoslos más de cerca.
El reflejo es una respuesta simple automática e involuntaria ante un determinado estímulo.
Los seres humanos tenemos varios, como el célebre reflejo rotuliano o el reflejo palpebral
(cerrar los ojos cuando repentinamente algo se aproxima a nuestra cara), la erección o la
eyaculación; algunos son reflejos temporales, como el reflejo de succión en el lactante o el
reflejo de Babinski o plantar, que se examina para conocer si el bebé tiene algún problema
en el SNC.
Los instintos consistirían en una pauta de acciones, innata, compleja, hereditaria y dirigida
principalmente a la supervivencia. Se discute si los seres humanos tienen instintos o no;
algunos biólogos defienden que los seres humanos sólo poseen reflejos. Sigmund Freud
defendía que no había instintos, pero sí pulsiones: la pulsión de vida (Lebenstrieb) y la
pulsión de muerte (Todestrieb). En este sentido, la existencia de algunos instintos que se
citan a menudo puede ser discutible, como sucede con el instinto de agresividad o el
higiénico (provocado por la emoción primaria de asco). En cambio parece clara la existencia
de los instintos de supervivencia, de apareamiento o de manada.
Las pautas de acción fija o PAF (Tinbergen y Lorenz), en cambio, consisten en una secuencia
de acciones desencadenadas por un estímulo señal que suceden siempre en el mismo orden
y son comunes a todos los miembros de la especie. Al igual que sucede con los instintos, no
son una conducta aprendida, sino codificada genéticamente. Pero a diferencia de aquellos,
las PAF son una secuencia muy concreta de acciones y no están presentes salvo ante un
estímulo muy concreto. Una vez aparece el estímulo señal que hace de desencadenante, se
llevará a cabo la secuencia de acciones completa. No hay constancia de que los humanos
presenten PAF, pero en el reino animal un ejemplo clásico es el del ganso y el huevo: si un
huevo rueda fuera del nido, el ganso inicia una serie de movimientos estereotipados para
acercar el huevo al nido; lo curioso es que incluso si el huevo vuelve rodando al nido o se lo
acercamos nosotros, el ganso seguirá realizando los movimientos hasta finalizar la pauta de
acción fija.
Finalmente, la impronta o troquelado (Tinbergen y Lorenz) es un patrón de conducta
aprendida durante una etapa crítica. Por ejemplo, los patitos que identifican al primer objeto
viviente nada más nacer como su madre y, por tanto, la seguirán en fila a cualquier parte. Si
en lugar de ver a su madre ven a un cuidador humano, quedarán troquelados por él y lo
seguirán en fila india.
Sea como fuere, tomamos decisiones sobre un conjunto limitado de información y, por
tanto, dicha información es parcial, está sesgada. Algunos autores como Gerd Gigerenzer no
creen que estos sesgos supongan un problema: lo ven como algo positivo. Para él, serían
decisiones basadas en corazonadas, guiadas por una especie de intuición inconsciente, más
visceral que racional; o decisiones a ojo de buen cubero, basadas en un cálculo aproximado
fruto de la experiencia. En este sentido, aunque no sean ni racionales ni precisas, pueden
resultar útiles.
Otro ejemplo sería el de las “preguntas dirigidas” cuando subimos al ascensor o cuando
conocemos a alguien. (“¡Pues ha quedado un buen día, ¿no?”; “Parece que el Atleti está
haciendo una muy buena temporada, ¿verdad?”). En estos contextos, por prudencia,
evitamos temas que pensemos que puedan ser conflictivos, peliagudos. Buscamos ser
amables, educados, incluso cómplices… y quien realiza este tipo de preguntas no busca
información, sino que plantea algo que él considera que tiene una respuesta sencilla y clara,
que no mete en un compromiso al otro, y cuando hace estas preguntas cree que sabe de
antemano cuál será la respuesta de su interlocutor. Precisamente porque cree tener este
conocimiento previo podría pensarse que se trata de un “sesgo de confirmación”, es decir,
podríamos pensar que quien hace este tipo de preguntas sólo busca que el interlocutor
confirme sus propias creencias. Pero esto no necesariamente es así: a menudo no
necesitamos confirmar nada e, incluso, quizás ni siquiera creemos aquello que comentamos;
lo que sí creemos es que es un tema cómodo o agradable para nuestro interlocutor y, de ese
modo, puede verse como una habilidad social que permite el establecimiento de relaciones
personales. No sería, por tanto, un error cognitivo, sino una herramienta útil para el
establecimiento del vínculo social.
En otras ocasiones sucede por ejemplo que, aun no conociendo una ciudad concreta,
evitamos cruzar parques en horario nocturno por el posible peligro asociado a ellos. Es
evidente que si no sabemos nada de esa ciudad concreta, no tenemos datos sobre ese
parque… puede parecer prudente no acercarnos a un parque de madrugada porque son
lugares poco transitados, poco iluminados y, por tanto, propicios para llevar a cabo
determinados actos delictivos. De nuevo, tomar una decisión en ausencia de información
concreta y basados en información parcial y previa de otros parques, es tomar una decisión
sobre información sesgada, pero puede resultar útil.
Otro ejemplo son los refranes: por ejemplo, “cuando el río suena agua lleva”. Este refrán
parece literalmente indiscutible: si un río no lleva agua, no puede sonar. Además, cuando
lleva agua, parece que sonará. Por tanto, parece evidente suponer que si suena es que lleva
agua. Por analogía extrapolamos esa imagen y, si se oyen repetidamente ciertas cosas de X
persona o grupo, nos parece razonable pensar que algo de verdad habrá detrás. De nuevo, la
información es sólo parcial, y tanto las ideas que me forme como las acciones que tome,
estarán sesgadas… pero ¿son irracionales? Es controvertido afirmar que sean totalmente
irracionales, pues a veces pueden resultar prudentes; porque aunque sepamos que la
información es insuficiente, también sabemos que hemos de tomar una decisión.
Y, sin embargo, tampoco podemos decir que son totalmente racionales, porque en muchas
ocasiones nos conducen al error precisamente por haber tomado un atajo y no haber
tomado en cuenta toda la información o haber investigado más.
Pero, además, no sólo hacemos generalizaciones. También nos dejamos llevar por la opinión
de otros. El ser humano es un animal social y coopera. La mutua ayuda y la confianza pueden
resultar muy beneficiosas en algunos contextos. Pero esta confianza tiene un reverso que
consiste en que a menudo las creencias, opiniones, afirmaciones y acciones de los demás
influyen en nosotros más de lo que sería deseable. La psicología social ha estudiado este tipo
de influencias. El experimento de Asch sobre la conformidad (Solomon Asch, 1951-1955), el
efecto Hawthorne (Elton Mayo, 1955), el experimento de Milgram (Stanley Milgran, 1961.
Publicado bajo el título «Behavioral Study of Obedience» en 1963), el efecto espectador o
síndrome Genovese (1964), el efecto Pigmalión o Rosenthal (Robert Rosenthal, 1966) o el
experimento de la cárcel de Stanford (Philip Zimbardo, 1971) son ejemplos clásicos que
veremos en clase.
La conformidad social nos lleva a creer que si muchos creen algo, es más probable que sea
cierto. A este fenómeno se le conoce como efecto de arrastre o bandwagon. La gente se
sube al carro ganador, se apunta a lo que creen los demás. En algunas ocasiones esto
desemboca en un mero oportunismo, como cuando en una competición se empieza a
animar al que va ganando, pero en otras ocasiones se trata de influencia social o
conformidad. Otro efecto de la influencia social similar es aquel por el cual la gente supone
que si una cosa se repite mucho, probablemente será cierta. Quizás no lo dice mucha gente,
pero sí se oye mucho. ¿No será que hay algo de verdad?
Estos sesgos cognitivos son importantes para la psicología o para la sociología, pero más aún
para la economía o para la publicidad… porque los seres humanos tomamos decisiones
vitales, consumistas y comerciales basándonos en ellos. Decidimos sin comprar un coche o el
dentífrico con un conjunto limitado de información, quizás tras ver un anuncio o acudir aun
supermercado. Y decidimos si invertimos una suma de dinero en la compra de un piso, en
criptomonedas o en una empresa emergente como ChatGPT, basándonos en este tipo de
información y conductas sociales ajenas, cercanas y lejanas, quizás influidos por streamers y
otros gurús.
Otro aspecto interesante es que algunos sesgos tienen una causa más puramente cognitiva y
otros una causa más motivacional, emocional, como cuando está presente el pensamiento
desiderativo (wishful thinking), es decir, cuando nuestras creencias descansan más en
nuestros deseos que en nuestra evidencia. Llamamos sesgos en frío (cold biases) a los
primeros y sesgos en caliente (hot biases) a los segundos.
SESGOS EN FRÍO
Entre los sesgos en frío tenemos aquellos que tienen que ver con las limitaciones de nuestro
aparato psíquico y sus capacidades (percepción, memoria, atención, procesamiento,
razonamiento).
Nuestro sistema perceptivo, por ejemplo, es falible y nos puede conducir a errores puntuales
triviales (como cuando no vemos bien a alguien de lejos), pero también a errores
sistemáticos, como ocurre en algunas ilusiones ópticas, que nos hacen percibir la realidad de
un modo distorsionado. Saber que hay una ilusión no impide que sigamos viéndola. Y parece
que realizar juicios o tomar decisiones sobre la base de estas percepciones alteradas
constituiría un ejemplo claro de sesgo.
En este sentido la escuela psicológica alemana de la Gestalt estudió, por ejemplo, algunas de
las leyes o reglas que parecen estar a la base de algunas asociaciones ficticias que hacemos
al percibir objetos. La pareidolia, por ejemplo, consiste en reconocer presuntas formas,
figuras, caras… en objetos que no serían tal cosa. Por ejemplo, en las imágenes a
continuación podemos ver a la izquierda dos enchufes que parecen dos caras sonrientes y a
la derecha una fotografía de la región de Cidonia en la superficie de Marte, que debido a la
orografía del planeta y al juego de sombras provocado por el ángulo de la fotografía y de la
luz que incidía sobre el planeta, hace posible imaginar una cara. Posteriores fotografías no
corroboran la existencia de esa “cara”, pero los conspiranoicos alegan que las nuevas
fotografías están alteradas (uno de los rasgos de las teorías conspiranoicas es la resistencia a
la evidencia contraria).
Por otro lado, la apofenia (de ἀπό (apó), "separar", y φαίνειν (phaínein), "aparecer”) es un
fenómeno similar pero más general, que consiste en ver conexiones o patrones entre
sucesos absolutamente independientes o en un conjunto de datos que no guardan ninguna
relación real. Está relacionada con el error tipo I y con el dragado de datos (p-hacking) que
veremos más adelante. La apofenia es otro de los principales ingredientes en las teorías
conspiranoicas.
El procesamiento de la información también nos conduce a errores que dan lugar a sesgos.
Nuestro sentido común no es muy acertado a veces. Si tomásemos un folio de papel de 0.1
mm de grosor y nos preguntasen, sin conocer la respuesta de antemano, cuánto grosor
alcanzaría si lo doblásemos 50 veces, probablemente muchos responderían a botepronto:
“¿50 milímetros?”. Pensándolo un poco, en seguida nos daríamos cuenta del error: con cada
doblez se va duplicando el espesor… y por tanto no pueden ser esos 50 mm (5 cm). Será un
número mayor, pero si no echamos cuentas y lo calculamos a ojo de buen cubero, ¿cuánto
mayor? ¿1 metro? ¿5 metros? Es poco probable que nuestra respuesta intuitiva sea de 20
metros o más… y, sin embargo, esa respuesta aún estaría ridículamente lejos de la respuesta
correcta. Aunque con 8 dobleces apenas pasaría el medio centímetro de grosor, ya con sólo
22 dobleces sería mucho más alto que las Cuatro Torres de Madrid, con 42 dobleces el
grosor alcanzaría la distancia de la Tierra a la Luna y con 50 llegaría hasta el Sol. Nuestra
intuición no nos dice eso. ¡Ni mucho menos! Pero se equivoca.
Un caso similar es el de la leyenda del ajedrez, según la cual el rey de un país de oriente
quedó maravillado con el juego recién inventado y le concedió a su creador que pidiera un
deseo como agradecimiento. El inventor le hizo una petición aparentemente sencilla y
humilde: un grano de trigo/arroz por la primera casilla, dos por la segunda, cuatro por la
tercera, ocho por la cuarta… y así, en las 64 casillas del tablero. El rey accedió de inmediato
gustoso. Probablemente él no sabía que un kilo de trigo hay unos 20.000 granos, pero de
haberlo sabido, la petición del inventor del ajedrez le habría parecido aún más modesta o
ridícula. Lo que ni sabía ni podía imaginar es que no había suficientes granos de trigo en
todos los graneros del reino para satisfacer la petición de su invitado. Aún más: se ha
calculado que, aún juntado toda la cosecha mundial actual, harían falta unos 1200 años para
satisfacer la petición de trigo. Esta es la precisión de nuestra intuición. Bastante aceptable
con cantidades pequeñas, pero enormemente torpe con cantidades grandes.
Otro ejemplo de nuestro cálculo erróneo habitual se manifiesta cuando realizamos
estimaciones estadísticas que, en muchos casos, son absolutamente desacertadas, como
sucede en el sesgo de la negación de la ratio base (ver vídeo sobre teorema de Bayes).
Veamos un ejemplo: acudimos al médico a recoger unos resultados de unas pruebas
rutinarias y nos dicen que hemos dado positivo para una grave enfermedad. Le preguntamos
al médico si la prueba es fiable y nos dice que la prueba tiene sólo un 1% de error. Lo más
probable es que nos asustemos y creamos que estamos gravemente enfermos con un 99%
de seguridad. Pero esto no es así, ni mucho menos. Para calcular esa probabilidad habría que
tener también en cuenta la probabilidad de base o probabilidad inicial de que alguien al azar
pueda tener esa enfermedad, y cuántos se han hecho el test. Es decir: hay que conocer la
incidencia de la enfermedad en la población general y cuántos test se han hecho. En nuestro
ejemplo, supongamos que la enfermedad es una enfermedad rara que la tiene, según los
datos epidemiológicos que tenemos, 1 persona de cada millón de habitantes en promedio.
Aún si el médico nos intentase tranquilizar ofreciéndonos ese dato, lo más probable es que
pensásemos: ¡Qué desgracia! ¡Qué mala suerte tengo…! ¡Mira que ser yo una de las
poquísimas personas con esa terrible enfermedad! ¿Por qué yo? Pero en lugar de eso,
deberíamos pensar que si la población de Madrid tiene 5 millones, habrá sólo unas 5
personas con esa enfermedad en Madrid. En cambio, si todos los madrileños se hacen la
prueba, como hay un 1% de errores, habrá aproximadamente un 1% de falsos positivos de
entre los 5 millones de tests… es decir, ese 1% se traduce en: 1 de 100, 10 de 1.000, 100 de
10.000, 1.000 de 1 millón y 5.000 de 5 millones. Pero entonces, si al hacer la prueba a los 5
millones de madrileños, 5.000 dan positivo y sabemos que sólo unas 5 personas están
realmente enfermas… ¿qué probabilidad hay de que, habiendo dado nosotros positivo,
estemos realmente enfermos? Pues sabemos que los enfermos son aproximadamente 5,
pero los positivos han sido 5.000. ¿Entonces? Bueno, entonces los verdaderos enfermos son
5 de esos 5000 positivos. O 1 de cada 1000… y eso es un 0,1%, no un 99% como pensamos
inicialmente. Como vemos, nuestras estimaciones estadísticas son lamentables a veces y
esto produce sesgos fatales al valorar la evidencia.
También resulta llamativo por sus efectos el sesgo cognitivo por el cual tendemos a tomar en
cuenta sólo las acciones, valores o creencias exitosos. Este sesgo se conoce como sesgo de
supervivencia o del superviviente. Según el ejemplo clásico, los aviones de los aliados sufrían
durante la Segunda Guerra Mundial notables bajas por la superioridad técnica y táctica de
los aviones de la Luffwafe alemana. Ante la necesidad invertir las tornas, se pensó en
reforzar los aviones sin comprometer excesivamente el peso (y con ello la velocidad y
maniobrabilidad). Para ello se realizó un estudio de los aparatos y se hizo un croquis con las
zonas más dañadas de los aviones aliados tras los combates aéreos. La decisión era clara:
reforzar las alas delanteras, las traseras y parte del fuselaje, que eran las zonas más dañadas.
Sin embargo, el matemático austríaco de origen judío Abraham Wald, emigrado a EEUU por
la persecución nazi, hizo una interpretación absolutamente distinta de los datos que
descolocó a los ingenieros: ¿dónde estaban los balazos de las zonas sin dañar? Según él, esos
balazos estaban todos en los aviones caídos en combate que no habían regresado. Por ello,
esas zonas se revelaban como más vitales y, por tanto, eran las zonas a reforzar: morro,
motores y cabina. Ellos se estaban fijando, equivocadamente, en los aviones que, a pesar de
recibir balazos, eran capaces de regresar y, por tanto, no habían sufrido daños en ninguna
zona crítica. Por desgracia, después de haber ayudado a mejorar los aviones del bando
aliado que contribuyeron a ganar la guerra, Abraham Wald moriría pocos años después
irónicamente en un accidente aéreo cuando iba a dar una conferencia en la India.
Este sesgo es muy habitual: nos centramos sólo en los supervivientes, en los exitosos, sin
tomar en cuenta a todos aquellos que fracasan y desparecen o dejan de contabilizarse… y
que, al no estar en la muestra, resultan invisibles. Por tanto, este sesgo es un tipo de sesgo
de disponibilidad: al tener mucho más disponibles los datos exitosos, queda totalmente
sesgada la muestra total inicial. Esto sucede, por ejemplo, cuando se examinan las presuntas
fórmulas mágicas del éxito estudiando a gente “exitosa” como Amancio Ortega para intentar
luego aplicar esa fórmula y replicar el éxito empresarial. Pero el hecho de que Amancio
Ortega tuviese éxito al hacer esto o lo otro, no implica que no haya otros muchos que,
haciendo lo mismo, hayan fracasado. Replicar esas acciones nos puede llevar a nosotros
también al fracaso, como les llevó a todos aquellos que han quedado en el olvido.
Otro ejemplo es el siguiente: en tiempos de crisis mucha gente poco cualificada pierde su
puesto de trabajo; los más cualificados suelen tener menos problemas de desempleo,
aunque a veces reciben salarios más bajos. Sin embargo, aunque todos ganasen menos, el
salario medio puede aumentar. ¿Cómo es esto posible? Imaginemos que en una empresa
hay 15 obreros y 5 capataces. El suelo de los obreros es de 1.000 euros y el de los capataces
3.000 euros. En total los 20 asalariados cobran 30.000 euros, es decir, un salario medio de
1500 euros. Si una crisis lleva al paro a 10 obreros y 1 capataz y, además, a los que
mantienen su puesto de trabajo se les rebaja el salario en 200 euros, tendríamos 5 obreros
cobrando 800 euros y tres capataces ganando 2800. Ahora, los 8 trabajadores cobrarían
juntos (800*5)+(2800*3), es decir, 12.400 euros, de modo que a pesar de que todos cobran
200 euros menos, el salario medio habría aumentado a 1.550. La causa es que no se tiene en
cuenta en el cálculo los puestos de trabajo que desaparecieron con la crisis.
Esto nos enseña que la media del salario no es una buena medida para evaluar la marcha de
la economía en tiempos de crisis, cuando queremos valorar los efectos de ésta. Sin embargo
a veces se utiliza… en unas ocasiones, de modo inconsciente y con sorpresa ante los
resultados… y en otras ocasiones, con total conocimiento de las causas e intenciones
electorales ocultas para manipular a la opinión pública.
Pero son dos proposiciones absolutamente distintas y los datos apuntan a que (a) es
absolutamente cierta mientras (b) es obviamente falsa. Hacerlas pasar por equivalentes viola
un principio lógico evidente, al invertir antecedente y consecuente en la implicación. Y sin
embargo, a menudo se comete este error lógico… unas veces por estupidez, otras por
torpeza y muchas otras por maldad e interés, pues sirve como argumento para desacreditar
de un modo bastante cutre, pero efectivo, a los movimientos feministas… y para que algunos
hombres se presenten como víctimas del sistema, de la conspiración hembrista o de
movimientos feminazis, y acusen a quienes usan el argumento (a) de estar defendiendo el
argumento (b).
Esto puede extrapolarse a los errores lógicos y/o manipulación respecto de otras muchas
cuestiones, como los argumentos animalistas, ecologistas, vegetarianos, y de muchas otras
causas minoritarias.
Más adelante veremos cómo lo que podría parecer sólo un mero error cognitivo y, por tanto,
un sesgo cognitivo en frío al procesar la información y/o una falacia lógica cuando se
argumenta valiéndose de ello, se convierte otras veces en un uso malintencionado con el
claro propósito de engañar o desinformar y, por tanto, en una falacia que no revela un error
en el hablante, sino un intento de manipular al oyente. El problema entonces no es sólo
lógico, sino ético.
SESGOS EN CALIENTE
Hay muchos otros errores cognitivos en frío que no podemos pararnos a examinar. Basten
los anteriores como muestra. Por supuesto, en otros casos hay causas emocionales (pánico,
asco, rabia, ira, amor, despecho, angustia, etc.) que pueden nublar nuestro juicio y, por
tanto, provocar que no tomemos en cuenta todo lo que deberíamos y que la información
quede sesgada. Estos sesgos en caliente tienen un trasfondo motivacional pero, a menudo,
inconsciente.
Entre los mecanismos que los provocan destaca, por ejemplo, la disonancia cognitiva.
Cuando dos cogniciones (por ejemplo, dos creencias o una creencia y un deseo), entran en
conflicto, y además se trata de algo de vital importancia para el sujeto o algo para lo que ha
invertido mucho, la tensión entre ambas puede resultar insoportable para el sujeto. En
algunos casos, la tensión puede llegar a suponer una amenaza que ponga en peligro la
equilibrio psíquico del sujeto y resulte especialmente dolorosa; en tal caso, es probable que
éste comience a sesgar la evidencia para favorecer sólo aquella que apoya lo que desea que
sea el caso: por ejemplo, que su hijo no se droga, que el tumor que tiene por fumar a pesar
de las advertencias médicas no le va a matar, que la casa en la que ha invertido todos sus
ahorros por una corazonada no es una ruina o claramente peor que otra que estaba la venta,
o que la secta en la que ha ingresado no le ha timado como a un tonto para hacerse con su
dinero. Leon Festinger estudió este fenómeno y en algunos de esos casos los mecanismos
involucrados en esos sesgos, dan lugar a unas creencias y conductas increíbles.
Otro sesgo típico es el conocido como efecto Forer o Barnum. En este caso, los sujetos
suelen tender verse identificados fuertemente con descripciones muy vagas o generales.
Este tipo de sesgo explica, en parte, por qué la gente cree en el horóscopo o el tarot. Lo
incluimos entre los sesgos en caliente porque a menudo se ve reforzado por carencias
emocionales: búsqueda de sentido de la vida, pérdidas familiares, rupturas amorosas, etc. En
estos casos, el componente “caliente” o motivacional del sesgo está muy claro.
El efecto Dunning-Kruger consiste en que gente con muy poca habilidad para realizar
algunas tareas suele sobreestimar su capacidad y, por el contrario, gente con bastante
capacidad suele subestimarse. Este efecto parece funcionar, en ambos casos, como una
protección psicológica ante los efectos emocionales del posible fracaso: en los que el fracaso
parece seguro e inevitable, lo intentar negar… y en quienes parece imposible o muy pocok
probable, parecen darle credibilidad para rebajar expectativas y con ello evitar decepcionar
a lo grande a quienes esperan un éxito seguro de ellos.
Como vemos, algunos de esos efectos son sesgos que tienen claramente una explicación
psicológica.
Otros sesgos que están a medio camino entre los sesgos en frío y los sesgos en caliente
(porque habría que valorar en qué medida el sujeto necesita emocionalmente
autoafirmarse, por ejemplo), son aquellos que tienen que ver con la tendencia a buscar sólo
o principalmente información que confirme las propias creencias (sesgo de confirmación), la
tendencia a interpretar como favorable información que es ambigua (sesgo de autoservicio),
la tendencia a creer que los demás están de acuerdo con uno mismo (sesgo de falso
consenso), o la tendencia a creer que algo malo que ha sucedido, en realidad uno ya lo sabía
(sesgo retrospectivo) o creer que podría haberlo evitado (sesgo de ilusión de control). A
veces esto último está motivado por un sentimiento de culpa y de responsabilidad.
En definitiva, lo que desde cierto ángulo puede parecer un heurístico (un atajo, una ayuda),
como por ejemplo el llamado heurístico de disponibilidad (tomamos más en cuenta la
información más cercana y disponible en lugar de buscar mucha información y buscarla
lejos), fácilmente puede interpretarse desde otro ángulo como un sesgo cognitivo, o da lugar
a que se produzca un sesgo cognitivo.
Por ejemplo, la primera evidencia resulta, a menudo, muy importante. En muchas ocasiones
nos formamos creencias por una primera impresión. ¿Esto es un atajo que tomamos para
tomar una decisión rápidamente porque es urgente (heurístico) o es un error cognitivo que
nos lleva a futuras equivocaciones (sesgo)?
Hay dos efectos relacionados con esta primera evidencia. El llamado efecto de anclaje,
según el cual, solemos tomar los primeros datos como datos más importantes que los
siguientes; de alguna manera, esos primeros datos provocan un juicio inicial que ejerce de
“ancla”, fijando la opinión o tomando una decisión: por ejemplo, nos gusta un coche y ya no
atendemos a más razones o las minimizamos. El efecto halo se refiere a que a veces, una
característica muy prominente nos hace ver después el resto de cosas bajo ese halo: si era
positiva, tendemos a centrarnos en las positivas y minimizar las negativas… y viceversa. Esto
puede verse claramente cuando conocemos a una persona que nos atrae mucho; de hecho,
el atractivo físico es la característica que mayor efecto halo ha mostrado en diversos
estudios. Ambos efectos pueden actuar conjuntamente: queremos comprar una casa y al
comenzar a ver viviendas vemos una que nos gusta bastante. Probablemente esa primera
impresión va a funcionar como ancla, haciendo que veamos otras casas con menos
entusiasmo o interés o directamente pasemos de ver más. Pero, al mismo tiempo, si la
primera casa tenía una característica muy buena, probablemente vayamos a minusvalorar o
despreciar sus defectos y los posibles inconvenientes que vayan surgiendo e vamos
interpretar todo de un modo más favorable de lo que cabría pensar por ese efecto halo.
LA LÓGICA Y LAS FALACIAS
Como ya hemos visto en el tema anterior, los argumentos pueden ser válidos o inválidos,
fuertes o débiles, convincentes o no convincentes, pero no verdaderos o falsos.
Se puede decir que es verdadera o falsa una proposición o una oración como “hoy es
martes”, “el césped es rojo” o “Toni Kroos es alemán”. Ya veremos, en el próximo tema, qué
significa que algo sea verdad. Hay diferentes teorías acerca de la verdad… pero un
argumento no es ni verdadero ni falso.
Decimos que es válido si presenta una relación de entrañamiento entre premisas y
conclusión; esta es una relación tal que, si las premisas son verdaderas, entonces la
conclusión ha de serlo también necesariamente. Dicho de otro modo: hay una relación
deductiva entre premisas y conclusión.
Decimos que un argumento es fuerte cuando, a pesar de no ser deductivamente válido, sí
está fuertemente apoyado por la evidencia disponible. En este caso, hay una relación
inductiva fuerte entre premisas y conclusión. Esto es importante porque hay argumentos
inválidos que son muy fuertes. Y, en muchas ocasiones, es imposible alcanzar una certeza
absoluta, precisamente debido al conocido problema de la inducción. Pero en nuestra vida
funcionamos muchas veces con creencias apoyadas en inducciones fuertes y no en
deducciones, y estas creencias inductivas son útiles y racionales. Es decir: en muchas
ocasiones la racionalidad no exige certeza, sino sólo un apoyo razonablemente fuerte.
Precisamente esto introduce otro asunto, que es la pragmática: a veces ni siquiera
necesitamos saber si el argumento es apoyado o no por la evidencia y sólo necesitamos que
el argumento sea útil. Hay argumentos que, a pesar de no ser válidos ni fuertes, resultan
convincentes. Es decir, al escucharlos nos parecen correctos, nos persuaden, nos convencen.
Sin embargo, a pesar de tener apariencia de ser válidos, o de ser fuertes, no lo son.
En el ámbito de la Lógica, que estudia los argumentos, hay un apartado que se centra en el
estudio de las estrategias o estratagemas para tener razón o, al menos, para que los demás
así lo perciban. En cierto modo, es el estudio de los métodos que se emplean para convencer
al rival, para derrotarle, aún cuando aquel que venza en la discusión no se haya acercado a la
verdad. Para conseguirlo se intentan apuntalar las propias opiniones y socavar las del rival
hasta invalidarlas, para desacreditarle.
Esta disciplina se conoce como erística, y se desarrolló en el siglo IV a. C., principalmente con
los sofistas. Estos creían que la verdad era inalcanzable (como lo mostraba el hecho de que
los presocráticos llevaban dos siglos discutiendo acerca del arjé sin llegar a ninguna
conclusión segura). Eran relativistas e incluso escépticos, y se valían de la retórica y la
oratoria para convencer. En este contexto el estudio de las falacias, tanto las formales como
las informales, es útil para nosotros respecto a dos objetivos: uno, evitar ser presa de
charlatanes y evitar que cualquiera nos persuada con argumentos erróneos y/o
malintencionados; dos, para ser capaz de hacer uso de ellos nosotros para vencer en una
disputa. Es obvio que el primer objetivo es más ético que el segundo.
Llamamos falacia al argumento mal construido, bien porque es inválido y por tanto la
verdad de las premisas no implica la verdad de la conclusión (falacia formal) o bien porque
comete algún tipo de error material (falacia informal). En ambos casos, los argumentos
pueden parecer convincentes e, incluso, muchas veces son utilizados sin conciencia de que
son erróneos. En cambio llamaremos sofisma, precisamente, al argumento erróneo con
apariencia correcta que es utilizado con la intención de engañar.
Las falacias formales son argumentos que tienen una forma que pretende ser válida y que,
sin embargo, no lo es. Ejemplos de ello son: la falacia de afirmación del consecuente, la
falacia de negación del antecedente, el silogismo disyuntivo falaz o la negación falaz de la
conjunción. En estos casos, la verdad de las premisas no asegura la verdad de la conclusión y
ya las estudiamos en el tema anterior.
Llamamos falacias informales a aquellos argumentos en los que no es la forma sino algunas
cuestiones de tipo material las que hacen que la verdad de las premisas no asegure la verdad
de la conclusión. Nos referimos a cuestiones que se refieren al contenido o al contexto, al
significado de las palabras que se emplean, o al modo en el que atribuimos verdad o
falsedad a alguna de las proposiciones. Podríamos clasificar las falacias informales en tres
grandes grupos:
Falacias de ambigüedad: se aprovechan dobles sentidos, términos vagos, etc.
Falacias de cantidad (o de falta de datos): se sacan conclusiones sin suficientes datos.
Falacias de relevancia o irrelevancia: se apela a cuestiones que nada tienen que ver con lo
que se pretende demostrar.
FALACIAS INFORMALES
Falacia por anfibología. Se vale de la ambigüedad de una oración, bien porque haya un
término ambiguo o porque haya una interpretación ambigua de la oración completa.
Ejemplos del primer caso serían estos dos:
Soy alérgico a los gatos y no puedo tenerlos cerca sin tener una reacción alérgica muy
fuerte. Resulta que hoy mi coche ha tenido un pinchazo y, como había que sacar el gato
para levantar el coche, estoy aquí parado esperando a la grúa.
Hombres y mujeres no son iguales, por lo que no necesariamente han de tener iguales
derechos.
En el primer ejemplo, se emplea la palabra “gato” con dos significados y en cada caso se
refiere a algo distinto, al animal y a la herramienta. En el segundo ejemplo, no hay dos
significados del término “igual”, pero la igualdad sí se refiere a cosas distintas: en el primer
caso a cuestiones biológicas como la anatomía, la resistencia o la fuerza, y en el segundo a
cuestiones legales, como los derechos y deberes. En el tercero, “causar heridas” significa lo
mismo literalmente, pero son dos contextos distintos.
Un subtipo de esta falacia es lo que se ha llamado falacia de reserva y que puede resumirse
como “el que calla otorga”. Es obvio que este argumento es falaz, porque uno puede no
querer entrar en un debate por diferentes motivos, como la agresividad del otro o
considerar que el asunto es un caso perdido o que el interlocutor es absolutamente idiota; y
no por ello está dándole la razón a su oponente. Y, por supuesto, la ausencia de evidencia no
es evidencia de ausencia.
Una variación de lo anterior es la falacia que consiste eludir la carga de la prueba: esta es
una falacia muy habitual en la que se afirma algo, pero no se ofrecen pruebas y se evita
hacerlo. Por ejemplo: “Es un libro tan malo que no voy a molestarme en ofrecer motivos”.
Esto no es un argumento. Incluso si es un libro de Fernando Savater, habría que ofrecer
algún motivo.
Cuando se comete es esta falacia se hace una mera afirmación, sin argumentar nada. Y no
ocurre nada por afirmar cosas: la falacia no reside en hacer esta o aquella afirmación, sino
en pretender que pase por argumento. Del mismo modo, acusar a alguien sin pruebas es una
falacia: “usted es tan incompetente que es evidente por sí mismo” o “usted ha de abandonar
su puesto en la política porque ha engañado al pueblo y no pienso rebajarme a dar más
explicaciones”.
Respecto a lo anterior, es interesante subrayar algunas cuestiones. Observemos el siguiente
argumento:
En realidad, en el ámbito legal se considera que la carga de la prueba (onus probandi) reside
en quién acusa y esto es así por dos principios. Uno, ontológico y otro lógico. El llamado
principio ontológico (quizás debería llamarse antropológico en realidad) considera que el ser
humano no suele cometer delitos; que cometa un delito es la excepción y, por tanto, ha de
considerarse al acusado como inocente de entrada, y corresponde a quien acusa el
demostrar aquello que afirma (es lo que se conoce como presunción de inocencia).
El principio lógico nos indica es que es más sencilla la demostración de hechos positivos que
de hechos negativos. Por ese motivo, es más fácil demostrar que alguien hizo algo que
demostrar que no lo hizo. Esto se resume en la máxima jurídica según la cual has de probar
lo que dices, no lo que niegas (probat qui dicit non qui negat). Ambos principios determinan
que la carga de la prueba recaiga habitualmente en quien acusa. Por ello, en los estados
modernos casi nunca se le pide al acusado que demuestre su inocencia, porque esto
implicaría una inversión de la carga de la prueba. Al acusado se le considera inocente hasta
que se demuestra lo contrario y es labor de quien acusa demostrar suficientemente, fuera
de toda duda, que el acusado es culpable. Como es natural, el acusado puede defenderse de
la acusación y aportar pruebas, pero la carga de la prueba recae sobre quien acusa.
Esta carga sólo queda desplazada en algunos casos puntuales como cuando, por ejemplo, un
guardia civil nos acusa de haber cometido una infracción. Dado que el guardia civil es una
autoridad, tiene presunción de veracidad y, por tanto, la carga de la prueba queda
desplazada hacia el acusado.
Tampoco está la carga de la prueba invertida cuando se toman medidas cautelares, como
quitarle el pasaporte a un criminal peligroso que puede huir (si tiene motivos y medios) o
mantener en el calabozo a un presunto violador o agresor en casos graves de violencia de
género, en espera de un juicio o al menos de asegurar el realojo y la protección de la
presunta víctima. Estas medidas tienen el objetivo de preservar un bien mayor y, por tanto,
no suponen la pérdida de derechos del acusado en general, ni la pérdida de la presunción de
inocencia en particular, ya que cuando llegue el momento, tendrá derecho a un juicio justo
donde la carga de la prueba recaerá en la acusación.
Falacia del hombre de paja: Se comete esta falacia cuando en el debate con tu interlocutor
reexpones su argumento pero totalmente desfigurado y, por supuesto, debilitado. A
continuación, procedes a destrozar esa caricatura, ese hombre de paja que has creado y que
es ridículo. Lógicamente constituye una falacia porque no estás respondiendo a tu
adversario, sino a otra cosa. Este tipo de argumentos son muy utilizados en la política (y en
las relaciones de pareja).
Falacia ad populum (apela al pueblo): Esta falacia consiste en afirmar que algo es verdadero
o correcto porque mucha gente lo dice o lo cree. San Agustín, por ejemplo, afirmaba que
una prueba de la existencia de Dios era que todos los pueblos han llegado a esa misma
conclusión y tienen sus deidades. Tal coincidencia no puede ser mera casualidad.
Esta falacia se parece a la falacia de autoridad, aunque en esta ocasión la presunta fuente de
credibilidad vendría dada por el amplio número de personas que sostienen algo. Esta falacia
se ve favorecida por el sesgo de falso consenso y el efecto de arrastre anteriormente
mencionados. Imaginemos que alguien afirmase que la Tierra es esferoide porque casi todo
el mundo lo cree así. Como es evidente, el hecho de que la Tierra sea esferoide o no, o de
que sea plana o no, no depende de que un número mayor o menor de gente lo crea. A lo
largo de la historia la sociedad ha creído muchas cosas que hoy sabemos que son falsas e
incluso nos parecen ridículas.
En cambio, en algunas ocasiones la opinión de la mayoría sí puede resultar relevante para
establecer la verdad de algo. Por ejemplo, si mucha gente se sienta atraída por un actor de
cine, podremos afirmar que el actor es muy atractivo y apelar para justificarlo a que mucha
gente así lo cree. Precisamente porque la definición de ser atractivo consiste en atraer. Y ser
muy atractivo, en atraer mucho o a muchos. En este caso, también se trataría de un
argumento ad populum, pero no sería una falacia. Es decir: siempre que para establecer la
verdad de algo apelamos a que mucha gente o la mayoría lo sostienen, estaremos ante un
argumento ad populum. No todos estos argumentos ad populum constituyen una falacia…
pero algunos de ellos sí: cuando la opinión de la gente no es relevante para la verdad de la
cuestión. De nuevo, esta falacia es un subtipo de las falacias de relevancia.
Ad passiones: Esta falacia es bastante habitual, porque apela a algo muy profundamente
arraigado en el ser humano y que, además, sabemos que puede llegar a nublar el buen juicio
de nuestros adversarios, espectadores, jurado o población diana. La falacia consiste en tratar
de tocar la fibra sensible, apelando a emociones como la ira, la rabia, la compasión o el
amor. Se busca convencer al oponente de nuestra postura o de ridiculizar la suya, alterando
a nuestra audiencia. Como hemos visto, esto desencadena algunos mecanismos psicológicos
que alteran nuestra capacidad para buscar evidencia, sopesarla y evaluarla.
Otro ejemplo de falacia ad passiones es la llamada Reductio ad Hitlerum que se vale del
comprensible rechazo y odio hacia la figura de Adolf Hitler, para acusar a cualquier
argumento rival de hitleriano o nazi. Decir que algo “es muy nazi” supone una falacia porque
no argumenta nada per se y sólo busca introducir una pasión fuerte y negativa vinculada a
las ideas del oponente.
Es obvio que puede haber ideas, conductas o argumentos cercanos al nazismo, al
supremacismo, al exterminio… y en esos casos, calificarlo de nazi y argumentar por qué eso
es así, no sería una falacia. Quizás se podría acusar a estos argumentos de anacrónicos, de
imprecisos, pero no de falaces. Lo que es una falacia es buscar el golpe de efecto para
provocar esas emociones, sin argumentar nada más allá de la mera colocación de la
etiqueta.
Falacia del falso dilema: Consiste en presentar dos alternativas enfrentadas cuando esas
opciones no están realmente confrontadas o cuando en realidad hay más de dos opciones,
que se ocultan al oyente. Al hacerlo se crea un falso dilema. En el primer caso, porque se
enfrentan cosas que no tendrían por qué estar enfrentadas. En el segundo caso, porque se
están ocultando parte de las opciones al adversario o al público para obligarle a elegir solo
entre dos. En algunas ocasiones, además, una de las alternativas que se ofrece es tan
grotesca, que se está forzando al adversario a escoger la que deseamos que escoja. O una de
ellas es tan claramente deseable, que no hay debate.
Un ejemplo reciente fue la campaña política que decía: “Comunismo o libertad”. Aquí se
comete la falacia con todos los ingredientes posibles. En efecto, para que esa campaña no
hubiese sido una falacia de falso dilema como una catedral, habría que:
1. Demostrar que el rival político era comunista.
2. Demostrar que la propia postura (y no la del rival) conlleva libertad.
3. Definir qué es la libertad, qué tipos hay, cuál es el que elegimos nosotros y por qué.
4. Mostrar por qué el comunismo no es compatible con la libertad.
5. Explicar por qué sólo se contemplan dos opciones en el eslogan, cuando realmente
concurrían varios partidos más a esas elecciones.
Falacia de la pista falsa (falacia del arenque rojo): Consiste en exponer un argumento que
no tiene absolutamente nada que ver con lo que se está debatiendo. A veces se emplea para
no responder al adversario. Otras veces, para cambiar de tema en previsión de que salga
algo que no se desea. Y en otras, para lanzarle un anzuelo a ver si pica. En todo caso supone
un tipo de falacia “non sequitur”, porque lo que argumenta quien comete este tipo de falacia
no se sigue de lo anterior. Está desconectado, no es relevante, solo pretende confundir.
Falacia de la pendiente resbaladiza: Consiste en dar por supuesto que la adopción de una
idea, de una conducta o de una medida, conllevará una serie de efectos en cascada. Esto a
veces es verdad y puede suceder, pero otras veces no es así. Cometemos esta falacia cuando
sacamos conclusiones del argumento de nuestro adversario que van más allá de lo que él
dice y que, además, están injustificadas… para posteriormente atacar estas consecuencias.
Esta falacia es similar a la falacia del hombre de paja en el sentido de que no se responde al
verdadero argumento del oponente, sino a otro creado por el propio interlocutor, pero este
argumento no desfigura, sino que simplemente saca conclusiones precipitadas e
interesadas, por lo que guarda cierta semejanza con la pista falsa.
Supongamos que estamos defendiendo el uso medicinal de la marihuana y nuestro
adversario nos responde:
Bueno, si defiendes el uso terapéutico de la marihuana basándote en que el control del dolor
y el bienestar del paciente es lo primero, entonces ¿por qué no permitir el uso de morfina,
ketamina y otra drogas más duras? Estas también calman el dolor. Pero resulta que si se
permite el uso de drogas duras en el ámbito hospitalario probablemente esto dará lugar a
que también se puedan usar de modo ambulatorio y, por qué no, finalmente en el
tratamiento domiciliario, cuando se le dé el alta al paciente. Porque estos pacientes también
pueden tener dolor. El problema es que no se ve muy bien cuál va a ser el criterio para
distinguir entre los que sufren genuinamente por una enfermedad crónica y dura como el
cáncer y otros pacientes que sufren crónicamente durante años como los pacientes
depresivos y con diferentes trastornos. Pero llegados a ese punto, no parece descabellado
que si la ketamina o la morfina son de uso terapéutico extendido, la heroína pueda parecer
no tan mala y, por supuesto, la cocaína será el menor de los problemas. ¿Realmente estás
defendiendo que la cocaína o MDMA esté al alcance de nuestros hijos y sea de uso común
entre los adolescentes?
Está probado que Alain Prost es francés y es un chulo; Laurent Fignon es francés y es un
chulo; Richard Virenque es francés y es un chulo; Eric Cantona es francés y es un chulo. Por
tanto, los franceses son unos chulos.
Quizás la conclusión sea correcta, pero el modo de obtenerla es totalmente irregular. Si bien
toda generalización puede suponer un error incluso cuando tiene una base evidencial muy
grande, al menos en esos casos puede resultar razonable dar el salto desde un punto de
vista inductivo. Pero cuando hay pocos casos está totalmente injustificada inductivamente y,
por ello, la generalización es apresurada. Y falaz.
Cuando se sacan conclusiones acerca de poblaciones relativamente minoritarias (en España,
típicamente gitanos, rumanos, búlgaros, peruanos…) a partir de la publicación de algunos
casos puntuales de delitos, se está haciendo una generalización apresurada y el argumento
es falaz. Y peligroso sociológicamente, porque puede generar recelos, miedos, odios,
tensiones y enfrentamientos que, además, pueden enquistarse y generar, ahora sí,
problemas reales.
Apelar a la Naturaleza: Consiste en afirmar que lo natural es bueno y deseable (y, a sensu
contrario, lo artificial es perjudicial). Aquello que no es natural se tilda despectivamente de
“artificial”, “químico”, “artificioso”, etc. Como es evidente, esto constituye una falacia
porque hay cosas naturales que son peligrosas, como algunas setas, venenos y
enfermedades, y hay otras cosas que, siendo artificiales, han salvado miles de vidas, como
muchos medicamentos (p. ej. Los antirretrorivales contra el VIH o la quimioterapia) o las
vacunas; o han mejorado la calidad de diagnóstico (rayos X, resonancia magnética, TEP, etc.)
han mejorado las intervenciones médicas (anestesia), o la vida en el día a día (prótesis,
antidepresivos, antipsicóticos, etc.). Los medios de transporte que acercan y conectan a
personas, la computación, la encriptación, internet, la wifi, o las IA que con el Big Data son
capaces de encontrar tratamientos novedosos o nuevos antibióticos como la halicina. O
elementos de protección (el casco, el chaleco salvavidas, los cinturones de seguridad, etc.).
Sin duda lo natural puede ser bueno y saludable. Una excursión por las montañas, el aire
puro, los productos de granjas pequeñas o los caseros; durante los últimos años se ha
abierto el debate sobre los productos transgénicos: modificados genéticamente para
soportar plagas, climas o suelos poco adecuados, etc. pero el desarrollo de la técnica de
edición genética CRISPR nos traerá pronto trigo sin gluten (noqueando los genes que
codifican las gliadinas) del que se beneficiarán millones de celíacos. Está claro que, por
ejemplo, el parto natural puede ser gratificante en algunos casos y es posible que tenga
algunos beneficios para el recién nacido, pero los partos mediante cesárea son necesarios a
veces y la epidural ha conseguido una enorme mejora en la calidad de vida de muchas
parturientas.
Falacia naturalista: Aunque puede ser confundida con la anterior, la falacia naturalista se
refiere a una importante crítica del filósofo empirista escocés David Hume, que afirmó que el
paso del ser al deber ser constituye un salto ilegítimo y, por tanto, es una falacia cuando se
emplea como argumento. A esta tesis humeana se va a oponer la tesis de Leibniz, para quien
el presente mundo sería el mejor de los mundos posibles; se opone porque esta teoría,
conocida a veces como optimismo metafísico, defiende que Dios, en su suma bondad, ha
creado el mejor de los mundos posibles. En este sentido, lo que existe es lo que debe existir.
Leibniz da un salto del ser al deber ser. Dos siglos después, el filósofo del romanticismo
alemán Hegel afirmará que todo lo real es racional y todo lo racional es real, dejando claro
que si algo existe, debe existir (porque es racional que exista). Hume se oponía a esto. Él
consideraba que había muchas cosas que existían pero no debían existir y dar el salto desde
la ontología (existe) hasta la ética (debe existir) es un salto ilegítimo. En cierto modo, esta
falacia está a medio camino entre la falacia ad antiquitatem (apelar la tradición) y la que
apela a la Naturaleza (que porque algo es natural, es bueno).
Falacia de la conjunción: Consiste en creer que es más probable que ocurra una conjunción
de eventos que cada evento por separado. Veamos esto con un ejemplo ya clásico. Los
célebres autores de los primeros estudios de los heurísticos y atajos mentales Tversky y
Kahneman nos dicen lo siguiente:
Linda tiene 31 años de edad, es soltera, inteligente y muy brillante. Se especializó en filosofía.
Como estudiante, estaba profundamente preocupada por los problemas de discriminación y
justicia social, participando también en manifestaciones anti-nucleares.
¿Qué es más probable?
A. Linda es una cajera de banco.
B. Linda es una cajera de banco y es activista de movimientos feministas.
El 85% responde B. Sin embargo, B presenta una conjunción y precisamente por eso es
menos probable, porque es más restrictiva: tienen que darse más cosas para que B sea
correcta que A, ya que los miembros del conjunto B están incluidos en el conjunto A.
Si B es correcta, también será A… en cambio si A es correcta, B no tiene por qué serlo. Dicho
de otro modo: A es más probable que B, porque se cumple siempre que se cumple B y,
además, puede cumplirse en otros casos. Hay razones psicológicas para caer en esta trampa,
pero es un error palmario.
A
Formalmente es válido porque si la premisa A es verdadera, necesariamente será verdadera
la conclusión A. Todo argumento con esta forma es válido y, por tanto, formalmente es
impecable. “Hoy es martes; por tanto, hoy es martes”. El problema es que no me convence
de que sea martes; quizás hoy sea miércoles o viernes. Por tanto, el problema es material,
no formal.
Ahora imaginemos que queremos debatir si el aborto es ético. Si alguien quisiese defender
que sí lo es, no debería utilizar el siguiente argumento: “El aborto es totalmente ético; por
tanto, el aborto es totalmente ético”. Diríamos que está presuponiendo aquello que quiere
demostrar. Es decir, que la conclusión presupone la premisa o, en términos más técnicos, se
dice que “el argumento pide la cuestión” o que “pide el principio”. A esta falacia se le conoce
como petitio principii o petición de principio, porque estaríamos dando por supuesto ya en
nuestras premisas algo que pretendemos demostrar.
Consideremos ahora el siguiente ejemplo:
¬B
¬¬A
A este tipo de argumento también se le suele llamar argumento circular cuando intervienen
más elementos. Por ejemplo, A y B.
Veamos el siguiente argumento:
¿Existe Dios? Bueno, la existencia de Dios está afirmada en la Biblia y si uno cree aquello que
dice la Biblia, no puede dudar de la existencia de Dios. Pero es que precisamente la Biblia no
puede ser puesta en duda, pues es la palabra de Dios.
Si nos fijamos bien, el argumento dice que hay que creer en Dios porque lo dice la Biblia y
hay que creer aquello que dice la Biblia porque es palabra de Dios. Hay, pues, una
justificación recíproca que da lugar a un esquema circular. A justifica a B, y B justifica a A.
En algunas ocasiones el círculo contiene más elementos, A, B, C, D… y es más difícil
identificar la trampa argumental. Incluso, si el círculo es muy grande, es posible que deje de
considerarse falaz. Por ejemplo, las palabras del diccionario siempre se definen
necesariamente usando otras palabras. Y si buscas esas otras palabras, te llevará a otras… y
así sucesivamente. En ese sentido, el entramado de definiciones es circular, pero admitimos
que el propio entramado es informativo y, por tanto, significativo. No admitiríamos, en
cambio, que si buscamos la palabra “coche”, nos dijese: “Un coche es un coche”. Ni siquiera
sería admisible que nos dijese: “un coche es un automóvil”. Y al buscar automóvil, nos
dijese: “Un automóvil es un coche”. Porque sería claramente circular.
Cum hoc, ergo propter hoc (“con esto, luego a causa de esto”) es una falacia muy habitual y,
en ocasiones, difícil de detectar. Se apoya en la coincidencia de dos hechos para establecer
que hay una relación entre ellos. A menudo, son dos hechos que suceden repetidamente
juntos, pero eso no implica que haya una relación causal entre ellos. En eso consiste la
falacia: en suponer que hay causalidad allí donde sólo hay concurrencia o correlación. Un
ejemplo clásico es el del aumento de la venta de helados y el aumento de la tasa de
asesinatos en Nueva York. Cuando una aumenta, la otra también. Cuando disminuye una, la
otra también. Resultaba muy misterioso e intrigante. Pero el hecho de que ambas tasas
covaríen no implica en absoluto que estén directamente conectadas. ¿Estaba provocando
asesinatos la venta de helados? Más adelante se cayó en la cuenta de que ambos fenómenos
estaban provocados por el calor. Por eso, cuando aumentaba la temperatura en la ciudad,
ambas tasas se elevaban y cuando descendía la temperatura, ambas tasas decrecían.
Un error muy cercano al anterior es el que se produce cuando se invierte la relación causal.
Es decir, hay un hecho A que causa B y, como aparecen siempre juntos, se supone
erróneamente que B causa A. Esto se conoce como falacia de dirección incorrecta (o
causalidad inversa) y a veces no es un error, sino algo interesado. Por ejemplo, cuando
comenzó a asociarse el consumo de tabaco con el cáncer, las tabacaleras negaron
inicialmente tal relación (esto puede verse en la serie Mad Men). Pero más adelante, cuando
la correlación parecía innegable, las tabacaleras afirmaron que lo que sucedía era que los
pacientes con cáncer fumaban compulsivamente para tratar de calmar los efectos del
cáncer. Según ellos, esa era la causa por la que morían pacientes que fumaban mucho, y a
partir de ahí, la gente imaginaba erróneamente que había relación de causalidad.
Es importante recalcar que la mera correlación no implica causalidad. Por eso, incluso
aunque sepamos que el consumo de carne roja se correlaciona con mayor incidencia del
cáncer colorrectal, eso no implica per se que haya una conexión causal y que comer carne
roja te vaya a provocar un cáncer. Quizás quienes comen más carne roja llevan un estilo de
vida que facilita el cáncer. Si esto fuera así, no sería la carne roja la causante. Por ello,
cuando observamos una correlación entre dos fenómenos, es importante realizar un estudio
bien diseñado para tratar de determinar si hay variables extrañas y si además de correlación
hay conexión causal.
Este tema es tan importante, que vamos a examinar un poco más de cerca cómo se diseña
un estudio serio para analizar una hipótesis y cómo este procedimiento ha sido retorcido de
modo absolutamente deshonesto para sesgar los datos y publicar presuntos artículos
científicos que resultaron ser fraudulentos. Antes de nada, veamos unos conceptos básicos:
Hipótesis inicial (H0): hipótesis que ya tenemos; hipótesis asentada.
Hipótesis alternativa (HA o H1; hipótesis que pretendemos someter a prueba, para
ver si es superior a H0.
Constante: es un elemento cuyo valor está predefinido y que, por tanto, no cambia.
Variable: es un elemento cuyo valor puede cambiar; por tanto, toma valores
distintos en función de distintos motivos.
Variable Independiente (VI): Es una variable que, en el contexto de un experimento
científico, podemos manipular para darle un valor determinado, y observar a
continuación el efecto que tiene sobre otro parámetro.
Variable dependiente (VD): Es una variable cuyo valor va a depender del valor que
tome la variable independiente.
Variable extraña (VE): Es un elemento que no estamos teniendo en cuenta, pero
está influyendo en los resultados de nuestro experimento. Hay que eliminarlas.
Uno de los objetivos de todo diseño experimental es eliminar por completo las variables
extrañas. Para ello hemos de reflexionar y observar todo aquello que pueda influir en
nuestro experimento, bien para tomarlo en cuenta e incorporarlo, bien para eliminarlo o
para neutralizarlo (mediante técnicas de balanceo o contrabalanceo, por ejemplo, si no
podemos eliminar el cansancio que se acumula al hacer unas pruebas, haremos que los
sujetos las hagan en orden distinto, para que no hagan necesariamente siempre peor las
mismas: las “últimas”).
Además, nuestra hipótesis ha de estar correctamente constituida mediante un constructo
fiable y válido. Ejemplos de constructos son: “amor”, “cansancio”, “estrés”, “aburrimiento”,
etc. Este tipo de sentimientos, sensaciones, emociones, no siempre son directamente
observables y mucho menos son medibles. Para ello, hemos de describir exactamente a qué
nos referimos con ese concepto o constructo y hemos de determinar cómo vamos a
examinarlo y medirlo, es decir, cómo vamos a operativizar ese constructo. Decimos
operativizar porque hemos de poder manejarlo, operar con él, hacer que sea algo evaluable.
Pero para medirlo necesitamos también de algún aparato o instrumento de medida.
Decimos que ese instrumento es fiable si al hacer varias mediciones arrojan siempre el
mismo valor; y es válido si estamos midiendo lo que realmente queremos medir. Por
ejemplo: pensemos que un experimentador quiera tratar de establecer cuánto tiempo dura
la fase de enamoramiento, y para ello decide medir los niveles de oxitocina de distintos
sujetos que mantienen una relación de pareja. El problema puede ser: que nuestros
instrumentos no midan bien la oxitocina, y por tanto la medición arroje unas veces un valor
adecuado y otras no (falta de fiabilidad) o que realmente estemos equivocados al pensar
que el enamoramiento se manifieste químicamente con la secreción de oxitocina (falta de
validez). En ambos casos, nuestro experimento estaría mal diseñado.
También estaría mal diseñado si no se tienen en cuenta cuestiones como el contexto cultural
(las ideas acerca del amor romántico, del sexo, etc.), social (presiones, matrimonios
concertados, ritos de paso, etc.) o la época del año en el que se toman los datos (primavera
en unos casos, otoño en otros). En este caso, habría posibles variables extrañas que estarían
influyendo indeseadamente en el experimento y, por tanto, lo estarían invalidando.
Cuando establecemos que la modificación del valor de la variable independiente es la
única razón por la que cambia el valor de la variable dependiente, podemos concluir que
hemos demostrado que hay una relación de causalidad (y no mera correlación) entre
variable dependiente e independiente. Que dos parámetros varíen al unísono, aumentando
ambos y decreciendo ambos (o disminuyendo uno cuando el otro aumenta y viceversa), sólo
demuestra que hay una covariación, pero esa covariación no implica una relación causal.
Hay que establecer que el motivo de esa covariación es la relación entre variables
independientes y dependientes.
Cuando realizamos un experimento con el objetivo de probar una nueva hipótesis (H1),
tenemos que asegurarnos de que el resultado es fuerte. Para ello, establecemos unos
márgenes o niveles de confianza, que son el límite a partir del cual rechazamos la hipótesis
nula o H0 y aceptamos la nueva hipótesis alternativa H1. Es decir, si queremos demostrar que
la H1 es correcta, debemos asegurarnos de que:
el experimento está bien diseñado y mide lo que queremos medir (validez interna)
o el constructo es relevante para lo que deseamos evaluar,
o hemos operativizado bien la variable,
o hemos eliminado cualquier otra influencia externa indeseable o variable
extraña,
o el instrumento de medida arroja el mismo resultado en sendas mediciones
(fiabilidad)
el resultado es relevante y puede ser extrapolado a la población (validez externa)
o la muestra es suficientemente grande y está bien aleatorizada para que no
esté sesgada y sea representativa de la población,
o los resultados son notables, porque se alejan lo suficiente de la hipótesis nula
H0 como para hacer muy improbable o imposible que sea cierta y, por tanto,
quede respaldada la hipótesis alternativa H1 que deseábamos testear.
Por ejemplo, si quisiéramos demostrar que escuchar música clásica reduce el estrés,
partiríamos de la Hipótesis nula, H0, según la cual escuchar música clásica no tendría ningún
efecto. En primer lugar, deberíamos examinar el constructo “reducción de estrés” y tratar de
operativizarlo: ¿cómo mediremos concretamente esa variable? Un posible modo sería
monitorizando los niveles de cortisol en sangre mientras se escuchan distintas obras de
Mozart, Beethoven, Prokofiev, Bach o Vivaldi. Para ello estableceríamos varios grupos,
aleatorizamos la muestra incluyendo la mitad hombres y la mitad mujeres, con distintas
edades, distintos niveles educativos, etc. Además habría un grupo de control que no
escucharía música clásica en algunos experimentos y escucharía otros géneros musicales en
otros. Por otro lado, se controlarán otros posibles factores que influyan en el estrés (estado
general de salud, estado emocional en casa, en el colegio o trabajo, etc.). En algunos casos
podemos apartar a esos sujetos; en otros casos, repartirlos proporcionalmente en cada
grupo.
Posteriormente estableceremos unos niveles normales de variación del nivel de cortisol en
sangre con arreglo a estudios en la población general y examinaremos la distribución.
Finalmente, estableceríamos un nivel de confianza del 95% o del 99%.
Ahora tomaremos los datos, y calcularemos el valor p, que es la probabilidad de que
obtengamos esos datos si la hipótesis nula fuese cierta. Si, por ejemplo, hemos determinado
un nivel de confianza del 99%, entonces un valor que quede muy alejado de la media (en
concreto, que se sitúe a +/-2,58 desviaciones típicas y, por tanto, esté en la región
correspondiente a ese 1% si la distribución tiene una cola o 0,5% si tiene dos), será lo
suficientemente significativo como para rechazar la hipótesis nula. Es decir: no es que sea
imposible que la hipótesis nula sea correcta, porque siempre podríamos haber tropezado
por azar con casos muy extraños y extremos; pero cuanto mayor es la muestra, más difícil
será que el conjunto de nuestros resultados sea extremo y, por tanto, un resultado extremo
indicará con mayor fuerza que la hipótesis nula es falsa. En tal caso, consideraremos que la
hipótesis alternativa es plausible: en este caso, que la música clásica realmente sería capaz
de reducir el estrés en la población.
Podría pensarse que cuanto más exigentes seamos al establecer esos niveles de confianza,
más difícil será equivocarnos al aceptar o rechazar H0, pero esto no es así. De hecho,
podemos cometer dos tipos de errores:
Error Tipo I o Tipo alfa (α): rechazar equivocadamente una hipótesis nula verdadera
y adoptar una alternativa errónea (falso positivo). Hemos obtenido un resultado muy
alejado de lo esperado (un valor p menor que α) pero resulta que la hipótesis inicial
era verdadera y simplemente nos hemos topado con un valor extremo infrecuente.
Error Tipo II o Tipo beta (β): quedarse equivocadamente con la hipótesis nula (falso
negativo). Los resultados arrojan un valor p superior a α porque el resultado del
experimento no se aleja lo suficiente de lo previsto por la hipótesis nula…. Y, por
tanto, no podemos rechazar la hipótesis nula. Sin embargo, esta hipótesis, aunque no
lo sepamos, es falsa.
Pues bien, se conoce como p-hacking o dragado de datos, a la práctica fraudulenta que
consiste el uso de herramientas para el análisis de datos con el objetivo de hacer una
búsqueda aleatoria de patrones significativos en grupos enormes de datos; estos patrones
mostrarían datos correlacionados de tal modo, que se afirma que la probabilidad de que
haya una relación causal entre ellos es estadísticamente significativa. Es decir: los datos
coinciden de tal manera, que muy improbable pensar que esa coincidencia de deba al azar y,
por tanto, se entiende que ha de haber algo ahí. El problema de esto es que nuestras
investigaciones de correlación entre variables debería estar guiada por sospechas, por
hipótesis, por teorías. Nosotros sospechamos que A está relacionado con B, y entonces
diseñamos un experimento para ponerlo a prueba; tomamos datos. Establecemos la
hipótesis nula de que no hay relación y la H alternativa de que sí la hay. Y si los datos
apuntan muy significativamente a que sí, arrojando un valor p tan bajo que indica que la
probabilidad de que haya relación por el mero azar es ridícula, entonces valoramos
seriamente esa posibilidad y tratamos de volver a demostrarlo tomando otra muestra de
datos. Pero buscar relaciones forzadas en un conjunto de datos y publicarlo como un
hallazgo, es un fraude.
Ojo: esto no quiere decir que no sea interesante e importante buscar patrones en los datos.
De hecho, puede ser crucial en muchas investigaciones. Pero si tomamos un conjunto
enorme de datos, probablemente será factible encontrar correlaciones entre ellos aun
cuando no tengan ninguna relación entre sí. Esto se da, entre otras cosas, por el mencionado
problema de la infradeterminación: un conjunto de datos puede ser explicado por infinidad
de curvas. Y es que, de hecho, mediante este método se han encontrado correlaciones
cómicas; pero también se han publicado artículos manipulados. Un modo de comprobar si la
correlación es azarosa, es examinar otros conjuntos de datos distintos a ver si aparece la
misma correlación. Además de esta, hay diversas propuestas para evitar este tipo de fraudes
o sesgos. Este no es el lugar para ahondar en ello, pero lo que sí nos interesa es remarcar
que ésta es otra posible fuente de sesgo de los datos, en este caso voluntario, y que puede
emplearse de modo malicioso y falaz en un debate.