Está en la página 1de 31

LÓGICA INFORMAL Y RACIONALIDAD LIMITADA

Aristóteles definió al hombre como el animal que posee logos y, a menudo, se ha afirmado
que Aristóteles define al ser humano como un animal racional. En cambio, ambas
expresiones no son equivalentes. De hecho, a pesar de que tengamos la capacidad de
investigar, razonar y tomar decisiones deliberadas y racionales, a menudo el ser humano
actúa de modo irracional.
Todos cometemos a veces son errores puntuales; en estos casos, simplemente nos
equivocamos y esto no cuestiona la racionalidad de nuestras acciones. Quizás somos un
poco miopes y vemos mal de lejos o en ambientes con poca luz, o no recordamos la fecha
exacta de algo o hacemos una operación matemática errónea. Estos errores son triviales.
En cambio, hay otro tipo de errores que aunque son puntuales se deben a la influencia de las
emociones. Y otros errores son sistemáticos. Algunos responden a patrones tan
comúnmente extendidos que casi parecen genéticos y otros se deben a causas sociales,
culturales… pero no son meros errores de cálculo. Este tipo de errores sí han sido
considerados por algunos autores como fallos en nuestra racionalidad. De entre ellos,
estudiaremos los que se conocen como sesgos cognitivos (cognitive biases). Estos suelen
ser procesos inconscientes y tienen múltiples causas. Como veremos más adelante pueden
llevar a cometer errores lógicos graves en nuestras argumentaciones. Estudiaremos algunas
de estas falacias, poniendo especial atención en las falacias informales y en sus causas. Pero
veamos todo esto más despacio.

Está claro que la toma de decisiones en nuestro día a día no siempre se da en las condiciones
ideales. A menudo necesitamos tomar decisiones con poca o nula información. Unas veces
esto se debe a que no existe más información; otras veces esa información no está a nuestro
alcance; o es costosa. En otras ocasiones el problema es demasiado complejo y, en otras, la
decisión es urgente y no tenemos tiempo de buscar información extra. En todos estos casos,
puede resultar útil tomar un atajo y emitir la mejor respuesta posible con ese conjunto
restringido de información. Llamamos heurísticos a estos atajos mentales que nos permiten
tomar decisiones en situaciones de poca información. Para ello nos valemos de estrategias,
esquemas, reglas, estereotipos… que nos permiten llevar a cabo estas tareas. Por supuesto,
algunas de estas estrategias también las pueden llevar a cabo animales o máquinas.
Pero no todos los mecanismos que nos llevan a emitir respuestas automáticas, rápidas o
prefijadas son heurísticos o atajos mentales. De hecho, los reflejos, los instintos, la
impronta o troquelado y las pautas de acción fija con los que nacen equipados algunos
animales, les sirven para “tomar decisiones” inconscientes ante demandas ambientales sin
ser heurísticos. Veámoslos más de cerca.
El reflejo es una respuesta simple automática e involuntaria ante un determinado estímulo.
Los seres humanos tenemos varios, como el célebre reflejo rotuliano o el reflejo palpebral
(cerrar los ojos cuando repentinamente algo se aproxima a nuestra cara), la erección o la
eyaculación; algunos son reflejos temporales, como el reflejo de succión en el lactante o el
reflejo de Babinski o plantar, que se examina para conocer si el bebé tiene algún problema
en el SNC.
Los instintos consistirían en una pauta de acciones, innata, compleja, hereditaria y dirigida
principalmente a la supervivencia. Se discute si los seres humanos tienen instintos o no;
algunos biólogos defienden que los seres humanos sólo poseen reflejos. Sigmund Freud
defendía que no había instintos, pero sí pulsiones: la pulsión de vida (Lebenstrieb) y la
pulsión de muerte (Todestrieb). En este sentido, la existencia de algunos instintos que se
citan a menudo puede ser discutible, como sucede con el instinto de agresividad o el
higiénico (provocado por la emoción primaria de asco). En cambio parece clara la existencia
de los instintos de supervivencia, de apareamiento o de manada.
Las pautas de acción fija o PAF (Tinbergen y Lorenz), en cambio, consisten en una secuencia
de acciones desencadenadas por un estímulo señal que suceden siempre en el mismo orden
y son comunes a todos los miembros de la especie. Al igual que sucede con los instintos, no
son una conducta aprendida, sino codificada genéticamente. Pero a diferencia de aquellos,
las PAF son una secuencia muy concreta de acciones y no están presentes salvo ante un
estímulo muy concreto. Una vez aparece el estímulo señal que hace de desencadenante, se
llevará a cabo la secuencia de acciones completa. No hay constancia de que los humanos
presenten PAF, pero en el reino animal un ejemplo clásico es el del ganso y el huevo: si un
huevo rueda fuera del nido, el ganso inicia una serie de movimientos estereotipados para
acercar el huevo al nido; lo curioso es que incluso si el huevo vuelve rodando al nido o se lo
acercamos nosotros, el ganso seguirá realizando los movimientos hasta finalizar la pauta de
acción fija.
Finalmente, la impronta o troquelado (Tinbergen y Lorenz) es un patrón de conducta
aprendida durante una etapa crítica. Por ejemplo, los patitos que identifican al primer objeto
viviente nada más nacer como su madre y, por tanto, la seguirán en fila a cualquier parte. Si
en lugar de ver a su madre ven a un cuidador humano, quedarán troquelados por él y lo
seguirán en fila india.

Konrad Lorenz y patitos troquelados, famoso


Impronta o troquelado en polluelos de ánade etólogo y premio Nobel de Medicina en 1973,
real o ánade azulón. que descubrió el fenómeno de la impronta.
Pero los seres humanos, al igual que los animales y las máquinas, también emiten respuestas
que no son meros reflejos, instintos o PAF. Para ello pueden tomar en cuenta la información
de la experiencia previa y los estímulos ambientales.

Y aquí comienzan los problemas. En primer lugar, cuando observamos el mundo y de él


obtenemos información podríamos pensar que estamos haciendo una recopilación de
hechos. Y esto no es así. Es posible que estén sucediendo hechos, pero nosotros los
interpretamos siempre desde una teoría. Por ejemplo: es un hecho que cuando Juan se
levanta, hay sol entrando por la ventana de la cocina… pero a medio día ya no da el sol allí y
en cambio entra mucha luz en el salón. Al atardecer, ya entra luz en las habitaciones que
están en el lado opuesto a la cocina. ¿Qué ha sucedido? Bueno, Juan puede explicar ese
cambio de la luz pensando que el sol se ha trasladado en torno a la Tierra (como se creía
hace siglos) o pensando que es la Tierra la que ha rotado sobre sí misma. El hecho es que la
luz daba en la cocina por la mañana y por la tarde no… pero ese hecho depende de otros
hechos que Juan interpreta en función de su visión del mundo. Y es que algunos autores
afirman que toda observación depende de la cosmovisión que tengas. Es lo que se conoce
como la carga teórica de la observación. Como puedes suponer, esto es similar a decir que
toda observación está sesgada, pues no observamos hechos desnudos, no observamos nada
objetivamente, sino situados en teoría u otra, que nos proporciona unas gafas especiales que
nos hacen interpretar el mundo de una manera u otra.
Pero el problema no acaba aquí. Uno podría pensar: bueno, este problema de la carga
teórica no es tan grave. Lo que hay que hacer es tener cuidado con las teorías que tenemos y
evaluarlas bien. El problema del geocentrismo es que era una teoría errónea y ya está.
Esto tiene dos inconvenientes: el primero es que no todas las teorías se pueden contrastar:
las científicas quizás sí, aunque a veces haya que esperar décadas o siglos para poder
hacerlo. Pero el mayor escollo es que algunas teorías no pueden ser contrastadas,
precisamente porque son filosóficas o psicológicas. O sociológicas. ¿Cómo interpreta los
mismos hechos un optimista y un pesimista? ¿Cómo encaja el éxito una persona introvertida
y una extrovertida? ¿Cómo valora un abrazo una persona autista y otra que no lo es? ¿Cómo
viven el fracaso o la pérdida material un hedonista y un estoico? ¿Cómo interpreta una
broma una persona segura de sí misma y una acomplejada? ¿Y una persona de un país
africano, una coreana y una italiana? Esas observaciones están cargadas por distintas
emociones, personalidades, visiones de la vida, culturas… y no podemos determinar cuál es
correcta y cuál no porque no hay visiones correctas e incorrectas.
Pero siempre nos quedan las teorías científicas, algo a lo que agarrarnos… porque ellas sí son
contrastables. ¿Verdad? Pues tampoco. Resulta que hay un inconveniente enorme, conocido
como el problema de la infraderminación de la teoría por los hechos o simplemente la
infradeterminación: para cualquier conjunto de hechos, existen varias teorías alternativas
que pueden explicarlos igual de bien. Piénsese que hacemos observaciones de algo y vamos
anotando los datos en un eje de coordenadas. Supongamos que he anotado 5 puntos.
¿Cuántas líneas pueden pasar por todos esos puntos? La respuesta es que infinitas. Podría
pensarse que el problema se solucionará haciendo más observaciones. Y, ciertamente, con
cada nueva observación que anotemos se van a descartar infinidad de líneas, pero habrá
otra infinidad que siguen siendo posibles. Añadamos pues otra observación: nuevamente
descartamos posibilidades, pero siguen quedando otras. Y este es el problema: para un
conjunto finito de datos, siempre existirán infinitas curvas que pasen por todos ellos. Por eso
mismo, la teoría siempre está infradeterminada por los datos.
En resumen: los datos no son objetivos, porque están cargados por la teoría previa que
manejamos… y, además, el acopio de datos es incapaz de determinar la teoría. Además,
como señaló célebremente Hume, a partir de una observación finita de hechos no podemos
establecer causalidad, sino mera correlación o conjunción constante entre A y B (p. ej.,
meter la mano en el fuego [A] y quemarse [B]). Experimentamos A∧B… A∧B… A∧B… A∧B…
A∧B… A∧B… A∧B… y la costumbre nos lleva a imaginar que A→B. Es el conocido problema
de la causalidad. Pero es que tampoco se puede hacer una generalización de A∧B, pues por
definición siempre quedarán hechos futuros (o pasados) no comprobados. Este es el
problema de la inducción. Y tanto si establecemos causalidad allí donde solo tenemos una
sensación de costumbre por estar habituados a ver esa conjunción constante, como si
hacemos una generalización, estaremos dando un paso ilegítimo.

Pero dejemos a un lado estas dificultades y actuemos como si no existieran. Después de


todo, la gente es en general inconsciente de estas objeciones filosóficas. Sin embargo, aún
permanece el problema de que, como hemos dicho, la información de la que disponemos
puede ser excesiva e inmanejable a veces; o puede resultar insuficiente en otras ocasiones;
unas veces, porque la propia realidad impone restricciones (no existe dicha información, o
no sabemos cómo obtenerla, o bien no la tenemos a nuestro alcance porque es restringida,
o cuesta dinero, o está lejos, etc.); otras veces las restricciones vienen dadas por nuestro
sistema cognitivo: no podemos percibir toda la información, o la percibimos pero no la
podemos procesar, o no la recordamos toda; o la recordamos distorsionada. En otras
ocasiones, las limitaciones son de nuestra capacidad racional, porque no somos incapaces de
extraer consecuencias lógicas y racionales. Finalmente, a veces las emociones interfieren con
nuestra motivación para buscar evidencia; unas veces no queremos descubrir algunas cosas,
otras deseamos con todas nuestras fuerzas encontrar algo. A veces el dolor, el amor, la rabia
o el asco nublan nuestro juicio; e investigamos, evaluamos, juzgamos y actuamos
apresuradamente.
En muchas ocasiones nos vemos obligados a emplear los mencionados atajos mentales. No
sabemos cómo buscar o dónde buscar; o no queremos. O no podemos. O no tenemos
tiempo. Y los heurísticos nos ayudan en el intento de optimizar el proceso o simplemente
para acortarlo.

Sea como fuere, tomamos decisiones sobre un conjunto limitado de información y, por
tanto, dicha información es parcial, está sesgada. Algunos autores como Gerd Gigerenzer no
creen que estos sesgos supongan un problema: lo ven como algo positivo. Para él, serían
decisiones basadas en corazonadas, guiadas por una especie de intuición inconsciente, más
visceral que racional; o decisiones a ojo de buen cubero, basadas en un cálculo aproximado
fruto de la experiencia. En este sentido, aunque no sean ni racionales ni precisas, pueden
resultar útiles.
Otro ejemplo sería el de las “preguntas dirigidas” cuando subimos al ascensor o cuando
conocemos a alguien. (“¡Pues ha quedado un buen día, ¿no?”; “Parece que el Atleti está
haciendo una muy buena temporada, ¿verdad?”). En estos contextos, por prudencia,
evitamos temas que pensemos que puedan ser conflictivos, peliagudos. Buscamos ser
amables, educados, incluso cómplices… y quien realiza este tipo de preguntas no busca
información, sino que plantea algo que él considera que tiene una respuesta sencilla y clara,
que no mete en un compromiso al otro, y cuando hace estas preguntas cree que sabe de
antemano cuál será la respuesta de su interlocutor. Precisamente porque cree tener este
conocimiento previo podría pensarse que se trata de un “sesgo de confirmación”, es decir,
podríamos pensar que quien hace este tipo de preguntas sólo busca que el interlocutor
confirme sus propias creencias. Pero esto no necesariamente es así: a menudo no
necesitamos confirmar nada e, incluso, quizás ni siquiera creemos aquello que comentamos;
lo que sí creemos es que es un tema cómodo o agradable para nuestro interlocutor y, de ese
modo, puede verse como una habilidad social que permite el establecimiento de relaciones
personales. No sería, por tanto, un error cognitivo, sino una herramienta útil para el
establecimiento del vínculo social.

LOS SESGOS COGNITIVOS


En cambio, hay atajos que conducen de modo claro e irremediable a errores en los juicios y
la toma de decisiones. En estos casos, llamamos a estos sesgos cognitivos.
El heurístico y el sesgo son, en cierto modo, lo mismo: un recorte de la información o los
datos con los que tomamos una decisión o nos formamos una creencia. Lo llamamos
heurístico cuando lo vemos de modo positivo, como un atajo que nos ayuda lograr un
resultado de modo eficiente (la eficiencia busca el mejor resultado posible con la menor
inversión). Lo llamamos sesgo cuando consideramos que ese atajo nos aleja de la verdad y
de las decisiones acertadas o adecuadas, es decir, cuando no es eficaz (la eficacia tiene que
ver con hacer bien las cosas, con que el resultado sea bueno).

Los atajos mentales, a menudo, se fundamentan en creencias previas más básicas, en


estereotipos, en creencias populares, en refranes, etc. Por ejemplo, estereotipos basados
en generalizaciones acerca de individuos de un determinado grupo o etnia (extranjeros,
negros, chinos, andaluces, catalanes, gallegos, franceses, sudamericanos, etc.).
Independientemente de que estas generalizaciones fuesen correctas —que no suelen
serlo—, aplicar estas generalizaciones sobre individuos particulares resulta absolutamente
erróneo. Pero ante la falta de información concreta sobre un individuo concreto, solemos
tirar de la información acerca de su grupo de iguales como el criterio más fiable para
hacernos una idea de cómo puede ser ese individuo. Al hacerlo, estamos sesgando la
información.
Está claro que el proceso de formación de un grupo y la cohesión del mismo (sentimiento de
unidad, de pertenencia, etc.), depende de unas necesidades psicológicas de los individuos
(no sentirse solos, aislados, marginados… y sentirse protegidos físicamente, respaldados en
su ego, etc.). También operan el miedo a lo desconocido/extraño/distinto… A menudo, para
conseguir ese sentimiento de unidad y pertenencia, se dibuja un grupo opuesto que suele
operar incluso de “enemigo”. Al caracterizar al otro, se le describe caricaturizado: se
desdibujan las diferencias entre miembros (se homogeniza: todos son iguales), se exageran
algunos rasgos y se ridiculizan otros, y sobre todo se adscriben cualidades negativas al otro
grupo y positivas al propio. Aquí caben cuestiones morales, religiosas… El otro siempre es
irracional, pasional, visceral, tramposo, cruel, despiadado, vago, infiel… no respeta normas,
costumbres, no es de fiar. Y, sobre todo, es peligroso.

En otras ocasiones sucede por ejemplo que, aun no conociendo una ciudad concreta,
evitamos cruzar parques en horario nocturno por el posible peligro asociado a ellos. Es
evidente que si no sabemos nada de esa ciudad concreta, no tenemos datos sobre ese
parque… puede parecer prudente no acercarnos a un parque de madrugada porque son
lugares poco transitados, poco iluminados y, por tanto, propicios para llevar a cabo
determinados actos delictivos. De nuevo, tomar una decisión en ausencia de información
concreta y basados en información parcial y previa de otros parques, es tomar una decisión
sobre información sesgada, pero puede resultar útil.
Otro ejemplo son los refranes: por ejemplo, “cuando el río suena agua lleva”. Este refrán
parece literalmente indiscutible: si un río no lleva agua, no puede sonar. Además, cuando
lleva agua, parece que sonará. Por tanto, parece evidente suponer que si suena es que lleva
agua. Por analogía extrapolamos esa imagen y, si se oyen repetidamente ciertas cosas de X
persona o grupo, nos parece razonable pensar que algo de verdad habrá detrás. De nuevo, la
información es sólo parcial, y tanto las ideas que me forme como las acciones que tome,
estarán sesgadas… pero ¿son irracionales? Es controvertido afirmar que sean totalmente
irracionales, pues a veces pueden resultar prudentes; porque aunque sepamos que la
información es insuficiente, también sabemos que hemos de tomar una decisión.
Y, sin embargo, tampoco podemos decir que son totalmente racionales, porque en muchas
ocasiones nos conducen al error precisamente por haber tomado un atajo y no haber
tomado en cuenta toda la información o haber investigado más.

Pero, además, no sólo hacemos generalizaciones. También nos dejamos llevar por la opinión
de otros. El ser humano es un animal social y coopera. La mutua ayuda y la confianza pueden
resultar muy beneficiosas en algunos contextos. Pero esta confianza tiene un reverso que
consiste en que a menudo las creencias, opiniones, afirmaciones y acciones de los demás
influyen en nosotros más de lo que sería deseable. La psicología social ha estudiado este tipo
de influencias. El experimento de Asch sobre la conformidad (Solomon Asch, 1951-1955), el
efecto Hawthorne (Elton Mayo, 1955), el experimento de Milgram (Stanley Milgran, 1961.
Publicado bajo el título «Behavioral Study of Obedience» en 1963), el efecto espectador o
síndrome Genovese (1964), el efecto Pigmalión o Rosenthal (Robert Rosenthal, 1966) o el
experimento de la cárcel de Stanford (Philip Zimbardo, 1971) son ejemplos clásicos que
veremos en clase.
La conformidad social nos lleva a creer que si muchos creen algo, es más probable que sea
cierto. A este fenómeno se le conoce como efecto de arrastre o bandwagon. La gente se
sube al carro ganador, se apunta a lo que creen los demás. En algunas ocasiones esto
desemboca en un mero oportunismo, como cuando en una competición se empieza a
animar al que va ganando, pero en otras ocasiones se trata de influencia social o
conformidad. Otro efecto de la influencia social similar es aquel por el cual la gente supone
que si una cosa se repite mucho, probablemente será cierta. Quizás no lo dice mucha gente,
pero sí se oye mucho. ¿No será que hay algo de verdad?

Estos sesgos cognitivos son importantes para la psicología o para la sociología, pero más aún
para la economía o para la publicidad… porque los seres humanos tomamos decisiones
vitales, consumistas y comerciales basándonos en ellos. Decidimos sin comprar un coche o el
dentífrico con un conjunto limitado de información, quizás tras ver un anuncio o acudir aun
supermercado. Y decidimos si invertimos una suma de dinero en la compra de un piso, en
criptomonedas o en una empresa emergente como ChatGPT, basándonos en este tipo de
información y conductas sociales ajenas, cercanas y lejanas, quizás influidos por streamers y
otros gurús.

Otro aspecto interesante es que algunos sesgos tienen una causa más puramente cognitiva y
otros una causa más motivacional, emocional, como cuando está presente el pensamiento
desiderativo (wishful thinking), es decir, cuando nuestras creencias descansan más en
nuestros deseos que en nuestra evidencia. Llamamos sesgos en frío (cold biases) a los
primeros y sesgos en caliente (hot biases) a los segundos.

SESGOS EN FRÍO
Entre los sesgos en frío tenemos aquellos que tienen que ver con las limitaciones de nuestro
aparato psíquico y sus capacidades (percepción, memoria, atención, procesamiento,
razonamiento).
Nuestro sistema perceptivo, por ejemplo, es falible y nos puede conducir a errores puntuales
triviales (como cuando no vemos bien a alguien de lejos), pero también a errores
sistemáticos, como ocurre en algunas ilusiones ópticas, que nos hacen percibir la realidad de
un modo distorsionado. Saber que hay una ilusión no impide que sigamos viéndola. Y parece
que realizar juicios o tomar decisiones sobre la base de estas percepciones alteradas
constituiría un ejemplo claro de sesgo.
En este sentido la escuela psicológica alemana de la Gestalt estudió, por ejemplo, algunas de
las leyes o reglas que parecen estar a la base de algunas asociaciones ficticias que hacemos
al percibir objetos. La pareidolia, por ejemplo, consiste en reconocer presuntas formas,
figuras, caras… en objetos que no serían tal cosa. Por ejemplo, en las imágenes a
continuación podemos ver a la izquierda dos enchufes que parecen dos caras sonrientes y a
la derecha una fotografía de la región de Cidonia en la superficie de Marte, que debido a la
orografía del planeta y al juego de sombras provocado por el ángulo de la fotografía y de la
luz que incidía sobre el planeta, hace posible imaginar una cara. Posteriores fotografías no
corroboran la existencia de esa “cara”, pero los conspiranoicos alegan que las nuevas
fotografías están alteradas (uno de los rasgos de las teorías conspiranoicas es la resistencia a
la evidencia contraria).

Por otro lado, la apofenia (de ἀπό (apó), "separar", y φαίνειν (phaínein), "aparecer”) es un
fenómeno similar pero más general, que consiste en ver conexiones o patrones entre
sucesos absolutamente independientes o en un conjunto de datos que no guardan ninguna
relación real. Está relacionada con el error tipo I y con el dragado de datos (p-hacking) que
veremos más adelante. La apofenia es otro de los principales ingredientes en las teorías
conspiranoicas.

Respecto a la memoria, en primer lugar ésta es limitada. A veces somos incapaces de


recordar algo, o tardamos un tiempo excesivo en recordarlo o cometemos errores
manifiestos al “recordarlo”. La memoria no sólo rescata, también reconstruye. Algunos
ejemplos de estas fallas en la memoria son la criptomnesia (creer que se tiene una nueva
idea cuando en realidad en un recuerdo que no se recuerda como tal), los falsos recuerdos
(confundir imaginación con memoria), o la sugestionabilidad (se confunden ideas sugeridas
por otros –p. ej., un psicoterapeuta o un inspector de policía—con recuerdos propios). Todas
ellas producen sesgos cognitivos con importantes implicaciones, algunas personales y otras,
por ejemplo, judiciales (el recuerdo distorsionado podría alterar una sentencia y, de hecho,
por este motivo, los testimonios basados en la memoria no se consideran probatorios).

El procesamiento de la información también nos conduce a errores que dan lugar a sesgos.
Nuestro sentido común no es muy acertado a veces. Si tomásemos un folio de papel de 0.1
mm de grosor y nos preguntasen, sin conocer la respuesta de antemano, cuánto grosor
alcanzaría si lo doblásemos 50 veces, probablemente muchos responderían a botepronto:
“¿50 milímetros?”. Pensándolo un poco, en seguida nos daríamos cuenta del error: con cada
doblez se va duplicando el espesor… y por tanto no pueden ser esos 50 mm (5 cm). Será un
número mayor, pero si no echamos cuentas y lo calculamos a ojo de buen cubero, ¿cuánto
mayor? ¿1 metro? ¿5 metros? Es poco probable que nuestra respuesta intuitiva sea de 20
metros o más… y, sin embargo, esa respuesta aún estaría ridículamente lejos de la respuesta
correcta. Aunque con 8 dobleces apenas pasaría el medio centímetro de grosor, ya con sólo
22 dobleces sería mucho más alto que las Cuatro Torres de Madrid, con 42 dobleces el
grosor alcanzaría la distancia de la Tierra a la Luna y con 50 llegaría hasta el Sol. Nuestra
intuición no nos dice eso. ¡Ni mucho menos! Pero se equivoca.
Un caso similar es el de la leyenda del ajedrez, según la cual el rey de un país de oriente
quedó maravillado con el juego recién inventado y le concedió a su creador que pidiera un
deseo como agradecimiento. El inventor le hizo una petición aparentemente sencilla y
humilde: un grano de trigo/arroz por la primera casilla, dos por la segunda, cuatro por la
tercera, ocho por la cuarta… y así, en las 64 casillas del tablero. El rey accedió de inmediato
gustoso. Probablemente él no sabía que un kilo de trigo hay unos 20.000 granos, pero de
haberlo sabido, la petición del inventor del ajedrez le habría parecido aún más modesta o
ridícula. Lo que ni sabía ni podía imaginar es que no había suficientes granos de trigo en
todos los graneros del reino para satisfacer la petición de su invitado. Aún más: se ha
calculado que, aún juntado toda la cosecha mundial actual, harían falta unos 1200 años para
satisfacer la petición de trigo. Esta es la precisión de nuestra intuición. Bastante aceptable
con cantidades pequeñas, pero enormemente torpe con cantidades grandes.
Otro ejemplo de nuestro cálculo erróneo habitual se manifiesta cuando realizamos
estimaciones estadísticas que, en muchos casos, son absolutamente desacertadas, como
sucede en el sesgo de la negación de la ratio base (ver vídeo sobre teorema de Bayes).
Veamos un ejemplo: acudimos al médico a recoger unos resultados de unas pruebas
rutinarias y nos dicen que hemos dado positivo para una grave enfermedad. Le preguntamos
al médico si la prueba es fiable y nos dice que la prueba tiene sólo un 1% de error. Lo más
probable es que nos asustemos y creamos que estamos gravemente enfermos con un 99%
de seguridad. Pero esto no es así, ni mucho menos. Para calcular esa probabilidad habría que
tener también en cuenta la probabilidad de base o probabilidad inicial de que alguien al azar
pueda tener esa enfermedad, y cuántos se han hecho el test. Es decir: hay que conocer la
incidencia de la enfermedad en la población general y cuántos test se han hecho. En nuestro
ejemplo, supongamos que la enfermedad es una enfermedad rara que la tiene, según los
datos epidemiológicos que tenemos, 1 persona de cada millón de habitantes en promedio.
Aún si el médico nos intentase tranquilizar ofreciéndonos ese dato, lo más probable es que
pensásemos: ¡Qué desgracia! ¡Qué mala suerte tengo…! ¡Mira que ser yo una de las
poquísimas personas con esa terrible enfermedad! ¿Por qué yo? Pero en lugar de eso,
deberíamos pensar que si la población de Madrid tiene 5 millones, habrá sólo unas 5
personas con esa enfermedad en Madrid. En cambio, si todos los madrileños se hacen la
prueba, como hay un 1% de errores, habrá aproximadamente un 1% de falsos positivos de
entre los 5 millones de tests… es decir, ese 1% se traduce en: 1 de 100, 10 de 1.000, 100 de
10.000, 1.000 de 1 millón y 5.000 de 5 millones. Pero entonces, si al hacer la prueba a los 5
millones de madrileños, 5.000 dan positivo y sabemos que sólo unas 5 personas están
realmente enfermas… ¿qué probabilidad hay de que, habiendo dado nosotros positivo,
estemos realmente enfermos? Pues sabemos que los enfermos son aproximadamente 5,
pero los positivos han sido 5.000. ¿Entonces? Bueno, entonces los verdaderos enfermos son
5 de esos 5000 positivos. O 1 de cada 1000… y eso es un 0,1%, no un 99% como pensamos
inicialmente. Como vemos, nuestras estimaciones estadísticas son lamentables a veces y
esto produce sesgos fatales al valorar la evidencia.

También resulta llamativo por sus efectos el sesgo cognitivo por el cual tendemos a tomar en
cuenta sólo las acciones, valores o creencias exitosos. Este sesgo se conoce como sesgo de
supervivencia o del superviviente. Según el ejemplo clásico, los aviones de los aliados sufrían
durante la Segunda Guerra Mundial notables bajas por la superioridad técnica y táctica de
los aviones de la Luffwafe alemana. Ante la necesidad invertir las tornas, se pensó en
reforzar los aviones sin comprometer excesivamente el peso (y con ello la velocidad y
maniobrabilidad). Para ello se realizó un estudio de los aparatos y se hizo un croquis con las
zonas más dañadas de los aviones aliados tras los combates aéreos. La decisión era clara:
reforzar las alas delanteras, las traseras y parte del fuselaje, que eran las zonas más dañadas.
Sin embargo, el matemático austríaco de origen judío Abraham Wald, emigrado a EEUU por
la persecución nazi, hizo una interpretación absolutamente distinta de los datos que
descolocó a los ingenieros: ¿dónde estaban los balazos de las zonas sin dañar? Según él, esos
balazos estaban todos en los aviones caídos en combate que no habían regresado. Por ello,
esas zonas se revelaban como más vitales y, por tanto, eran las zonas a reforzar: morro,
motores y cabina. Ellos se estaban fijando, equivocadamente, en los aviones que, a pesar de
recibir balazos, eran capaces de regresar y, por tanto, no habían sufrido daños en ninguna
zona crítica. Por desgracia, después de haber ayudado a mejorar los aviones del bando
aliado que contribuyeron a ganar la guerra, Abraham Wald moriría pocos años después
irónicamente en un accidente aéreo cuando iba a dar una conferencia en la India.
Este sesgo es muy habitual: nos centramos sólo en los supervivientes, en los exitosos, sin
tomar en cuenta a todos aquellos que fracasan y desparecen o dejan de contabilizarse… y
que, al no estar en la muestra, resultan invisibles. Por tanto, este sesgo es un tipo de sesgo
de disponibilidad: al tener mucho más disponibles los datos exitosos, queda totalmente
sesgada la muestra total inicial. Esto sucede, por ejemplo, cuando se examinan las presuntas
fórmulas mágicas del éxito estudiando a gente “exitosa” como Amancio Ortega para intentar
luego aplicar esa fórmula y replicar el éxito empresarial. Pero el hecho de que Amancio
Ortega tuviese éxito al hacer esto o lo otro, no implica que no haya otros muchos que,
haciendo lo mismo, hayan fracasado. Replicar esas acciones nos puede llevar a nosotros
también al fracaso, como les llevó a todos aquellos que han quedado en el olvido.
Otro ejemplo es el siguiente: en tiempos de crisis mucha gente poco cualificada pierde su
puesto de trabajo; los más cualificados suelen tener menos problemas de desempleo,
aunque a veces reciben salarios más bajos. Sin embargo, aunque todos ganasen menos, el
salario medio puede aumentar. ¿Cómo es esto posible? Imaginemos que en una empresa
hay 15 obreros y 5 capataces. El suelo de los obreros es de 1.000 euros y el de los capataces
3.000 euros. En total los 20 asalariados cobran 30.000 euros, es decir, un salario medio de
1500 euros. Si una crisis lleva al paro a 10 obreros y 1 capataz y, además, a los que
mantienen su puesto de trabajo se les rebaja el salario en 200 euros, tendríamos 5 obreros
cobrando 800 euros y tres capataces ganando 2800. Ahora, los 8 trabajadores cobrarían
juntos (800*5)+(2800*3), es decir, 12.400 euros, de modo que a pesar de que todos cobran
200 euros menos, el salario medio habría aumentado a 1.550. La causa es que no se tiene en
cuenta en el cálculo los puestos de trabajo que desaparecieron con la crisis.
Esto nos enseña que la media del salario no es una buena medida para evaluar la marcha de
la economía en tiempos de crisis, cuando queremos valorar los efectos de ésta. Sin embargo
a veces se utiliza… en unas ocasiones, de modo inconsciente y con sorpresa ante los
resultados… y en otras ocasiones, con total conocimiento de las causas e intenciones
electorales ocultas para manipular a la opinión pública.

Por último, otro error frecuente al procesar la información es el de invertir el antecedente y


el consecuente de una implicación como si ambas expresiones fueran equivalentes. Por
poner un ejemplo concreto habitual, a menudo políticos, tertulianos, medios de
comunicación, streamers y población en general, consideran que es equivalente decir:

(a) (casi) todos los violadores son hombres, y


(b) (casi) todos los hombres son violadores.

Esto podría formalizarse así:


(a’) ∀x (Hx → Vx)
(b’) ∀x (Vx → Hx)

Pero son dos proposiciones absolutamente distintas y los datos apuntan a que (a) es
absolutamente cierta mientras (b) es obviamente falsa. Hacerlas pasar por equivalentes viola
un principio lógico evidente, al invertir antecedente y consecuente en la implicación. Y sin
embargo, a menudo se comete este error lógico… unas veces por estupidez, otras por
torpeza y muchas otras por maldad e interés, pues sirve como argumento para desacreditar
de un modo bastante cutre, pero efectivo, a los movimientos feministas… y para que algunos
hombres se presenten como víctimas del sistema, de la conspiración hembrista o de
movimientos feminazis, y acusen a quienes usan el argumento (a) de estar defendiendo el
argumento (b).
Esto puede extrapolarse a los errores lógicos y/o manipulación respecto de otras muchas
cuestiones, como los argumentos animalistas, ecologistas, vegetarianos, y de muchas otras
causas minoritarias.
Más adelante veremos cómo lo que podría parecer sólo un mero error cognitivo y, por tanto,
un sesgo cognitivo en frío al procesar la información y/o una falacia lógica cuando se
argumenta valiéndose de ello, se convierte otras veces en un uso malintencionado con el
claro propósito de engañar o desinformar y, por tanto, en una falacia que no revela un error
en el hablante, sino un intento de manipular al oyente. El problema entonces no es sólo
lógico, sino ético.
SESGOS EN CALIENTE
Hay muchos otros errores cognitivos en frío que no podemos pararnos a examinar. Basten
los anteriores como muestra. Por supuesto, en otros casos hay causas emocionales (pánico,
asco, rabia, ira, amor, despecho, angustia, etc.) que pueden nublar nuestro juicio y, por
tanto, provocar que no tomemos en cuenta todo lo que deberíamos y que la información
quede sesgada. Estos sesgos en caliente tienen un trasfondo motivacional pero, a menudo,
inconsciente.
Entre los mecanismos que los provocan destaca, por ejemplo, la disonancia cognitiva.
Cuando dos cogniciones (por ejemplo, dos creencias o una creencia y un deseo), entran en
conflicto, y además se trata de algo de vital importancia para el sujeto o algo para lo que ha
invertido mucho, la tensión entre ambas puede resultar insoportable para el sujeto. En
algunos casos, la tensión puede llegar a suponer una amenaza que ponga en peligro la
equilibrio psíquico del sujeto y resulte especialmente dolorosa; en tal caso, es probable que
éste comience a sesgar la evidencia para favorecer sólo aquella que apoya lo que desea que
sea el caso: por ejemplo, que su hijo no se droga, que el tumor que tiene por fumar a pesar
de las advertencias médicas no le va a matar, que la casa en la que ha invertido todos sus
ahorros por una corazonada no es una ruina o claramente peor que otra que estaba la venta,
o que la secta en la que ha ingresado no le ha timado como a un tonto para hacerse con su
dinero. Leon Festinger estudió este fenómeno y en algunos de esos casos los mecanismos
involucrados en esos sesgos, dan lugar a unas creencias y conductas increíbles.
Otro sesgo típico es el conocido como efecto Forer o Barnum. En este caso, los sujetos
suelen tender verse identificados fuertemente con descripciones muy vagas o generales.
Este tipo de sesgo explica, en parte, por qué la gente cree en el horóscopo o el tarot. Lo
incluimos entre los sesgos en caliente porque a menudo se ve reforzado por carencias
emocionales: búsqueda de sentido de la vida, pérdidas familiares, rupturas amorosas, etc. En
estos casos, el componente “caliente” o motivacional del sesgo está muy claro.
El efecto Dunning-Kruger consiste en que gente con muy poca habilidad para realizar
algunas tareas suele sobreestimar su capacidad y, por el contrario, gente con bastante
capacidad suele subestimarse. Este efecto parece funcionar, en ambos casos, como una
protección psicológica ante los efectos emocionales del posible fracaso: en los que el fracaso
parece seguro e inevitable, lo intentar negar… y en quienes parece imposible o muy pocok
probable, parecen darle credibilidad para rebajar expectativas y con ello evitar decepcionar
a lo grande a quienes esperan un éxito seguro de ellos.
Como vemos, algunos de esos efectos son sesgos que tienen claramente una explicación
psicológica.

Otros sesgos que están a medio camino entre los sesgos en frío y los sesgos en caliente
(porque habría que valorar en qué medida el sujeto necesita emocionalmente
autoafirmarse, por ejemplo), son aquellos que tienen que ver con la tendencia a buscar sólo
o principalmente información que confirme las propias creencias (sesgo de confirmación), la
tendencia a interpretar como favorable información que es ambigua (sesgo de autoservicio),
la tendencia a creer que los demás están de acuerdo con uno mismo (sesgo de falso
consenso), o la tendencia a creer que algo malo que ha sucedido, en realidad uno ya lo sabía
(sesgo retrospectivo) o creer que podría haberlo evitado (sesgo de ilusión de control). A
veces esto último está motivado por un sentimiento de culpa y de responsabilidad.

En definitiva, lo que desde cierto ángulo puede parecer un heurístico (un atajo, una ayuda),
como por ejemplo el llamado heurístico de disponibilidad (tomamos más en cuenta la
información más cercana y disponible en lugar de buscar mucha información y buscarla
lejos), fácilmente puede interpretarse desde otro ángulo como un sesgo cognitivo, o da lugar
a que se produzca un sesgo cognitivo.

Por ejemplo, la primera evidencia resulta, a menudo, muy importante. En muchas ocasiones
nos formamos creencias por una primera impresión. ¿Esto es un atajo que tomamos para
tomar una decisión rápidamente porque es urgente (heurístico) o es un error cognitivo que
nos lleva a futuras equivocaciones (sesgo)?
Hay dos efectos relacionados con esta primera evidencia. El llamado efecto de anclaje,
según el cual, solemos tomar los primeros datos como datos más importantes que los
siguientes; de alguna manera, esos primeros datos provocan un juicio inicial que ejerce de
“ancla”, fijando la opinión o tomando una decisión: por ejemplo, nos gusta un coche y ya no
atendemos a más razones o las minimizamos. El efecto halo se refiere a que a veces, una
característica muy prominente nos hace ver después el resto de cosas bajo ese halo: si era
positiva, tendemos a centrarnos en las positivas y minimizar las negativas… y viceversa. Esto
puede verse claramente cuando conocemos a una persona que nos atrae mucho; de hecho,
el atractivo físico es la característica que mayor efecto halo ha mostrado en diversos
estudios. Ambos efectos pueden actuar conjuntamente: queremos comprar una casa y al
comenzar a ver viviendas vemos una que nos gusta bastante. Probablemente esa primera
impresión va a funcionar como ancla, haciendo que veamos otras casas con menos
entusiasmo o interés o directamente pasemos de ver más. Pero, al mismo tiempo, si la
primera casa tenía una característica muy buena, probablemente vayamos a minusvalorar o
despreciar sus defectos y los posibles inconvenientes que vayan surgiendo e vamos
interpretar todo de un modo más favorable de lo que cabría pensar por ese efecto halo.
LA LÓGICA Y LAS FALACIAS
Como ya hemos visto en el tema anterior, los argumentos pueden ser válidos o inválidos,
fuertes o débiles, convincentes o no convincentes, pero no verdaderos o falsos.
Se puede decir que es verdadera o falsa una proposición o una oración como “hoy es
martes”, “el césped es rojo” o “Toni Kroos es alemán”. Ya veremos, en el próximo tema, qué
significa que algo sea verdad. Hay diferentes teorías acerca de la verdad… pero un
argumento no es ni verdadero ni falso.
Decimos que es válido si presenta una relación de entrañamiento entre premisas y
conclusión; esta es una relación tal que, si las premisas son verdaderas, entonces la
conclusión ha de serlo también necesariamente. Dicho de otro modo: hay una relación
deductiva entre premisas y conclusión.
Decimos que un argumento es fuerte cuando, a pesar de no ser deductivamente válido, sí
está fuertemente apoyado por la evidencia disponible. En este caso, hay una relación
inductiva fuerte entre premisas y conclusión. Esto es importante porque hay argumentos
inválidos que son muy fuertes. Y, en muchas ocasiones, es imposible alcanzar una certeza
absoluta, precisamente debido al conocido problema de la inducción. Pero en nuestra vida
funcionamos muchas veces con creencias apoyadas en inducciones fuertes y no en
deducciones, y estas creencias inductivas son útiles y racionales. Es decir: en muchas
ocasiones la racionalidad no exige certeza, sino sólo un apoyo razonablemente fuerte.
Precisamente esto introduce otro asunto, que es la pragmática: a veces ni siquiera
necesitamos saber si el argumento es apoyado o no por la evidencia y sólo necesitamos que
el argumento sea útil. Hay argumentos que, a pesar de no ser válidos ni fuertes, resultan
convincentes. Es decir, al escucharlos nos parecen correctos, nos persuaden, nos convencen.
Sin embargo, a pesar de tener apariencia de ser válidos, o de ser fuertes, no lo son.

En el ámbito de la Lógica, que estudia los argumentos, hay un apartado que se centra en el
estudio de las estrategias o estratagemas para tener razón o, al menos, para que los demás
así lo perciban. En cierto modo, es el estudio de los métodos que se emplean para convencer
al rival, para derrotarle, aún cuando aquel que venza en la discusión no se haya acercado a la
verdad. Para conseguirlo se intentan apuntalar las propias opiniones y socavar las del rival
hasta invalidarlas, para desacreditarle.
Esta disciplina se conoce como erística, y se desarrolló en el siglo IV a. C., principalmente con
los sofistas. Estos creían que la verdad era inalcanzable (como lo mostraba el hecho de que
los presocráticos llevaban dos siglos discutiendo acerca del arjé sin llegar a ninguna
conclusión segura). Eran relativistas e incluso escépticos, y se valían de la retórica y la
oratoria para convencer. En este contexto el estudio de las falacias, tanto las formales como
las informales, es útil para nosotros respecto a dos objetivos: uno, evitar ser presa de
charlatanes y evitar que cualquiera nos persuada con argumentos erróneos y/o
malintencionados; dos, para ser capaz de hacer uso de ellos nosotros para vencer en una
disputa. Es obvio que el primer objetivo es más ético que el segundo.
Llamamos falacia al argumento mal construido, bien porque es inválido y por tanto la
verdad de las premisas no implica la verdad de la conclusión (falacia formal) o bien porque
comete algún tipo de error material (falacia informal). En ambos casos, los argumentos
pueden parecer convincentes e, incluso, muchas veces son utilizados sin conciencia de que
son erróneos. En cambio llamaremos sofisma, precisamente, al argumento erróneo con
apariencia correcta que es utilizado con la intención de engañar.

Las falacias formales son argumentos que tienen una forma que pretende ser válida y que,
sin embargo, no lo es. Ejemplos de ello son: la falacia de afirmación del consecuente, la
falacia de negación del antecedente, el silogismo disyuntivo falaz o la negación falaz de la
conjunción. En estos casos, la verdad de las premisas no asegura la verdad de la conclusión y
ya las estudiamos en el tema anterior.

Llamamos falacias informales a aquellos argumentos en los que no es la forma sino algunas
cuestiones de tipo material las que hacen que la verdad de las premisas no asegure la verdad
de la conclusión. Nos referimos a cuestiones que se refieren al contenido o al contexto, al
significado de las palabras que se emplean, o al modo en el que atribuimos verdad o
falsedad a alguna de las proposiciones. Podríamos clasificar las falacias informales en tres
grandes grupos:
Falacias de ambigüedad: se aprovechan dobles sentidos, términos vagos, etc.
Falacias de cantidad (o de falta de datos): se sacan conclusiones sin suficientes datos.
Falacias de relevancia o irrelevancia: se apela a cuestiones que nada tienen que ver con lo
que se pretende demostrar.

FALACIAS INFORMALES
Falacia por anfibología. Se vale de la ambigüedad de una oración, bien porque haya un
término ambiguo o porque haya una interpretación ambigua de la oración completa.
Ejemplos del primer caso serían estos dos:

Soy alérgico a los gatos y no puedo tenerlos cerca sin tener una reacción alérgica muy
fuerte. Resulta que hoy mi coche ha tenido un pinchazo y, como había que sacar el gato
para levantar el coche, estoy aquí parado esperando a la grúa.

Hombres y mujeres no son iguales, por lo que no necesariamente han de tener iguales
derechos.

Un ejemplo del segundo:


Las personas que causan heridas serias a otros son criminales. Por tanto, deberíamos
considerar criminales a los cirujanos porque causan heridas a sus pacientes.

En el primer ejemplo, se emplea la palabra “gato” con dos significados y en cada caso se
refiere a algo distinto, al animal y a la herramienta. En el segundo ejemplo, no hay dos
significados del término “igual”, pero la igualdad sí se refiere a cosas distintas: en el primer
caso a cuestiones biológicas como la anatomía, la resistencia o la fuerza, y en el segundo a
cuestiones legales, como los derechos y deberes. En el tercero, “causar heridas” significa lo
mismo literalmente, pero son dos contextos distintos.

Falacia ad ignorantiam. Esta falacia se comete cuando se argumenta que si no conocemos


algo es porque es falso. Por ejemplo, si no hemos visto extraterrestres, eso significa que no
existen. O el siguiente: la prueba de que Dios no existe es que nadie ha podido demostrar que
exista. No sólo es un modo incorrecto de argumentar, sino que resulta curioso, porque
habitualmente basamos nuestra defensa de algo en el conocimiento, y no en la falta de
conocimiento como en este caso. Nadie ha demostrado que no existan los fantasmas, luego
existen.

Un subtipo de esta falacia es lo que se ha llamado falacia de reserva y que puede resumirse
como “el que calla otorga”. Es obvio que este argumento es falaz, porque uno puede no
querer entrar en un debate por diferentes motivos, como la agresividad del otro o
considerar que el asunto es un caso perdido o que el interlocutor es absolutamente idiota; y
no por ello está dándole la razón a su oponente. Y, por supuesto, la ausencia de evidencia no
es evidencia de ausencia.

Una variación de lo anterior es la falacia que consiste eludir la carga de la prueba: esta es
una falacia muy habitual en la que se afirma algo, pero no se ofrecen pruebas y se evita
hacerlo. Por ejemplo: “Es un libro tan malo que no voy a molestarme en ofrecer motivos”.
Esto no es un argumento. Incluso si es un libro de Fernando Savater, habría que ofrecer
algún motivo.
Cuando se comete es esta falacia se hace una mera afirmación, sin argumentar nada. Y no
ocurre nada por afirmar cosas: la falacia no reside en hacer esta o aquella afirmación, sino
en pretender que pase por argumento. Del mismo modo, acusar a alguien sin pruebas es una
falacia: “usted es tan incompetente que es evidente por sí mismo” o “usted ha de abandonar
su puesto en la política porque ha engañado al pueblo y no pienso rebajarme a dar más
explicaciones”.
Respecto a lo anterior, es interesante subrayar algunas cuestiones. Observemos el siguiente
argumento:

No se puede demostrar que yo cometiese el delito, por tanto no lo he cometido.

Como argumento, es ad ignorantiam y, sin embargo, se acepta en un juicio. ¿Por qué?


Bueno, hay un principio legal que reza así: “todo el mundo es inocente hasta que se
demuestra lo contrario”. Esto no quiere decir que todo el mundo sea realmente inocente,
sino que el Estado ha de considerarle inocente porque para poder condenar a alguien, hay
que haber demostrado previamente, más allá de toda duda razonable, que efectivamente
merece un castigo porque es culpable. Es decir: la ley ha de ser garantista. Ha de garantizar
cierta protección ante errores graves y proteger a quien está en una posición débil.
Nótese que, a pesar de que el acusado salga absuelto por falta de pruebas, la ignorancia
respecto a su culpabilidad no demuestra ontológicamente su inocencia; simplemente, ante
la falta de pruebas suficientes, se dicta sentencia y con ello se establece una “verdad
jurídica”, que no es equivalente a la verdad ontológica (aunque esa verdad tenga
repercusiones ontológicas varias, como que el sujeto salga a pasear al perro, plante patatas,
concurra a oposiciones, ayude en un comedor social o robe chorizos en el supermercado).

En realidad, en el ámbito legal se considera que la carga de la prueba (onus probandi) reside
en quién acusa y esto es así por dos principios. Uno, ontológico y otro lógico. El llamado
principio ontológico (quizás debería llamarse antropológico en realidad) considera que el ser
humano no suele cometer delitos; que cometa un delito es la excepción y, por tanto, ha de
considerarse al acusado como inocente de entrada, y corresponde a quien acusa el
demostrar aquello que afirma (es lo que se conoce como presunción de inocencia).
El principio lógico nos indica es que es más sencilla la demostración de hechos positivos que
de hechos negativos. Por ese motivo, es más fácil demostrar que alguien hizo algo que
demostrar que no lo hizo. Esto se resume en la máxima jurídica según la cual has de probar
lo que dices, no lo que niegas (probat qui dicit non qui negat). Ambos principios determinan
que la carga de la prueba recaiga habitualmente en quien acusa. Por ello, en los estados
modernos casi nunca se le pide al acusado que demuestre su inocencia, porque esto
implicaría una inversión de la carga de la prueba. Al acusado se le considera inocente hasta
que se demuestra lo contrario y es labor de quien acusa demostrar suficientemente, fuera
de toda duda, que el acusado es culpable. Como es natural, el acusado puede defenderse de
la acusación y aportar pruebas, pero la carga de la prueba recae sobre quien acusa.
Esta carga sólo queda desplazada en algunos casos puntuales como cuando, por ejemplo, un
guardia civil nos acusa de haber cometido una infracción. Dado que el guardia civil es una
autoridad, tiene presunción de veracidad y, por tanto, la carga de la prueba queda
desplazada hacia el acusado.
Tampoco está la carga de la prueba invertida cuando se toman medidas cautelares, como
quitarle el pasaporte a un criminal peligroso que puede huir (si tiene motivos y medios) o
mantener en el calabozo a un presunto violador o agresor en casos graves de violencia de
género, en espera de un juicio o al menos de asegurar el realojo y la protección de la
presunta víctima. Estas medidas tienen el objetivo de preservar un bien mayor y, por tanto,
no suponen la pérdida de derechos del acusado en general, ni la pérdida de la presunción de
inocencia en particular, ya que cuando llegue el momento, tendrá derecho a un juicio justo
donde la carga de la prueba recaerá en la acusación.

Falacia ad hominem (contra el hombre): Esta falacia consiste en el ataque personal, en la


burla, insulto o ataque a la persona que sostiene un argumento, en lugar de atacar su
argumento. Se trata es una falacia de relevancia, porque las características físicas, valores,
acciones, etc. del adversario no tienen nada que ver en la verdad de lo que sostiene.
Sin embargo, existe una excepción: si lo que se debate es, por ejemplo, la honorabilidad de
un sujeto, el adversario podrá presentar argumentos que pongan de manifiesto que no la
tiene; si se debate sobre si alguien es corrupto, podremos hacer ataques personales,
directos, en los que mostremos si ha malversado fondos, si ha cometido tráfico de
influencias, etc.; o si se debate si un candidato puede tener a su cargo a menores, no será
una falacia señalar que tiene antecedentes criminales por abuso de menores.
Lo que no tiene relevancia es que en un debate sobre presunta corrupción de un político, se
saque a relucir una infidelidad de éste hacia su mujer; sin duda, habrá quienes consideren la
infidelidad algo muy poco ético e, incluso, algunos pueden pensar que si no respeta a su
esposo/a, entonces no es de fiar. Pero el debate en ese caso tendría que ver con la
corrupción y no con la ejemplaridad de su matrimonio o con la infidelidad en particular. Es
decir: hay argumentos ad hominem que no son falacias ad hominem y otros que sí lo son.
¿Cuáles no lo son? Pues aquellos en los que el ataque personal esté justificado, porque el
ataque tenga relevancia para valorar la idoneidad personal del adversario en determinado
campo que se está debatiendo.

Falacia tu quoque (tú también): Es un subtipo de la falacia ad hominem, aunque en esta no


se ataca directamente al adversario, sino que ante una acusación, se le devuelve la
acusación con un “y tú también” o un “y tú más”. Supongamos que se está juzgando un
posible caso de corrupción y, ante la pregunta del juez a Fulanito acerca de si desvió unos
fondos públicos para fines personales, él respondiese “bueno, usted también”, o “Menganito
también lo hizo” o “No soy el único, otra gente lo hace”. Eso no tiene relevancia para juzgar
si Fulanito cometió un delito, que es lo que se está juzgando.

Falacia del hombre de paja: Se comete esta falacia cuando en el debate con tu interlocutor
reexpones su argumento pero totalmente desfigurado y, por supuesto, debilitado. A
continuación, procedes a destrozar esa caricatura, ese hombre de paja que has creado y que
es ridículo. Lógicamente constituye una falacia porque no estás respondiendo a tu
adversario, sino a otra cosa. Este tipo de argumentos son muy utilizados en la política (y en
las relaciones de pareja).

Falacia ad baculum (apelar al bastón): Es un presunto argumento que, lejos de argumentar,


apela a la amenaza al interlocutor con la intención de que se acobarde y acepte nuestra
conclusión. Como es evidente, este no es un modo correcto de establecer acuerdos o la
verdad de algo. Ni desde el punto de vista ético ni desde el epistémico.

Falacia ad verecundiam (apelar a la autoridad): Esta falacia consiste en apelar a una


presunta autoridad para establecer la verdad de algo. Evidentemente, hay personas que son
autoridad en un campo; por ese motivo, cuando apelamos a ellos estamos empleando un
argumento de autoridad. Estos argumentos pueden ser interesantes y fuertes. Es obvio que
la opinión de una autoridad en su campo ha de ser tenida en cuenta. Puede servirnos para
dirigir nuestra atención a cuestiones importantes, para encauzar nuestras investigaciones,
nuestros fondos… pero por sí sola, la opinión de alguien no hace verdadero aquello que
afirma, sea quien sea quien lo afirma. Son los hechos los que validan las proposiciones. Por
ejemplo, aunque la opinión de Albert Einstein en Física fuese altamente respetable, eso no
quiere decir que Einstein fuera infalible: es célebre que Einstein creyó que no existía ninguna
indicación de que se pudiese obtener energía nuclear. Como sabemos por el proyecto
Manhattan, por Hiroshima y Nagashaki, o por Chernóbil o Fukushima, se equivocó y mucho.
Y se equivocó en Física, su campo. Einstein: un prodigio de la Física. Ni que decir tiene que
Einstein no es una autoridad en Derecho, Filosofía, Biología o Nutrición. Y se le cita casi para
todo; por ejemplo, a veces se apela a su supuesta autoridad para apoyar el vegetarianismo;
en cambio, aunque su opinión puede ser digna de ser tenida en cuenta por haber sido una
de las mentes más brillantes de la historia, su opinión no hace verdadero aquello que afirma,
ya que ni siquiera es una autoridad en el campo de la biología evolucionista o la nutrición.

Falacia ad populum (apela al pueblo): Esta falacia consiste en afirmar que algo es verdadero
o correcto porque mucha gente lo dice o lo cree. San Agustín, por ejemplo, afirmaba que
una prueba de la existencia de Dios era que todos los pueblos han llegado a esa misma
conclusión y tienen sus deidades. Tal coincidencia no puede ser mera casualidad.
Esta falacia se parece a la falacia de autoridad, aunque en esta ocasión la presunta fuente de
credibilidad vendría dada por el amplio número de personas que sostienen algo. Esta falacia
se ve favorecida por el sesgo de falso consenso y el efecto de arrastre anteriormente
mencionados. Imaginemos que alguien afirmase que la Tierra es esferoide porque casi todo
el mundo lo cree así. Como es evidente, el hecho de que la Tierra sea esferoide o no, o de
que sea plana o no, no depende de que un número mayor o menor de gente lo crea. A lo
largo de la historia la sociedad ha creído muchas cosas que hoy sabemos que son falsas e
incluso nos parecen ridículas.
En cambio, en algunas ocasiones la opinión de la mayoría sí puede resultar relevante para
establecer la verdad de algo. Por ejemplo, si mucha gente se sienta atraída por un actor de
cine, podremos afirmar que el actor es muy atractivo y apelar para justificarlo a que mucha
gente así lo cree. Precisamente porque la definición de ser atractivo consiste en atraer. Y ser
muy atractivo, en atraer mucho o a muchos. En este caso, también se trataría de un
argumento ad populum, pero no sería una falacia. Es decir: siempre que para establecer la
verdad de algo apelamos a que mucha gente o la mayoría lo sostienen, estaremos ante un
argumento ad populum. No todos estos argumentos ad populum constituyen una falacia…
pero algunos de ellos sí: cuando la opinión de la gente no es relevante para la verdad de la
cuestión. De nuevo, esta falacia es un subtipo de las falacias de relevancia.

Falacia ad nauseam (hasta la náusea): En esta falacia uno se vale de la repetición. No se


trata de que mucha gente sostenga algo como en la falacia ad populum, sino de que una
cosa se dice mucho. A veces se dice mucho pero no lo dice mucha gente: solo lo dice un
sector social, un grupo reducido de personas, o un periódico concreto. Pero insisten mucho.
Y “una mentira repetida mil veces se convierte en una verdad”. Esta frase se le atribuye,
probablemente de modo erróneo, a Josef Goebbles, ministro de propaganda nazi. Pero
ilustra algo que parece evidente: la repetición hasta la náusea de una idea hace que esté
más disponible. Y el sesgo de disponibilidad que vimos anteriormente hace más probable
que el sujeto adquiera la creencia. A esto se le suma la creencia de que “cuando el río suena,
agua lleva”.

Falacia ad antiquitatem o de apelación a la tradición. Esta falacia se produce cuando para


argumentar que algo es verdad, que es bueno o que es deseable, apelamos a que siempre ha
sido así, a que hace mucho tiempo que se hace así, o a que es parte de la tradición.
Esta idea se beneficia del sesgo cognitivo según el cual si algo ha soportado el paso del
tiempo, es porque es verdad / bueno /útil / deseable. Esto, como suele suceder con los
sesgos, no es una idea absurda: por eso a veces se emplea como heurístico. Pero, desde
luego, no asegura ni la validez ni la corrección del argumento. De hecho, buena parte del
progreso humano ha consistido en desembarazarse de costumbres, ritos y creencias
ancestrales o tradicionales que hoy consideramos brutales, injustas, abusivas o abominables.
Por desgracia, algunas de estas tradiciones perduran hoy en día en muchos lugares del
planeta: los matrimonios concertados con niñas, la esclavitud infantil, la explotación sexual,
el abuso animal, el machismo y un largo etcétera son prueba suficiente de que lo tradicional
no es por sí mismo ni bueno, ni deseable. Del mismo modo, muchas creencias antiguas
(religiosas, mágicas, míticas, protocientíficas… e incluso científicas, han resultado erróneas,
obsoletas… y, algunas de ellas, por desgracia, se llevaron muchas vidas por delante).

Falacia ad novitatem o de la novedad: En este caso la trampa consiste en apelar a la


novedad. Si lo tradicional no es necesariamente bueno ni verdadero, lo novedoso tampoco
lo es. En la falacia ad novitatem, en lugar de mostrar las buenas cualidades o los beneficios
de algo, subrayamos su novedad, tratando de que en el imaginario del interlocutor se
establezca una conexión inconsciente entre novedad y mejora. ¿Por qué? Bueno, existe un
sesgo cognitivo bastante razonable y arraigado en nosotros que va asociado a la idea de
progreso, y que consiste en la creencia de que algo nuevo incluirá mejoras y no supondrá un
paso hacia atrás. De esto se vale a menudo la publicidad, que enseguida anuncia sus
productos con un texto bien visible donde dice: ¡Nuevo!
Como sabemos, lo catalogado como “nuevo” no siempre es mejor. En primer lugar, porque a
menudo sólo responde a una operación de marketing, y el producto sigue siendo el mismo.
Solo ha habido una renovación de la caja o del embase, un rediseño del logo, de los colores
del producto, etc. Pero es que en otras ocasiones, el producto no solo no es mejor, sino que
es peor. A veces porque no se ha testado lo suficiente (como sucede a veces cuando sale al
marcado una nueva versión de un determinado modelo de coche; quizás el anterior era
fiable y en el nuevo se introducen mejoras que acaban dando diversos problemas
inesperados; pero a veces ni siquiera es algo involuntario: es muy conocido el acuerdo del
cártel de empresas fabricantes de bombillas que, en los años ’30 y diseñando un plan de
obsolescencia programada, acordaron reducir las horas útiles de la bombilla para que se
fundiesen antes y poder vender más (para engrasar la maquinaria capitalista). Fueron
reduciendo su vida útil de 2500 a menos de 1500 en solo dos años y para los años ’40, la
publicidad de aquellas bombillas anunciaba ¡1000 horas! como si fuese un logro.
Es evidente que hay progreso en muchos ámbitos y que hay mejoras. Pero la novedad, por sí
misma, no asegura mejora… por lo que emplear la novedad como criterio o como argumento
sin ofrecer más motivos, es una falacia.

Ad passiones: Esta falacia es bastante habitual, porque apela a algo muy profundamente
arraigado en el ser humano y que, además, sabemos que puede llegar a nublar el buen juicio
de nuestros adversarios, espectadores, jurado o población diana. La falacia consiste en tratar
de tocar la fibra sensible, apelando a emociones como la ira, la rabia, la compasión o el
amor. Se busca convencer al oponente de nuestra postura o de ridiculizar la suya, alterando
a nuestra audiencia. Como hemos visto, esto desencadena algunos mecanismos psicológicos
que alteran nuestra capacidad para buscar evidencia, sopesarla y evaluarla.

Un subtipo muy habitual de la falacia ad passiones es el argumento ad metum o de


apelación al miedo. El miedo es una de las emociones más potentes y, muy habitualmente,
se intenta asustar a la población para convencerla de que algo es necesario (una reforma,
una nueva ley, la inversión de dinero en armamento, la hipervigilancia y reducción de
derechos civiles, etc.) o para convencerla de que este o aquel partido político, o este o
aquella política, son necesarios o son nefastos. Otro ejemplo serían los peligros con los que
tratan de asustar los padres a los hijos para que se comporten como ellos esperan que
hagan. Un caso llamativo de esto, son los cuentos infantiles, llenos de imágenes cruentas: el
lobo tratando de comerse a Caperucita, la cerillera muerta por congelación en la calle,
Hansel y Gretel presos de una bruja que quiere engordar a Hansel para comérselo… o los
cuentos del hombre del saco o del coco. Disney ha dulcificado algunas de estas versiones,
pero las clásicas eran espeluznantes. Como argumento para convencer al niño ad metum
probablemente eran eficaces. Como método pedagógico, nefastos.

Otro ejemplo de falacia ad passiones es la llamada Reductio ad Hitlerum que se vale del
comprensible rechazo y odio hacia la figura de Adolf Hitler, para acusar a cualquier
argumento rival de hitleriano o nazi. Decir que algo “es muy nazi” supone una falacia porque
no argumenta nada per se y sólo busca introducir una pasión fuerte y negativa vinculada a
las ideas del oponente.
Es obvio que puede haber ideas, conductas o argumentos cercanos al nazismo, al
supremacismo, al exterminio… y en esos casos, calificarlo de nazi y argumentar por qué eso
es así, no sería una falacia. Quizás se podría acusar a estos argumentos de anacrónicos, de
imprecisos, pero no de falaces. Lo que es una falacia es buscar el golpe de efecto para
provocar esas emociones, sin argumentar nada más allá de la mera colocación de la
etiqueta.

Falacia del falso dilema: Consiste en presentar dos alternativas enfrentadas cuando esas
opciones no están realmente confrontadas o cuando en realidad hay más de dos opciones,
que se ocultan al oyente. Al hacerlo se crea un falso dilema. En el primer caso, porque se
enfrentan cosas que no tendrían por qué estar enfrentadas. En el segundo caso, porque se
están ocultando parte de las opciones al adversario o al público para obligarle a elegir solo
entre dos. En algunas ocasiones, además, una de las alternativas que se ofrece es tan
grotesca, que se está forzando al adversario a escoger la que deseamos que escoja. O una de
ellas es tan claramente deseable, que no hay debate.
Un ejemplo reciente fue la campaña política que decía: “Comunismo o libertad”. Aquí se
comete la falacia con todos los ingredientes posibles. En efecto, para que esa campaña no
hubiese sido una falacia de falso dilema como una catedral, habría que:
1. Demostrar que el rival político era comunista.
2. Demostrar que la propia postura (y no la del rival) conlleva libertad.
3. Definir qué es la libertad, qué tipos hay, cuál es el que elegimos nosotros y por qué.
4. Mostrar por qué el comunismo no es compatible con la libertad.
5. Explicar por qué sólo se contemplan dos opciones en el eslogan, cuando realmente
concurrían varios partidos más a esas elecciones.

Otro ejemplo clásico se produce cuando un amigo te cuenta un problema y no le das la


razón, o simplemente criticas sus acciones, sus palabras… y te responde: “estás conmigo o
contra mí”. Es una falacia de falso dilema porque evidentemente hay más opciones… y estar
de su lado no implica darle la razón en absolutamente todo. Más aún: quererle y estar de su
lado implica necesariamente quitarle la razón cuando no la tiene, y hacerle ver por qué.

Falacia de las muchas preguntas o de la pregunta compleja: Consiste en introducir una


pregunta que, en realidad, encierra varias ocutas. La pregunta “¿sigues copiando en los
exámenes?” engloba dos preguntas: ¿Copiabas en los exámenes? ¿Sigues copiando?
De un modo similar, otros ejemplos clásicos: “¿Te arrepientes de tus pecados?” “¿Sigue
usted pegando a su mujer?”
Al realizar este tipo de preguntas se busca pillar fuera de juego al adversario y que reconozca
algo que no estaría dispuesto a reconocer. Estas estrategias son muy empleadas por
abogados o fiscales para cazar al acusado o a la presunta víctima, pero también son
habituales en el ámbito doméstico, en discusiones de pareja en las que se intenta obtener
información extra sobre algo… o con los hijos —sobre todo cuando son pequeños y no se
dan cuenta de este tipo de trampas—, para tratar de sonsacarles información.

Falacia de la pista falsa (falacia del arenque rojo): Consiste en exponer un argumento que
no tiene absolutamente nada que ver con lo que se está debatiendo. A veces se emplea para
no responder al adversario. Otras veces, para cambiar de tema en previsión de que salga
algo que no se desea. Y en otras, para lanzarle un anzuelo a ver si pica. En todo caso supone
un tipo de falacia “non sequitur”, porque lo que argumenta quien comete este tipo de falacia
no se sigue de lo anterior. Está desconectado, no es relevante, solo pretende confundir.
Falacia de la pendiente resbaladiza: Consiste en dar por supuesto que la adopción de una
idea, de una conducta o de una medida, conllevará una serie de efectos en cascada. Esto a
veces es verdad y puede suceder, pero otras veces no es así. Cometemos esta falacia cuando
sacamos conclusiones del argumento de nuestro adversario que van más allá de lo que él
dice y que, además, están injustificadas… para posteriormente atacar estas consecuencias.
Esta falacia es similar a la falacia del hombre de paja en el sentido de que no se responde al
verdadero argumento del oponente, sino a otro creado por el propio interlocutor, pero este
argumento no desfigura, sino que simplemente saca conclusiones precipitadas e
interesadas, por lo que guarda cierta semejanza con la pista falsa.
Supongamos que estamos defendiendo el uso medicinal de la marihuana y nuestro
adversario nos responde:

Bueno, si defiendes el uso terapéutico de la marihuana basándote en que el control del dolor
y el bienestar del paciente es lo primero, entonces ¿por qué no permitir el uso de morfina,
ketamina y otra drogas más duras? Estas también calman el dolor. Pero resulta que si se
permite el uso de drogas duras en el ámbito hospitalario probablemente esto dará lugar a
que también se puedan usar de modo ambulatorio y, por qué no, finalmente en el
tratamiento domiciliario, cuando se le dé el alta al paciente. Porque estos pacientes también
pueden tener dolor. El problema es que no se ve muy bien cuál va a ser el criterio para
distinguir entre los que sufren genuinamente por una enfermedad crónica y dura como el
cáncer y otros pacientes que sufren crónicamente durante años como los pacientes
depresivos y con diferentes trastornos. Pero llegados a ese punto, no parece descabellado
que si la ketamina o la morfina son de uso terapéutico extendido, la heroína pueda parecer
no tan mala y, por supuesto, la cocaína será el menor de los problemas. ¿Realmente estás
defendiendo que la cocaína o MDMA esté al alcance de nuestros hijos y sea de uso común
entre los adolescentes?

Falacia de la generalización apresurada o generalización indebida: Esta falacia, muy


frecuente, se produce cuando se sacan conclusiones con una base muy pequeña de
evidencia. Quien se vale de esta falacia, finge que su argumento se apoya en la inducción,
pero el número de casos es tan pequeño que no sirve para sacar conclusiones. Como es de
sobra conocido, esto suele ocurrir en la crítica a grupos minoritarios: extranjeros, gente de
otras culturas y religiones, etc. Vamos a considerar el siguiente argumento que manejaba un
servidor cuando tenía unos 10 años:

Está probado que Alain Prost es francés y es un chulo; Laurent Fignon es francés y es un
chulo; Richard Virenque es francés y es un chulo; Eric Cantona es francés y es un chulo. Por
tanto, los franceses son unos chulos.

Quizás la conclusión sea correcta, pero el modo de obtenerla es totalmente irregular. Si bien
toda generalización puede suponer un error incluso cuando tiene una base evidencial muy
grande, al menos en esos casos puede resultar razonable dar el salto desde un punto de
vista inductivo. Pero cuando hay pocos casos está totalmente injustificada inductivamente y,
por ello, la generalización es apresurada. Y falaz.
Cuando se sacan conclusiones acerca de poblaciones relativamente minoritarias (en España,
típicamente gitanos, rumanos, búlgaros, peruanos…) a partir de la publicación de algunos
casos puntuales de delitos, se está haciendo una generalización apresurada y el argumento
es falaz. Y peligroso sociológicamente, porque puede generar recelos, miedos, odios,
tensiones y enfrentamientos que, además, pueden enquistarse y generar, ahora sí,
problemas reales.

Apelar a la Naturaleza: Consiste en afirmar que lo natural es bueno y deseable (y, a sensu
contrario, lo artificial es perjudicial). Aquello que no es natural se tilda despectivamente de
“artificial”, “químico”, “artificioso”, etc. Como es evidente, esto constituye una falacia
porque hay cosas naturales que son peligrosas, como algunas setas, venenos y
enfermedades, y hay otras cosas que, siendo artificiales, han salvado miles de vidas, como
muchos medicamentos (p. ej. Los antirretrorivales contra el VIH o la quimioterapia) o las
vacunas; o han mejorado la calidad de diagnóstico (rayos X, resonancia magnética, TEP, etc.)
han mejorado las intervenciones médicas (anestesia), o la vida en el día a día (prótesis,
antidepresivos, antipsicóticos, etc.). Los medios de transporte que acercan y conectan a
personas, la computación, la encriptación, internet, la wifi, o las IA que con el Big Data son
capaces de encontrar tratamientos novedosos o nuevos antibióticos como la halicina. O
elementos de protección (el casco, el chaleco salvavidas, los cinturones de seguridad, etc.).
Sin duda lo natural puede ser bueno y saludable. Una excursión por las montañas, el aire
puro, los productos de granjas pequeñas o los caseros; durante los últimos años se ha
abierto el debate sobre los productos transgénicos: modificados genéticamente para
soportar plagas, climas o suelos poco adecuados, etc. pero el desarrollo de la técnica de
edición genética CRISPR nos traerá pronto trigo sin gluten (noqueando los genes que
codifican las gliadinas) del que se beneficiarán millones de celíacos. Está claro que, por
ejemplo, el parto natural puede ser gratificante en algunos casos y es posible que tenga
algunos beneficios para el recién nacido, pero los partos mediante cesárea son necesarios a
veces y la epidural ha conseguido una enorme mejora en la calidad de vida de muchas
parturientas.

Falacia naturalista: Aunque puede ser confundida con la anterior, la falacia naturalista se
refiere a una importante crítica del filósofo empirista escocés David Hume, que afirmó que el
paso del ser al deber ser constituye un salto ilegítimo y, por tanto, es una falacia cuando se
emplea como argumento. A esta tesis humeana se va a oponer la tesis de Leibniz, para quien
el presente mundo sería el mejor de los mundos posibles; se opone porque esta teoría,
conocida a veces como optimismo metafísico, defiende que Dios, en su suma bondad, ha
creado el mejor de los mundos posibles. En este sentido, lo que existe es lo que debe existir.
Leibniz da un salto del ser al deber ser. Dos siglos después, el filósofo del romanticismo
alemán Hegel afirmará que todo lo real es racional y todo lo racional es real, dejando claro
que si algo existe, debe existir (porque es racional que exista). Hume se oponía a esto. Él
consideraba que había muchas cosas que existían pero no debían existir y dar el salto desde
la ontología (existe) hasta la ética (debe existir) es un salto ilegítimo. En cierto modo, esta
falacia está a medio camino entre la falacia ad antiquitatem (apelar la tradición) y la que
apela a la Naturaleza (que porque algo es natural, es bueno).

Falacia de la conjunción: Consiste en creer que es más probable que ocurra una conjunción
de eventos que cada evento por separado. Veamos esto con un ejemplo ya clásico. Los
célebres autores de los primeros estudios de los heurísticos y atajos mentales Tversky y
Kahneman nos dicen lo siguiente:

Linda tiene 31 años de edad, es soltera, inteligente y muy brillante. Se especializó en filosofía.
Como estudiante, estaba profundamente preocupada por los problemas de discriminación y
justicia social, participando también en manifestaciones anti-nucleares.
¿Qué es más probable?
A. Linda es una cajera de banco.
B. Linda es una cajera de banco y es activista de movimientos feministas.

El 85% responde B. Sin embargo, B presenta una conjunción y precisamente por eso es
menos probable, porque es más restrictiva: tienen que darse más cosas para que B sea
correcta que A, ya que los miembros del conjunto B están incluidos en el conjunto A.
Si B es correcta, también será A… en cambio si A es correcta, B no tiene por qué serlo. Dicho
de otro modo: A es más probable que B, porque se cumple siempre que se cumple B y,
además, puede cumplirse en otros casos. Hay razones psicológicas para caer en esta trampa,
pero es un error palmario.

Petitio principii o petición de principio: Hay argumentos que, a pesar de presentar un


esquema formalmente válido, son considerados falacias. En su versión más sencilla, tendrían
la siguiente forma:
A
_________________

A
Formalmente es válido porque si la premisa A es verdadera, necesariamente será verdadera
la conclusión A. Todo argumento con esta forma es válido y, por tanto, formalmente es
impecable. “Hoy es martes; por tanto, hoy es martes”. El problema es que no me convence
de que sea martes; quizás hoy sea miércoles o viernes. Por tanto, el problema es material,
no formal.
Ahora imaginemos que queremos debatir si el aborto es ético. Si alguien quisiese defender
que sí lo es, no debería utilizar el siguiente argumento: “El aborto es totalmente ético; por
tanto, el aborto es totalmente ético”. Diríamos que está presuponiendo aquello que quiere
demostrar. Es decir, que la conclusión presupone la premisa o, en términos más técnicos, se
dice que “el argumento pide la cuestión” o que “pide el principio”. A esta falacia se le conoce
como petitio principii o petición de principio, porque estaríamos dando por supuesto ya en
nuestras premisas algo que pretendemos demostrar.
Consideremos ahora el siguiente ejemplo:

Yo digo siempre la verdad. Por tanto yo no miento.

Aquí, aunque no se repite literalmente lo mismo en premisa y conclusión y, por tanto,


podemos formalizarlo como
A
_________________

¬B

donde A= “decir la verdad” y B =”mentir”, y resulta que este esquema es claramente


inválido, algo nos dice sin embargo a primera vista que el argumento inicial es válido. Ello se
debe a que podemos definir “mentir” como “no decir la verdad”. En ese caso, dado que
definimos B como ¬ A, entonces sustituyendo el argumento quedaría así:

Yo siempre digo la verdad; por tanto, no es cierto que yo no diga la verdad

Podemos formalizarlo como:


A
_________________

¬¬A

Nuevamente, este argumento es formalmente válido, pero no puede convencer a nadie si


pretende dar razones para que creamos en la verdad de la conclusión porque simplemente
la está afirmando sin justificación en la premisa.

A este tipo de argumento también se le suele llamar argumento circular cuando intervienen
más elementos. Por ejemplo, A y B.
Veamos el siguiente argumento:
¿Existe Dios? Bueno, la existencia de Dios está afirmada en la Biblia y si uno cree aquello que
dice la Biblia, no puede dudar de la existencia de Dios. Pero es que precisamente la Biblia no
puede ser puesta en duda, pues es la palabra de Dios.

Si nos fijamos bien, el argumento dice que hay que creer en Dios porque lo dice la Biblia y
hay que creer aquello que dice la Biblia porque es palabra de Dios. Hay, pues, una
justificación recíproca que da lugar a un esquema circular. A justifica a B, y B justifica a A.
En algunas ocasiones el círculo contiene más elementos, A, B, C, D… y es más difícil
identificar la trampa argumental. Incluso, si el círculo es muy grande, es posible que deje de
considerarse falaz. Por ejemplo, las palabras del diccionario siempre se definen
necesariamente usando otras palabras. Y si buscas esas otras palabras, te llevará a otras… y
así sucesivamente. En ese sentido, el entramado de definiciones es circular, pero admitimos
que el propio entramado es informativo y, por tanto, significativo. No admitiríamos, en
cambio, que si buscamos la palabra “coche”, nos dijese: “Un coche es un coche”. Ni siquiera
sería admisible que nos dijese: “un coche es un automóvil”. Y al buscar automóvil, nos
dijese: “Un automóvil es un coche”. Porque sería claramente circular.

Cum hoc, ergo propter hoc (“con esto, luego a causa de esto”) es una falacia muy habitual y,
en ocasiones, difícil de detectar. Se apoya en la coincidencia de dos hechos para establecer
que hay una relación entre ellos. A menudo, son dos hechos que suceden repetidamente
juntos, pero eso no implica que haya una relación causal entre ellos. En eso consiste la
falacia: en suponer que hay causalidad allí donde sólo hay concurrencia o correlación. Un
ejemplo clásico es el del aumento de la venta de helados y el aumento de la tasa de
asesinatos en Nueva York. Cuando una aumenta, la otra también. Cuando disminuye una, la
otra también. Resultaba muy misterioso e intrigante. Pero el hecho de que ambas tasas
covaríen no implica en absoluto que estén directamente conectadas. ¿Estaba provocando
asesinatos la venta de helados? Más adelante se cayó en la cuenta de que ambos fenómenos
estaban provocados por el calor. Por eso, cuando aumentaba la temperatura en la ciudad,
ambas tasas se elevaban y cuando descendía la temperatura, ambas tasas decrecían.

Un error muy cercano al anterior es el que se produce cuando se invierte la relación causal.
Es decir, hay un hecho A que causa B y, como aparecen siempre juntos, se supone
erróneamente que B causa A. Esto se conoce como falacia de dirección incorrecta (o
causalidad inversa) y a veces no es un error, sino algo interesado. Por ejemplo, cuando
comenzó a asociarse el consumo de tabaco con el cáncer, las tabacaleras negaron
inicialmente tal relación (esto puede verse en la serie Mad Men). Pero más adelante, cuando
la correlación parecía innegable, las tabacaleras afirmaron que lo que sucedía era que los
pacientes con cáncer fumaban compulsivamente para tratar de calmar los efectos del
cáncer. Según ellos, esa era la causa por la que morían pacientes que fumaban mucho, y a
partir de ahí, la gente imaginaba erróneamente que había relación de causalidad.

Es importante recalcar que la mera correlación no implica causalidad. Por eso, incluso
aunque sepamos que el consumo de carne roja se correlaciona con mayor incidencia del
cáncer colorrectal, eso no implica per se que haya una conexión causal y que comer carne
roja te vaya a provocar un cáncer. Quizás quienes comen más carne roja llevan un estilo de
vida que facilita el cáncer. Si esto fuera así, no sería la carne roja la causante. Por ello,
cuando observamos una correlación entre dos fenómenos, es importante realizar un estudio
bien diseñado para tratar de determinar si hay variables extrañas y si además de correlación
hay conexión causal.

Este tema es tan importante, que vamos a examinar un poco más de cerca cómo se diseña
un estudio serio para analizar una hipótesis y cómo este procedimiento ha sido retorcido de
modo absolutamente deshonesto para sesgar los datos y publicar presuntos artículos
científicos que resultaron ser fraudulentos. Antes de nada, veamos unos conceptos básicos:
Hipótesis inicial (H0): hipótesis que ya tenemos; hipótesis asentada.
Hipótesis alternativa (HA o H1; hipótesis que pretendemos someter a prueba, para
ver si es superior a H0.
Constante: es un elemento cuyo valor está predefinido y que, por tanto, no cambia.
Variable: es un elemento cuyo valor puede cambiar; por tanto, toma valores
distintos en función de distintos motivos.
Variable Independiente (VI): Es una variable que, en el contexto de un experimento
científico, podemos manipular para darle un valor determinado, y observar a
continuación el efecto que tiene sobre otro parámetro.
Variable dependiente (VD): Es una variable cuyo valor va a depender del valor que
tome la variable independiente.
Variable extraña (VE): Es un elemento que no estamos teniendo en cuenta, pero
está influyendo en los resultados de nuestro experimento. Hay que eliminarlas.

Uno de los objetivos de todo diseño experimental es eliminar por completo las variables
extrañas. Para ello hemos de reflexionar y observar todo aquello que pueda influir en
nuestro experimento, bien para tomarlo en cuenta e incorporarlo, bien para eliminarlo o
para neutralizarlo (mediante técnicas de balanceo o contrabalanceo, por ejemplo, si no
podemos eliminar el cansancio que se acumula al hacer unas pruebas, haremos que los
sujetos las hagan en orden distinto, para que no hagan necesariamente siempre peor las
mismas: las “últimas”).
Además, nuestra hipótesis ha de estar correctamente constituida mediante un constructo
fiable y válido. Ejemplos de constructos son: “amor”, “cansancio”, “estrés”, “aburrimiento”,
etc. Este tipo de sentimientos, sensaciones, emociones, no siempre son directamente
observables y mucho menos son medibles. Para ello, hemos de describir exactamente a qué
nos referimos con ese concepto o constructo y hemos de determinar cómo vamos a
examinarlo y medirlo, es decir, cómo vamos a operativizar ese constructo. Decimos
operativizar porque hemos de poder manejarlo, operar con él, hacer que sea algo evaluable.
Pero para medirlo necesitamos también de algún aparato o instrumento de medida.
Decimos que ese instrumento es fiable si al hacer varias mediciones arrojan siempre el
mismo valor; y es válido si estamos midiendo lo que realmente queremos medir. Por
ejemplo: pensemos que un experimentador quiera tratar de establecer cuánto tiempo dura
la fase de enamoramiento, y para ello decide medir los niveles de oxitocina de distintos
sujetos que mantienen una relación de pareja. El problema puede ser: que nuestros
instrumentos no midan bien la oxitocina, y por tanto la medición arroje unas veces un valor
adecuado y otras no (falta de fiabilidad) o que realmente estemos equivocados al pensar
que el enamoramiento se manifieste químicamente con la secreción de oxitocina (falta de
validez). En ambos casos, nuestro experimento estaría mal diseñado.
También estaría mal diseñado si no se tienen en cuenta cuestiones como el contexto cultural
(las ideas acerca del amor romántico, del sexo, etc.), social (presiones, matrimonios
concertados, ritos de paso, etc.) o la época del año en el que se toman los datos (primavera
en unos casos, otoño en otros). En este caso, habría posibles variables extrañas que estarían
influyendo indeseadamente en el experimento y, por tanto, lo estarían invalidando.
Cuando establecemos que la modificación del valor de la variable independiente es la
única razón por la que cambia el valor de la variable dependiente, podemos concluir que
hemos demostrado que hay una relación de causalidad (y no mera correlación) entre
variable dependiente e independiente. Que dos parámetros varíen al unísono, aumentando
ambos y decreciendo ambos (o disminuyendo uno cuando el otro aumenta y viceversa), sólo
demuestra que hay una covariación, pero esa covariación no implica una relación causal.
Hay que establecer que el motivo de esa covariación es la relación entre variables
independientes y dependientes.

Cuando realizamos un experimento con el objetivo de probar una nueva hipótesis (H1),
tenemos que asegurarnos de que el resultado es fuerte. Para ello, establecemos unos
márgenes o niveles de confianza, que son el límite a partir del cual rechazamos la hipótesis
nula o H0 y aceptamos la nueva hipótesis alternativa H1. Es decir, si queremos demostrar que
la H1 es correcta, debemos asegurarnos de que:
 el experimento está bien diseñado y mide lo que queremos medir (validez interna)
o el constructo es relevante para lo que deseamos evaluar,
o hemos operativizado bien la variable,
o hemos eliminado cualquier otra influencia externa indeseable o variable
extraña,
o el instrumento de medida arroja el mismo resultado en sendas mediciones
(fiabilidad)
 el resultado es relevante y puede ser extrapolado a la población (validez externa)
o la muestra es suficientemente grande y está bien aleatorizada para que no
esté sesgada y sea representativa de la población,
o los resultados son notables, porque se alejan lo suficiente de la hipótesis nula
H0 como para hacer muy improbable o imposible que sea cierta y, por tanto,
quede respaldada la hipótesis alternativa H1 que deseábamos testear.

Por ejemplo, si quisiéramos demostrar que escuchar música clásica reduce el estrés,
partiríamos de la Hipótesis nula, H0, según la cual escuchar música clásica no tendría ningún
efecto. En primer lugar, deberíamos examinar el constructo “reducción de estrés” y tratar de
operativizarlo: ¿cómo mediremos concretamente esa variable? Un posible modo sería
monitorizando los niveles de cortisol en sangre mientras se escuchan distintas obras de
Mozart, Beethoven, Prokofiev, Bach o Vivaldi. Para ello estableceríamos varios grupos,
aleatorizamos la muestra incluyendo la mitad hombres y la mitad mujeres, con distintas
edades, distintos niveles educativos, etc. Además habría un grupo de control que no
escucharía música clásica en algunos experimentos y escucharía otros géneros musicales en
otros. Por otro lado, se controlarán otros posibles factores que influyan en el estrés (estado
general de salud, estado emocional en casa, en el colegio o trabajo, etc.). En algunos casos
podemos apartar a esos sujetos; en otros casos, repartirlos proporcionalmente en cada
grupo.
Posteriormente estableceremos unos niveles normales de variación del nivel de cortisol en
sangre con arreglo a estudios en la población general y examinaremos la distribución.
Finalmente, estableceríamos un nivel de confianza del 95% o del 99%.
Ahora tomaremos los datos, y calcularemos el valor p, que es la probabilidad de que
obtengamos esos datos si la hipótesis nula fuese cierta. Si, por ejemplo, hemos determinado
un nivel de confianza del 99%, entonces un valor que quede muy alejado de la media (en
concreto, que se sitúe a +/-2,58 desviaciones típicas y, por tanto, esté en la región
correspondiente a ese 1% si la distribución tiene una cola o 0,5% si tiene dos), será lo
suficientemente significativo como para rechazar la hipótesis nula. Es decir: no es que sea
imposible que la hipótesis nula sea correcta, porque siempre podríamos haber tropezado
por azar con casos muy extraños y extremos; pero cuanto mayor es la muestra, más difícil
será que el conjunto de nuestros resultados sea extremo y, por tanto, un resultado extremo
indicará con mayor fuerza que la hipótesis nula es falsa. En tal caso, consideraremos que la
hipótesis alternativa es plausible: en este caso, que la música clásica realmente sería capaz
de reducir el estrés en la población.

Podría pensarse que cuanto más exigentes seamos al establecer esos niveles de confianza,
más difícil será equivocarnos al aceptar o rechazar H0, pero esto no es así. De hecho,
podemos cometer dos tipos de errores:
 Error Tipo I o Tipo alfa (α): rechazar equivocadamente una hipótesis nula verdadera
y adoptar una alternativa errónea (falso positivo). Hemos obtenido un resultado muy
alejado de lo esperado (un valor p menor que α) pero resulta que la hipótesis inicial
era verdadera y simplemente nos hemos topado con un valor extremo infrecuente.
 Error Tipo II o Tipo beta (β): quedarse equivocadamente con la hipótesis nula (falso
negativo). Los resultados arrojan un valor p superior a α porque el resultado del
experimento no se aleja lo suficiente de lo previsto por la hipótesis nula…. Y, por
tanto, no podemos rechazar la hipótesis nula. Sin embargo, esta hipótesis, aunque no
lo sepamos, es falsa.

Ambos errores han de tratar de evitarse,


pero por lo general se acepta que es más
grave el error Tipo I. (Condenar a un
inocente es más grave que soltar a un
culpable).
Como se ve en la figura, el error Tipo I y
Tipo II se codeterminan. Si aumentamos α,
disminuye β… y viceversa. En principio, un
estudio es más fiable cuanto más aumenta el nivel de confianza, porque eso reduce α, y con
ello la posibilidad del error tipo α, que es el error más nefasto. Pero al hacerlo, aumenta la
probabilidad de cometer el error tipo β. Si queremos reducir ambas, hemos de aumentar el
número de la muestra y aleatorizarla bien (hacer bien el proceso de muestreo,
estratificación, balanceo, etc.). Al aumentar el número de casos observados, es más difícil
que los valores obtenidos estén deformados.

Pues bien, se conoce como p-hacking o dragado de datos, a la práctica fraudulenta que
consiste el uso de herramientas para el análisis de datos con el objetivo de hacer una
búsqueda aleatoria de patrones significativos en grupos enormes de datos; estos patrones
mostrarían datos correlacionados de tal modo, que se afirma que la probabilidad de que
haya una relación causal entre ellos es estadísticamente significativa. Es decir: los datos
coinciden de tal manera, que muy improbable pensar que esa coincidencia de deba al azar y,
por tanto, se entiende que ha de haber algo ahí. El problema de esto es que nuestras
investigaciones de correlación entre variables debería estar guiada por sospechas, por
hipótesis, por teorías. Nosotros sospechamos que A está relacionado con B, y entonces
diseñamos un experimento para ponerlo a prueba; tomamos datos. Establecemos la
hipótesis nula de que no hay relación y la H alternativa de que sí la hay. Y si los datos
apuntan muy significativamente a que sí, arrojando un valor p tan bajo que indica que la
probabilidad de que haya relación por el mero azar es ridícula, entonces valoramos
seriamente esa posibilidad y tratamos de volver a demostrarlo tomando otra muestra de
datos. Pero buscar relaciones forzadas en un conjunto de datos y publicarlo como un
hallazgo, es un fraude.

Ojo: esto no quiere decir que no sea interesante e importante buscar patrones en los datos.
De hecho, puede ser crucial en muchas investigaciones. Pero si tomamos un conjunto
enorme de datos, probablemente será factible encontrar correlaciones entre ellos aun
cuando no tengan ninguna relación entre sí. Esto se da, entre otras cosas, por el mencionado
problema de la infradeterminación: un conjunto de datos puede ser explicado por infinidad
de curvas. Y es que, de hecho, mediante este método se han encontrado correlaciones
cómicas; pero también se han publicado artículos manipulados. Un modo de comprobar si la
correlación es azarosa, es examinar otros conjuntos de datos distintos a ver si aparece la
misma correlación. Además de esta, hay diversas propuestas para evitar este tipo de fraudes
o sesgos. Este no es el lugar para ahondar en ello, pero lo que sí nos interesa es remarcar
que ésta es otra posible fuente de sesgo de los datos, en este caso voluntario, y que puede
emplearse de modo malicioso y falaz en un debate.

También podría gustarte