Está en la página 1de 411

Lee McIntyre

La actitud científica
Una defensa de la ciencia frente a la
negación, el fraude y la pseudociencia

Traducción de Rodrigo Neira


Índice

PREFACIO

INTRODUCCIÓN

CAPÍTULO 1. El método científico y el problema de la


demarcación
La relevancia del problema de la demarcación

CAPÍTULO 2. Concepciones erróneas acerca de cómo


funciona la ciencia
El problema de la verdad y la certeza
«Solo una teoría»
El papel de la garantía

CAPÍTULO 3. La importancia de la actitud científica


Dos ejemplos de actitud científica
Las raíces de la actitud científica
Conclusión

CAPÍTULO 4. La actitud científica no tiene por qué resolver el


problema de la demarcación
¿Es posible todavía diferenciar la ciencia de la
pseudociencia?
¿Debería la investigación cotidiana considerarse ciencia?
¿No puede de todas maneras la actitud científica
funcionar como un criterio modificado de
demarcación?
CAPÍTULO 5. Procedimientos prácticos en los que los
científicos adoptan la actitud científica
Tres fuentes del error científico
Las comunidades críticas y la sabiduría de las multitudes
Métodos para aplicar la actitud científica y mitigar el
error
Métodos cuantitativos
Revisión por pares
Puesta en común de datos y replicación
Conclusión

CAPÍTULO 6. Cómo la actitud científica transformó la


medicina moderna
El pasado de barbarie
Los albores de la medicina científica
La larga transición a la práctica clínica
Los frutos de la ciencia
Conclusión

CAPÍTULO 7. La ciencia sale mal: fraude y otros fracasos


¿Por qué la gente comete fraudes?
La delgada línea roja
El debate vacunas-autismo
En un tono más positivo

CAPÍTULO 8. La ciencia, a un lado: negacionistas,


pseudocientíficos y otros charlatanes
Ideología e ignorancia deliberada
La matriz de Sagan
Los negacionistas no son realmente escépticos
Negacionismo en acción: el cambio climático
¿Qué pasa cuando el «aguafiestas» tiene razón?
Los pseudocientíficos no están realmente abiertos a
nuevas ideas
Pseudociencia en acción: creacionismo y teoría del
diseño inteligente
El Centro para el Estudio de las Anomalías Mecánicas de
Princeton
Conclusión

CAPÍTULO 9. El caso de las ciencias sociales


Desafíos a la ciencia del comportamiento humano
Un camino a seguir: emular la medicina
Ejemplos de buena y mala ciencia social

CAPÍTULO 10. Valorar la ciencia

BIBLIOGRAFÍA

CRÉDITOS
Para Louisa y James
Prefacio

Este libro ha sido desde el principio un trabajo de amor y


—como cualquier trabajo— ha llevado tiempo. Recuerdo el
momento exacto en el que decidí que quería convertirme
en filósofo de la ciencia: fue en el otoño de 1981, mientras
leía el fascinante ensayo de Karl Popper Ciencia: conjeturas
y refutaciones, sentado a una mesa del piso superior de la
biblioteca Olin de la Universidad Wesleyana. Los problemas
abordados me parecieron apasionantes y la historia de
amor fue inevitable: había allí un hombre que había
encontrado cómo articular la defensa de una de las ideas a
las que yo me adhería con más ardor —que la ciencia era
especial—. Popper dedicó el trabajo de toda su vida a
defender la autoridad epistémica de la ciencia y explicar
por qué es superior a sus sucedáneos. ¿Cómo no iba yo a
querer ser parte de eso?
Aunque los problemas abordados me cautivaron, nunca
estuve plenamente de acuerdo con las conclusiones de
Popper. Sé que algún día volveré a ello, pero como el
sistema académico de promoción profesional parece
premiar de alguna manera a quien le da pequeños
mordiscos a la manzana, me conformé con pasar la primera
década de mi carrera escribiendo acerca de la importancia
de las leyes y la predicción, de cómo mejorar la
metodología de las ciencias sociales y de por qué
necesitamos una filosofía de la química. Desde entonces he
encontrado una gran satisfacción contribuyendo a que un
público más generalista se familiarice con temas como la
negación de la ciencia, la importancia de la razón y por qué
—especialmente en este día y época— incluso los filósofos
escépticos más acérrimos necesitan defender la idea de
que la verdad importa.
Pero este es el libro que siempre he querido escribir. Al
ocuparse de una cuestión tan importante como en qué
consiste lo especial de la ciencia, espero captar el interés
tanto de filósofos y científicos como del público en general.
Por inspirar mi vocación filosófica quiero dar las gracias
a mis profesores Rich Adelstein, Howard Berstein y Brian
Fay. Aunque solo coincidí con él hacia el final de mis
estudios universitarios, Joe Rouse fue también una fuente
de inspiración para mí. En la Escuela de Posgrado de la
Universidad de Michigan, tuve la suerte de aprender
filosofía de la ciencia de la mano de Jaegwon Kim, Peter
Railton y Larry Sklar. No siempre fui feliz en la Escuela de
Posgrado (¿alguien puede decir lo contrario?) pero, cuando
miro atrás, me doy cuenta de que allí se fijaron los
fundamentos de todo mi trabajo futuro.
Tras aquel período puedo dar las gracias por haber
trabajado junto con algunos de los mejores en mi campo:
Dan Little, Alex Rosenberg, Merrilee Salmon y Eric Scerri,
personas de las que he aprendido mucho gracias a sus
excelentes lecciones y a su cálido compañerismo. Mi deuda
con Bob Cohen y Mike Martin —ambos fallecidos en los
últimos años— es inconmensurable, puesto que me dieron
un hogar en la filosofía de la ciencia y me ayudaron en todo
momento a seguir mi camino. Me alegra poder decir lo
mismo de Alisa Bokulich, nueva directora del Centro para
la Filosofía y la Historia de la Ciencia de la Universidad de
Boston.
Por la orientación y el consejo que he recibido a la hora
de precisar algunas de las ideas concretas expuestas en
este libro, me gustaría dar las gracias a Jeff Dean, Bob
Lane, Helen Longino, Tony Lynch, Hugh Mellor, Rose-Mary
Sargent, Jeremy Sheamur y Brad Wray. He tenido la suerte
de haber participado en la primavera de 2014 en el
seminario de Massimo Pigliucci y Maarten Boudry sobre
«cientificismo» que tuvo lugar en el CUNY, donde tuve
ocasión de escuchar las estimulantes propuestas de
Noretta Koertge, Deborah Mayo y Tom Nickles, que
inspiraron la redacción de este libro. Las sugerencias de
Rik Peels y Jeff Kichen en torno a problemas concretos me
resultaron también de gran ayuda.
Mis buenos amigos Andy Norman y Jon Haber me han
hecho el honor de leer el borrador de este libro y aportar
algunas sugerencias. Mi amiga Laurie Prendergast me ha
proporcionado una ayuda indispensable con las revisiones.
También me gustaría reconocer el trabajo de cinco
revisores anónimos, cuyos nombres obviamente no puedo
mencionar, que hicieron enormes contribuciones al
contenido de este libro. Cualquier error que pueda subsistir
es enteramente responsabilidad mía.
Desgraciadamente mi padre no ha vivido para ver este
libro publicado, pero tanto a él como a mi madre les envío
todo mi amor y gratitud por haber creído siempre en mí y
por el apoyo y orientación que me han dado a lo largo de
los años. Mi esposa Josephine y mis hijos Louisa y James
han leído cuidadosamente este libro y han sido testigos de
los diversos avatares de su redacción. Ningún hombre ha
tenido jamás la suerte de estar casado con una mujer tan
extraordinaria, que no quiere nada más que mi felicidad
tanto en la vida como en el trabajo. Tengo también la
fortuna de tener, no uno, sino dos hijos que han estudiado
Filosofía y exhiben como una habilidad innata, ejercida con
asombrosa eficacia, la capacidad de señalar las deficiencias
en las que incurren sus mayores a la hora de razonar. De
hecho, la contribución de mis hijos a la elaboración de este
libro ha sido tan relevante que he decidido dedicárselo.
El equipo de la MIT Press es incomparable. Como ya me
había quedado claro tras mi anterior trabajo con ellos —y
todos los días desde entonces— ningún autor tiene éxito
gracias exclusivamente a sus propias fuerzas. Desde la
edición al diseño, desde el marketing a la promoción
editorial, trabajar con ellos ha sido un privilegio. Quiero
aprovechar estas líneas para mencionar el nombre de
Colleen Lanick, mi incansable y creativa publicista, así
como de mi editor Phil Laughlin, hombre al mismo tiempo
analítico, decidido, práctico y divertido. Juntos han hecho
que trabajar con la MIT Press haya sido un placer para mí,
en el que es ya mi cuarto libro con la editorial.
La última deuda es vieja, pero todos los días tengo
ocasión de recordarla cuando levanto la vista hacia la carta
manuscrita que recibí de Karl Popper en marzo de 1984, y
que tengo enmarcada, como respuesta a la que yo le había
escrito desde mi posición de estudiante. Popper era
brillante, lúcido, visionario y un excelente dialéctico.
Aunque no estoy de acuerdo con muchas de sus ideas en el
campo de la filosofía de la ciencia, nunca habría sido capaz
de desarrollar mis propias tesis sino como reacción frente a
las suyas; y —en uno de los descubrimientos más
satisfactorios de mi carrera— he encontrado que en
algunos aspectos anticipa la actitud científica. Nunca
conocí personalmente a Karl Popper, pero una visión que
conservo me acompaña siempre: en el invierno de 1919, un
hombre descubre en un súbito destello la lógica de la
falsación y va desarrollándola a lo largo de su carrera. Me
alegra saber que este libro será publicado exactamente
cien años después del descubrimiento de Popper. Es un
pequeño tributo al hombre que inspiró a tantos,
incluyéndome a mí mismo, a iniciarse en la filosofía de la
ciencia.
Introducción

Vivimos tiempos extraordinarios para la comprensión de


la ciencia. En mayo de 2010, la prestigiosa revista Sciencie
publicó una carta firmada por doscientos cincuenta
miembros de la Academia Nacional de Ciencias de Estados
Unidos. Empezaba:

Estamos hondamente preocupados por la reciente


escalada de ataques políticos dirigidos a los
científicos en general y a los científicos del clima en
particular. Todos los ciudadanos deben entender
algunos hechos científicos básicos. Siempre persiste
cierto grado de incertidumbre en torno a las
conclusiones científicas; la ciencia nunca demuestra
nada de manera absoluta 1 .

Ahora bien, ¿cuánta gente entiende lo que esto significa


y lo reconoce no como una debilidad, sino como una
fortaleza del razonamiento científico? Y, por supuesto,
siempre están aquellos dispuestos a explotar esa
incertidumbre si ello favorece sus propósitos políticos. «No
sabemos qué es lo que produce el cambio climático, y la
idea de gastar millones y millones de dólares en tratar de
reducir las emisiones de CO 2 no es, desde nuestro punto de
vista, la manera adecuada de proceder», dijo el candidato a
la presidencia de Estados Unidos Mitt Romney en 2011 2 .
Durante el siguiente ciclo electoral, en una entrevista en la
que puso en cuestión que hubiera pruebas sólidas a favor
del calentamiento global, el senador Ted Cruz afirmó:
«Todo buen científico cuestiona toda la ciencia. Si me
presentas a un científico que deje de cuestionar la ciencia,
yo te enseñaré a alguien que no es científico» 3 .
Escasamente un año después, el recién elegido presidente
Donald Trump reveló que pretendía eliminar el programa
de investigación de la NASA dedicado al cambio climático
en un esfuerzo por acabar con la «politización de la
ciencia». Esto supondría una pérdida irreparable para la
vigilancia del clima no solo en Estados Unidos, sino
también en el resto del mundo por todos los investigadores
que dependen de los datos recogidos por los legendarios
satélites de la NASA acerca de la temperatura, el hielo, las
nubes y otros fenómenos. Como apuntó un científico del
Centro Nacional para la Investigación Atmosférica, «[esto]
podría llevarnos de vuelta a la “edad oscura” en la que no
había satélites» 4 .
Los ataques se recrudecieron tanto que el 22 de abril de
2017 se celebró una «marcha por la ciencia» en seiscientas
ciudades de todo el mundo. En la marcha de Boston,
Massachusetts, observé pancartas en las que ponía
«Mantén la calma y usa el pensamiento crítico», «Científico
extremadamente loco», «Sin ciencia no hay Twitter», «Amo
la realidad», «Aquí están los empollones» y «Ahora mismo
podría estar en el laboratorio». Se necesita mucho para que
los científicos salgan de sus laboratorios y ocupen las
calles, pero ¿qué se suponía que debían hacer? El problema
de qué es lo que hace especial a la ciencia ya no es
puramente académico. Si no defendemos la ciencia de
manera más eficaz —explicando cómo funciona y por qué
sus aseveraciones merecen un estatuto privilegiado de
credibilidad—, estaremos a merced de quienes
irreflexivamente la rechazan.
El objetivo de este libro es entender en qué consiste lo
especial de la ciencia. Por supuesto, alguien podría argüir
que no necesitamos acometer semejante tarea, puesto que
ya ha sido realizada; que el problema es ahora comunicar
qué es lo especial de la ciencia y no entenderlo. ¿No nos
basta con echar un vistazo al trabajo de los científicos para
descubrir en qué es especial la ciencia? Y, de lo contrario,
¿no existe ya una ingente producción teórica a cargo de
otros filósofos de la ciencia que puede dar respuesta a esa
pregunta? Me gustaría que así fuera, pero el hecho es que
la mayoría de los científicos tienden a ser «realistas
ingenuos» que aceptan sus descubrimientos como
revelaciones de algo que es verdad (o que se aproxima a
ser verdad) acerca de la naturaleza y apenas dedican
tiempo a tomar en consideración las cuestiones filosóficas o
metodológicas que subyacen a la ciencia como un todo. Los
pocos científicos que se adentran en la filosofía
frecuentemente se quedan atascados en algo que los
filósofos ya han descubierto, o terminan despachando el
proyecto en su conjunto como irrelevante porque el
objetivo —sostienen— no ha de ser reflexionar acerca de la
ciencia, sino hacer ciencia 5 . Sin embargo, el problema es
precisamente este. A pesar de todos los éxitos que llevan
acumulados aquellos que han hecho ciencia, ¿por qué
muchos de ellos se sienten desconcertados y solo aciertan a
responder con balbuceos inconexos a quienes afirman que
la ciencia «no es más que otra ideología» o que
«necesitamos más pruebas» en torno al cambio climático?
Tiene que haber una manera más eficaz. Es mejor justificar
la ciencia que ya ha sido hecha y además sentar las bases
para que la buena ciencia se expanda en el futuro. Pero
primero debemos entender qué tiene de especial la ciencia
como forma de conocimiento. Y para ello muchos han
recurrido a la filosofía de la ciencia.
La filosofía de la ciencia se ha fundamentado desde sus
orígenes en la presunción de que puede hacer una
contribución impagable al llevar a cabo una
«reconstrucción racional» del proceso científico en
respuesta a la pregunta de por qué la ciencia funciona (y de
por qué sus aseveraciones están justificadas) 6 . No
obstante, hay un intenso debate acerca de cuál es la mejor
manera de alcanzar ese objetivo e incluso de si es un
objetivo que valga la pena. La idea de que podremos
transplantar la ciencia a otros terrenos si logramos
entender en qué consiste su especificidad ha tenido mala
reputación a lo largo de los años. Esta imagen negativa
procede de aquellos que consideran que existe un «método
científico» —u otro criterio firme de demarcación entre lo
que es ciencia y lo que no lo es—, de tal manera que, si
fuéramos capaces de aplicar esas reglas de manera lo
bastante rigurosa, la buena ciencia florecería como
resultado de ello. Estas proclamas se tornan más agresivas
en boca de quienes encarnan el espíritu del proselitismo y
se adhieren a lo que se ha dado en llamar «cientificismo».
Es como si tuvieran un martillo y pretendieran que todas
las áreas de estudio del universo fueran clavos: casi ningún
filósofo de la ciencia afirma hoy en día que no existe tal
cosa como el método científico, que el intento de elaborar
un criterio de demarcación está desfasado y que el
cientificismo es peligroso 7 . A lo largo del tiempo, la
mayoría también ha renunciado a la idea de que la
prescripción se encuentra en el núcleo de la filosofía de la
ciencia.
El modelo científico que Karl Popper expuso en su Logik
der Forschung de 1934, obra traducida al inglés por el
propio Popper en 1959 con el título de The Logic of
Scientific Discovery [La lógica de la investigación
científica] se centra especialmente en la tesis de que hay
un método fiable para diferenciar la ciencia de lo que no lo
es, pero que no existe tal cosa como un «método
científico». Popper defiende como línea divisoria la
concepción de que la ciencia usa teorías «falsables» —
teorías cuya falsedad, al menos en principio, puede ser
demostrada atendiendo a la evidencia—. Aunque este
modelo no carece de virtudes tanto lógicas como
metodológicas, se ha revelado problemático para muchos
filósofos de la ciencia, que lo consideran excesivamente
idealizado y ceñido a «grandes momentos», como la
transición del modelo newtoniano al einsteiniano en física,
sin tener en cuenta el funcionamiento real de la
investigación científica 8 .
Otra explicación fue ofrecida por Thomas Kuhn en 1962,
en su famosa obra La estructura de las revoluciones
científicas. Aquí la idea es cómo algunas teorías sustituyen
a otras en cambios de paradigma que se traducen en el
establecimiento de un nuevo consenso científico como
consecuencia de los problemas que han ido desarrollándose
con el viejo, y de la noche a la mañana el área de estudio
experimenta una sacudida. El problema aquí no es solo la
objeción habitual de que la ciencia por lo general no
funciona así (por ejemplo, la transición del modelo
astronómico geocéntrico ptolemaico al modelo
heliocéntrico copernicano) —cosa que Kuhn admite sin
reservas al hablar sobre la ubicuidad de la «ciencia
normal»—, sino que, incluso cuando funciona así, no
consiste en un proceso plenamente racional. Aunque Kuhn
insiste en el papel clave que la evidencia desempeña en los
cambios de paradigma, una vez que les hemos abierto la
puerta a los factores «subjetivos» o sociales en la
interpretación de esa evidencia, no parece haber «método»
alguno que seguir 9 . Esto no solo supone un problema si se
intenta demostrar que las aseveraciones científicas son
demostrables, sino que también dificulta la elaboración de
una hoja de ruta para otras ciencias.
Otros modelos para explicar el cambio científico han sido
propuestos por Imre Lakatos, Paul Feyerabend, Larry
Laudan y los «constructivistas sociales». Cada uno de ellos
drena un poco más de agua de la piscina que nos permite
decir que la ciencia es «especial» y que otras áreas de
investigación harían bien en seguir su ejemplo 10 . ¿Qué
haremos entonces? ¿Hemos de elegir una cualquiera de las
explicaciones propuestas? Esto no es posible. En primer
lugar, las unas son incompatibles con las otras; cada una
describe una parte del cuerpo del «elefante que los ciegos
ven», de tal manera que todavía carecemos de una imagen
comprehensiva de en qué consiste la ciencia. Otro
problema es que estos modelos parecen tener éxito solo al
precio de renunciar a algo, a saber, a la motivación de que
si finalmente entendemos la ciencia, podremos establecer
una pauta que permita que otras áreas de investigación se
vuelvan a su vez más científicas.
Si las mejores explicaciones son insuficientes, quizá la
debilidad resida en el enfoque general. Aunque haya quien
pueda vacilar en considerarlo una debilidad, se antoja
como mínimo una desventaja que la filosofía de la ciencia
les haya dedicado la mayor parte de su tiempo a los
«éxitos» de la ciencia y se haya sentido mucho menos
inclinada a abordar sus fracasos. De hecho, las lecciones
que pueden extraerse de los fracasos a la hora de cumplir
los estándares científicos son tan reveladoras acerca de en
qué consiste la ciencia como el ejemplo de aquellos campos
en los que esos estándares se han alcanzado. No hay nada
equivocado, en principio, en intentar hallar lo distintivo de
la ciencia atendiendo a sus logros, pero se trata de algo
que nos ha jugado una mala pasada.
Para empezar, aunque la imagen de la ciencia como una
serie de pasos que conducen a la verdad —con fracasos
debidos únicamente a la obcecación y la ignorancia—
pueda resultar complaciente, esta concepción contradice su
historia, que está acribillada de teorías que eran científicas
pero que terminaron resultando falsas. Tanto Popper como
Kuhn han hecho mucho por exponer cómo la ciencia se
fortalece merced a un inflexible centrarse en el «encaje»
explicativo entre la teoría y la evidencia, pero es muy fácil
para otros volver la vista atrás y pretender que aquello era
inevitable y que el arco de la ciencia se dobla
inevitablemente hacia una única (verdadera) explicación de
la realidad.
En segundo lugar, la implacable tendencia a explicar la
ciencia tomando en consideración sus éxitos ha supuesto
que la mayoría de las «victorias» que los filósofos puedan
reclamar para sus modelos proceden del ámbito de las
ciencias naturales. Específicamente, hemos tenido que
extraer la mayoría de nuestras conclusiones en torno a por
qué la ciencia es especial a partir de la historia de la física
y la astronomía. Pero esto se asemeja un poco a establecer
como blancos los puntos de la diana en los que ya se han
clavado los dardos. ¿Y significa esto que, en su intento de
ser científicas, otras áreas de investigación deben limitarse
a emular a la física? La suposición de que la respuesta a
esta pregunta es un sí sin reservas les ha hecho un flaco
favor a esas otras áreas de investigación, muchas de las
cuales son férreamente empíricas pero muy diferentes en
cuanto a su objeto de las ciencias físicas. Recordemos que
una parte importante de la misión de la filosofía de la
ciencia es entender lo distintivo de la ciencia de tal manera
que podamos cultivarla en otro lugar. Pues bien, ¿qué será
entonces de campos de estudio como las ciencias sociales,
que hasta muy recientemente no han sido dignas de la
atención de la mayoría de los modelos explicativos de la
filosofía de la ciencia?
Es célebre la afirmación de Popper de que las ciencias
sociales no podían ser ciencias debido al problema de los
«sistemas abiertos» planteado por el efecto de la libre
voluntad y la conciencia en la toma de decisiones por los
humanos. En las ciencias naturales, sostuvo, usamos
teorías falsables, pero este camino no está disponible para
las ciencias sociales 11 . De la misma manera, Kuhn, a pesar
de sus numerosos seguidores entre los científicos sociales
(que sintieron que quizá tuvieran al fin un objetivo
alcanzable), también trató de distanciarse del
desorganizado estudio del comportamiento humano
insistiendo en que su modelo solo era aplicable a las
ciencias naturales y que no tenía relevancia alguna en el
ámbito de las ciencias sociales. Añadamos a esto el
problema de qué hacer con las demás ciencias «especiales»
(es decir, no físicas) —como la biología o incluso la química
— y tendremos una verdadera crisis ante nosotros en
nuestro intento de defender una concepción de la ciencia
como separada de su reducción a la física. ¿En qué queda
el supuesto de que hay conceptos epistémicamente
autónomos en química (como transparencia u olor) —así
como en sociología (como alienación o anomia)— que no
pueden ser explicados a partir de una descripción física? Si
nuestro modelo de éxito científico es la física, ¿llega
siquiera la química a pasar el corte? Desde una cierta
perspectiva, la mayoría de estas áreas de estudio que son
científicas o aspiran a serlo no se ajustan a los modelos de
filosofía de la ciencia que han sido trazados tomando la
historia de la física y la astronomía como referentes, y de
esta manera pueden ser consideradas «ciencias
especiales». ¿No tenemos ningún consejo ni justificación
que ofrecerles?
En último lugar, ¿qué podemos decir de aquellas áreas
de investigación que tienen la pretensión de ser científicas,
pero que sencillamente no están a la altura (como la
«teoría del diseño inteligente» o la negación del cambio
climático) o de aquellos casos en los que los científicos han
traicionado sus principios y han cometido fraudes (como el
trabajo de Andrew Wakefield que trataba de establecer un
vínculo entre las vacunas y el autismo)? ¿Podemos
aprender algo de todo ello? Yo mantengo que si estamos
verdaderamente interesados en lo que la ciencia tiene de
especial, tenemos mucho que aprender de aquellos que la
han abandonado. ¿Qué no está haciendo el defensor de la
teoría del diseño inteligente que los verdaderos científicos
deberían hacer (y en general hacen con éxito)? ¿Por qué el
exigente «escepticismo» de los detractores del cambio
climático carece de justificación? ¿Y por qué los científicos
tienen prohibido manipular los elementos de los que
disponen, seleccionar interesadamente sus muestras y
tratar de hacer encajar los datos con sus teorías si quieren
que su investigación científica sea exitosa? 12 . A aquellos
que defienden y se preocupan por la ciencia puede
parecerles obvio que todo lo anterior constituye un pecado
mortal contra los principios científicos, pero ¿no debería
ayudarnos a articular la naturaleza de esos mismos
principios?
En este libro propongo adoptar un enfoque muy
diferente al de mis predecesores, aceptando no solo la idea
de que la ciencia tiene especificidades propias, sino
también que la mejor manera de entenderla es evitar
centrarse exclusivamente en los éxitos de las ciencias
naturales. Por eso quiero prestarles especial atención a las
áreas de estudio que no han logrado consolidarse como
científicas, así como a aquellas que (como las ciencias
sociales) aspiran a serlo más. Una cosa es tratar de arrojar
luz sobre lo distintivo de la ciencia examinando la
transición de Newton a Einstein; otra cosa es mancharnos
las manos con los problemas del fraude científico, la
pseudociencia, el negacionismo y las ciencias sociales.
¿Por qué deberíamos molestarnos? Porque pienso que
para entender verdaderamente tanto el poder como la
fragilidad de la ciencia, debemos tener en cuenta no solo
las áreas de investigación que son ya científicas, sino
también las que están intentando (y quizá sin éxito)
ajustarse a las reglas de la ciencia. Podemos aprender
mucho acerca de en qué sentido es especial la ciencia
dirigiendo la mirada a las ciencias especiales. Y debemos
estar preparados para responder al reto planteado por
aquellos que quieren saber —si la ciencia merece tanta
credibilidad— por qué no siempre proporciona la solución
correcta (tampoco en las ciencias naturales) y a veces falla.
Si podemos hacer esto, no solo entenderemos en qué
consiste lo distintivo de la ciencia: tendremos las
herramientas necesarias para aplicar su enfoque a otros
ámbitos empíricos.
Pero hay otro problema: hoy en día no podemos
pretender que las conclusiones de la ciencia vayan a ser
aceptadas meramente por ser racionales y estar
justificadas. Los escépticos del cambio climático insisten en
que necesitamos más pruebas para demostrar el
calentamiento global. Los detractores de las vacunas están
convencidos de que hay una conspiración para ocultar la
verdad en torno al autismo. ¿Cómo debemos abordar el
problema de aquellos que simplemente rechazan los
resultados de la ciencia? Puede asaltarnos la tentación de
despreciar a estas personas tachándolas de irracionales,
pero lo haríamos por nuestra propia cuenta y riesgo.
Si no podemos elaborar una buena fundamentación de
por qué las explicaciones científicas pueden reclamar para
sí una credibilidad superior, ¿por qué deberían darse por
aludidos? No es solo que si no entendemos la ciencia no
podremos cultivarla en ningún otro lugar: no podremos
tampoco defender la ciencia allí donde funciona.
En resumen, creo que muchos de los que han escrito en
torno a la ciencia han manejado mal la tesis de que la
ciencia es especial porque no han dicho lo suficiente acerca
de los errores de las ciencias naturales, el potencial de las
ciencias sociales y los inconvenientes de aquellas áreas de
estudio que buscan la cobertura de la ciencia sin abrazar
su ethos. Esto ha conducido a que muchas áreas de estudio
hayan fracasado en su pretensión de establecerse como
científicas, y de ahí al irracional rechazo de las
conclusiones científicas por parte de quienes, movidos por
su ideología, consideran que sus propios puntos de vista
son igual de válidos.
¿Qué es lo distintivo de la ciencia? Como espero haber
puesto de manifiesto, lo distintivo de la ciencia es la actitud
científica en cuanto concierne a la evidencia empírica, cosa
tan difícil de definir como revestida de una importancia
crucial. Para hacer ciencia debemos estar dispuestos a
adoptar una mentalidad que nos dice que nuestra ideología,
creencias y deseos no tienen ninguna relevancia a la hora
de determinar qué resiste la prueba de su confrontación
con la evidencia. No es fácil delimitar un criterio de
demarcación —tampoco se trata de un sucedáneo del
«método científico»—, pero soy de la convicción de que es
esencial dedicarse a la ciencia (y entenderla). Las ciencias
sociales pueden emular esto y contribuir a ilustrar lo que
no es científico de la teoría del diseño inteligente, la
futilidad del negacionismo de quienes rechazan la
evidencia a favor del cambio climático y el sinsentido de
otras teorías de la conspiración que aspiran a triunfar allí
donde la ciencia deja paso a un escepticismo
bienintencionado. En lo fundamental, lo distintivo de la
ciencia es que se preocupa por la evidencia y está
dispuesta a modificar sus teorías en función de la
evidencia. No se trata del objeto ni del método de
investigación, sino de los valores y la conducta de quienes
se dedican a ella lo que determina que la ciencia tenga un
carácter especial. Sin embargo, he aquí algo
inesperadamente difícil de desenredar, tanto en la historia
de los éxitos pasados de la ciencia como en el programa de
hacer más científicas otras áreas de estudio en el futuro.
En los siguientes capítulos, me propongo mostrar cómo
la actitud científica puede ayudarnos a realizar tres
grandes tareas: entender la ciencia (capítulos del 1 al 6),
defender la ciencia (capítulos 7 y 8) y expandir la ciencia
(capítulos 9 y 10). Cuando se hace correctamente, la
filosofía de la ciencia no es solo descriptiva o explicativa,
sino prescriptiva. No solo nos ayuda a explicar por qué la
ciencia ha sido tan exitosa en el pasado, sino también por
qué los métodos basados en la evidencia y la experiencia
pueden tener tanto valor en otras áreas de investigación
empírica en el futuro. También debería sernos de ayuda
para hacerles ver más claramente a aquellos que no
entienden —o no entenderán— lo distintivo de la ciencia
que las pretensiones de la pseudociencia y el negacionismo
están muy alejadas de sus estándares epistémicos, y por
qué las explicaciones científicas son superiores. Durante
décadas, los filósofos de la ciencia han buscado entender
qué tiene la ciencia de especial centrándose en la historia
triunfal de las ciencias naturales. Mi enfoque, por el
contrario, es darle la vuelta a eso: si de verdad queremos
entender por qué la ciencia es especial, debemos mirar más
allá de las victorias de las ciencias naturales y ocuparnos
también de aquellas áreas de estudio que no son —y quizá
nunca sean— científicas.
1 P. H. Gleick, R. M. Adams, R. M. Amasino, E. Anders, D. J. Anderson, W. W.
Anderson, et al., «Climate Change and the Integrity of Science», Science 328,
núm. 5979 (2010): 689-690,
<http://science.sciencemag.org/content/328/5979/689>.

2 «On Energy Policy, Romney’s Emphasis Has Shifted», NPR, 2 de abril de


2012, <http://www.npr.org/2012/04/02/149812295/on-energy-policy-another-
shift-for-romney>.

3 «Scientific Evidence Doesn’t Support Global Warming, Sen. Ted Cruz Says»,
NPR, 9 de diciembre de 2015,
<http://www.npr.org/2015/12/09/459026242/scienti fic-evidence-doesn-t-
support-global-warming-sen-ted-cruz-says>.

4 Oliver Milman, «Trump to Scrap NASA Climate Research in Crackdown on


“Politicized Science”» The Guardian, 23 de noviembre de 2016,
<https://www.theguardian.com/environment/2016/nov/22/nasa-earth-donald-
trump-eliminate-climate-change-research>.

5 Algunos ejemplos recientes de juicios desdeñosos hacia la filosofía


procedentes de científicos renombrados como Stephen Hawking, Lawrence
Krauss y Neil deGrasse Tyson son abordados en el ensayo de Massimo Pigliucci
«Science and Pseudoscience: In Defense of Demarcation Projects», que puede
encontrarse en Science Unlimited (Chicago, University of Chicago Press, 2017).
También hay que añadir la afirmación del físico Richard Feynman de que «la
filosofía de la ciencia es tan útil para la ciencia como la ornitología para los
pájaros», así como la totalidad del capítulo «Against Philosophy», incluido en el
libro del físico Steven Weinberg, Dreams of a Final Theory (Nueva York,
Pantheon, 1992). Estas opiniones contrastan, sin embargo, con la alta estima
que Einstein otorgaba a la filosofía y a su importancia para la ciencia. Véase
Don A. Howard, «Albert Einstein as Philosopher of Science», Physics Today,
diciembre de 2005, 34-40.

6 Nótese que esto difiere en gran medida de la aseveración de que una teoría
científica es verdadera. Desafortunadamente, no hay garantía de que una
teoría científica sea verdadera, incluso si la podemos adoptar justificadamente
como objeto de creencia sobre la base de la evidencia. (Volveremos sobre esta
cuestión en el capítulo 2).

7 Téngase en cuenta, no obstante, que en Philosophy of Pseudoscience:


Reconsidering the Demaration Problem (Chicago, University of Chicago Press,
2013), Massimo Pigliucci y Maarten Boudry tratan de resucitar
conscientemente el problema de la demarcación. Obsérvese también que en
The Atheist’s Guide to Reality: Enjoying Life without Illusions (Nueva York,
Norton, 2012), Alex Rosenberg acepta el término «cientificismo» como un
emblema de honor.
8 El modelo de Popper también se ha visto perjudicado por su insistencia en
que algunos campos científicos —como la biología evolutiva— no son realmente
científicos, puesto que no superan el criterio de demarcación. Aunque
posteriormente rectificó esta postura, no fueron pocos quienes consideraron
que revelaba la arrogancia de suponer que podía trazarse una línea teórica
nítida entre la ciencia y lo que no es ciencia. Popper hizo su afirmación de que
la selección natural era «tautológica» y «no una teoría científica comprobable»
en su autobiografía, que se incluye en la primera parte de The Philosophy of
Karl Popper: The Library of Living Philosophers, vol. 14, Paul Schilpp (ed.) (La
Salle, IL, Open Court, 1974). A los pocos años, Popper se retractó de su
opinión, pero mantuvo su idea de que la teoría de Darwin era «difícil de
comprobar». Véase su «Natural Selection and the Emergence of the Mind»,
Dialectica 32 (1978), 344.

9 No se debe olvidar que el propio Kuhn se resistió a esta interpretación de su


obra. A pesar de que reconoció la potencial influencia de virtudes teóricas
como el alcance, la simplicidad y la productividad en la elección de un
paradigma, nunca abandonó la idea de que la ciencia estaba basada y debía
basarse en la evidencia (ver la cita que acompaña a la nota 27 del cap. 3). Para
más información acerca del papel que Kuhn otorga a los factores subjetivos en
la elección de una teoría, véase su texto: «Objectivity, Value Judgment, and
Theory Choice», en The Essential Tension (Chicago, University of Chicago
Press, 1974), 320-339.

10 Imre Lakatos y Alan Musgrave (eds.), Criticism and the Growth of


Knowledge (Cambridge, Cambridge University Press, 1970); Paul Feyerabend,
Against Method (Londres, Verso, 1978); Larry Laudan, Progress and Its
Problems: Towards a Theory of Scientific Growth (Berkeley, University of
California Press, 1978); Steve Fuller, Philosophy of Science and Its Discontents
(Nueva York, Guilford Press, 1992).

11 Para una discusión ulterior en torno a las objeciones de Popper a una


ciencia del comportamiento humano, ver Lee McIntyre, Laws and Explanation
in the Social Sciences: Defending a Science of Human Behavior (Boulder, Co.,
Westview Press, 1996), 34-45, 64-75. El propio argumento de Popper se halla
disperso en muchas de sus obras: The Poverty of Historicism (Londres
Routledge, 1957), The Open Universe (Londres, Routledge, 1982), y
«Prediction and Prophecy in the Social Sciences», que aparece en Conjectures
and Refutations: The Growth of Scientific Knowledge (Nueva York, Harper
Torchbooks, 1965).

12 Abordaremos estas cuestiones cuando nos ocupemos del negacionismo y la


pseudociencia en el capítulo 8.
CAPÍTULO 1

El método científico y el problema de la


demarcación

Si hay algo que la mayoría de la gente considera especial


acerca de la ciencia, es que sigue un «método científico
distintivo». Si hay algo en lo que la mayoría de los filósofos
de la ciencia están de acuerdo, es en la idea de que no
existe tal cosa como el «método científico».
Si eres una de esas personas que conservan sus libros de
texto de Astronomía, Física, Química o Biología, te invito a
coger cualquiera de ellos y abrirlo por la primera página.
Suele ser la página de la que el profesor pasa de largo y
que ningún estudiante lee, pero es en cualquier caso de
rigeur, puesto que está destinada a fundamentar por qué
las demás afirmaciones del libro deben ser tomadas en
consideración. Es frecuente que esa página proporcione
una exposición del «método científico». Hay diferentes
concepciones, pero he aquí una versión sencilla del método
clásico de los cinco pasos:

(1) Observar
(2) Establecer hipótesis
(3) Predecir
(4) Comprobar
(5) Analizar los resultados, revisar las hipótesis y
empezar otra vez 13 .

¿Es así como se realizan de hecho los descubrimientos


científicos? Pocos dirían eso. La manera en la que las
teorías científicas son producidas es frecuentemente un
proceso confuso que involucra descubrimientos por
serendipia, fracasos, callejones sin salida, dolores de
cabeza, una determinación obstinada y golpes de suerte
ocasionales. Pero esto no es lo que se supone que hace
especial a la ciencia. Los estrafalarios procedimientos de
los que los científicos se sirven a veces para obtener sus
ideas son materia de leyenda. Uno piensa en August Kekulé
frente a su chimenea, soñando con una serpiente que se
muerde la cola, llegando al anillo de benceno; o en Leo
Szilard bajándose de la acera mientras el semáforo cambia
de rojo a verde, dándose cuenta en ese momento de que
era posible dividir el átomo 14 . La inspiración en la ciencia,
como en el arte, puede proceder de diversas fuentes. Sin
embargo, muchos sostienen que los resultados de la ciencia
merecen ser especialmente creídos por cómo pueden ser
racionalmente reconstruidos después del hecho. No es
entonces cómo se encuentran las teorías científicas lo que
les proporciona esa mayor credibilidad, sino el proceso por
medio del cual pueden ser lógicamente justificadas.
Los libros de texto de materias científicas proporcionan
una versión depurada de la historia. Nos ofrecen el
resultado de muchos siglos de conflictos científicos y nos
hacen sentir que el proceso condujo inevitablemente a
nuestra instruida comprensión actual. Los historiadores de
la ciencia saben que esta explicación del «método
científico» es inexacta, pero sigue siendo inmensamente
popular debido al apoyo que le presta no solo a la
aseveración de que el contenido de la ciencia es
especialmente creíble, sino también a la idea de que el
proceso de la explicación científica puede ser emulado por
otras disciplinas que quieran hacer sus propios
descubrimientos empíricos 15 .
Sin embargo, incluso si el método clásico de los cinco
pasos termina mostrándose demasiado simple como para
resultar satisfactorio, los filósofos han buscado caracterizar
lo distintivo de la ciencia mediante otras fórmulas, y
algunos se han centrado en la metodología. Aquí es
importante no caer en confusiones. La afirmación de que
no hay un «método científico» universal que valga para
todo —tal que en un lado ponemos observaciones
sensoriales y en el otro recogemos conocimiento científico
— no entra en contradicción con la idea de que puede
haber un único rasgo metodológico de la ciencia. Decir que
no hay ninguna receta ni fórmula para la producción de
teorías científicas es muy diferente de decir que los
científicos carecen en absoluto de métodos. Esto implica
sostener que incluso si la mayoría de los filósofos de la
ciencia están dispuestos a rechazar la idea de un «método
científico» simple, no faltan quienes todavía consideran que
pueden obtenerse enormes beneficios de analizar las
diferencias metodológicas entre la ciencia y la no-ciencia,
en busca de una manera de justificar la autoridad
epistémica de aquellas teorías científicas que ya han sido
descubiertas.

LA RELEVANCIA DEL PROBLEMA DE LA DEMARCACIÓN

Un beneficio de centrarse en la metodología de la ciencia


es que trata de proporcionar una manera de establecer una
demarcación entre lo que es ciencia y lo que no. Este es el
llamado problema de la demarcación, y ha constituido una
enorme preocupación para la filosofía de la ciencia al
menos desde la época de Karl Popper a principios del siglo
XX. En su ensayo «The Demise of the Demarcation
Problem», Larry Laudan afirma que el problema de la
demarcación se remonta a Aristóteles —que busca
diferenciar entre el conocimiento y la opinión— y aflora de
nuevo en tiempos de Galileo y Newton —que introducen la
ciencia en la era moderna mediante el uso de métodos
empíricos para entender cómo funciona la naturaleza—. A
comienzos del siglo XIX, sostiene Laudan, Auguste Comte y
otros empiezan a centrarse en la aseveración de que lo
distintivo de la ciencia es su «método», y eso por más que
no hubiera todavía un acuerdo generalizado en torno a en
qué podía consistir eso 16 . A comienzos del siglo XX, los
filósofos estaban listos para pulir este análisis e intentar
resolver el problema de la demarcación creando un
«criterio de demarcación» que permitiera diferenciar la
ciencia de la no-ciencia.
Los positivistas lógicos trataron de resolver este
problema sobre la base del pretendido «significado»
especial de los enunciados científicos. En contraste con
otros tipos de aserciones, los enunciados científicos son
aceptados en tanto que suponen alguna diferencia en
nuestra experiencia del mundo, lo que quiere decir que
deben poder ser verificados de alguna manera por medio
de los sentidos. Si los científicos dicen que el planeta Venus
atraviesa diferentes fases, podemos comprobarlo mediante
un telescopio. Los enunciados con los que no ocurre lo
mismo (excluyendo aquellos que se usan en lógica, que es
deductivamente válida y está asentada sobre cimientos
firmes) son etiquetados como «cognitivamente sin sentido»,
puesto que no son verificables; son considerados palabrería
e indignos de nuestro tiempo, puesto que no hay ningún
procedimiento que permita determinar si son correctos o
incorrectos. Si un enunciado acerca del mundo aspira a ser
verdadero, arguyen los positivistas, ha de ser verificable
por la experiencia. Si no es así, en vez de tratarse de un
enunciado científico, es solo «metafísica» (que es el
término peyorativo que usaban para designar amplias
franjas de conocimiento, incluyendo la religión, la ética, la
estética y la mayor parte de la filosofía). Para volver
aceptable una distinción tan rápida y tajante, los
positivistas lógicos necesitaban, no obstante, elaborar un
«criterio de verificación» mediante el cual uno pueda
diferenciar los enunciados sin sentido de los enunciados
con sentido. Y esto, debido a razones técnicas que en
último término se reducen al problema de que no se puede
llevar a cabo la clasificación correcta, condujo este
planteamiento a la ruina 17 .
El problema de la demarcación fue entonces abordado
por quien quizá sea su mayor impulsor, Karl Popper. Popper
entendió —antes incluso del fracaso formal del positivismo
lógico— que en torno a la verificación de enunciados
científicos se planteaban dificultades. Los positivistas
habían basado la ciencia en la inferencia inductiva, lo que
viene a socavar la idea de que uno puede demostrar la
verdad de cualquier enunciado empírico. El famoso
problema de la inducción formulado por David Hume
negaba el tipo de certeza lógica que los positivistas
reclamaban para los enunciados científicos 18 . Aunque no
pudieran ser probadas, sin embargo, ¿no eran las
aserciones científicas excepcionalmente significativas, dado
el hecho de que en principio podían ser verificadas? Popper
pensaba que no, y consideraba que la búsqueda de
«significado» era otro error del enfoque positivista. Sentía
que lo que hace a la ciencia especial no era su significado,
sino su método. Popper se dispuso entonces, en el invierno
de 1919, a intentar resolver de otra manera el problema de
la demarcación —renunciando tanto a la verificación como
al significado y centrándose en lo que llamó «falsabilidad»
de las teorías científicas: la idea de que deben ser
susceptibles de ser descartadas por una experiencia
posible.
Lo que interesaba a Popper era la diferencia entre
enunciados como los de la astrología —que parecen
compatibles con cualquier evidencia— y los de la ciencia,
que asumen el riesgo de ser erróneos. Cuando un astrólogo
produce un horóscopo personalizado que dice: «A veces
estás inseguro acerca de tus logros y te sientes como un
impostor», su afirmación puede parecernos una revelación
clarividente de lo más profundo de nuestros pensamientos
hasta que nos damos cuenta de que el mismo horóscopo se
usa para todos los clientes. Esto contrasta con lo que
ocurre en la ciencia. Cuando un científico hace una
predicción, se supone que, si su teoría es correcta,
tendremos ocasión de ver lo que se ha predicho. Y si no
vemos ese resultado, entonces la teoría tiene algún fallo.
Popper recurrió a este tipo de contraste para pensar
acerca de la posible diferencia metodológica entre lo que
es ciencia y lo que no es ciencia. Estaba buscando una
manera de prescindir del estándar inalcanzable de acuerdo
con el cual los enunciados científicos deben ser siempre
probados por la evidencia, pero sin dejar de otorgarle un
papel a la evidencia. Y entonces recibió un golpe. Si los
positivistas lógicos y otros estaban buscando una manera
de diferenciar la ciencia de la no-ciencia —pero el
problema de la inducción planteado por Hume le impedía
decir que los enunciados científicos son verificables—, ¿por
qué no explorar el camino de la certeza deductiva del que
ya había disfrutado la lógica?
Aquellos que estudian la lógica formal saben que la
inferencia deductivamente válida más célebre y sencilla es
el modus ponens, que afirma: «Si A, entonces B, y A, luego
B». Aquí no hay ningún problema. No necesitamos hacer
comprobación alguna en torno a si «supone alguna
diferencia desde el punto de vista de nuestra experiencia».
Los argumentos deductivos son y siempre serán válidos
dado que la verdad de las premisas es suficiente para
garantizar la verdad de la conclusión; si las premisas son
verdaderas, la conclusión también lo será. Esto es tanto
como decir que la verdad de la conclusión no puede
contener ninguna información que no esté contenida ya en
las premisas. Consideremos el siguiente argumento válido:

Si alguien nació entre 1945 y 1991, entonces


tendrá estroncio-90 en los huesos.
Adán nació en 1963.
Por tanto, Adán tiene estroncio-90 en los huesos 19 .

El problema de los enunciados científicos, sin embargo,


es que no parecen tener esta forma. Durante cientos de
años antes de Popper, se aceptó que eran inductivos, lo que
quiere decir que el razonamiento se asemeja más a: «Si A,
entonces B; y B, entonces A». Por ejemplo:

Si alguien nació entre 1945 y 1991, entonces


tendrá estroncio-90 en los huesos.
Eva tiene estroncio-90 en los huesos
Por tanto, Eva nació entre 1945 y 1991.

Obviamente, este tipo de argumento no es


deductivamente válido. El hecho de que Eva tenga
estroncio-90 en los huesos no es garantía de que haya
nacido entre 1945 y 1991. Eva pudo haber crecido, por
ejemplo, cerca de un reactor nuclear en Pensilvania a
finales de los años noventa, donde se descubrió la
presencia de estroncio-90 como resultado de la
contaminación ambiental, de ahí que la forma del
argumento no garantice que, si las premisas son
verdaderas, también lo sea la conclusión. Con los
argumentos inductivos, la conclusión contiene información
que va más allá de lo que está contenido en las premisas.
Esto significa que tendremos que involucrarnos en la
experiencia para ver si la conclusión es verdadera. Pero
¿no es así como hacemos ciencia? De hecho, cuando nos
involucramos en razonamientos acerca de cuestiones
empíricas, frecuentemente tratamos de ir más allá de
nuestra experiencia inmediata y trazar inferencias acerca
de situaciones que guardan alguna semejanza con ellas.
Aunque nuestra experiencia pueda ser limitada, buscamos
patrones en ella con la esperanza de poder extrapolarlos
fuera de ella.
Supongamos que estamos interesados en una cuestión
patentemente empírica como pueda ser el color de los
cisnes. Hemos visto multitud de cisnes a lo largo de nuestra
vida y todos ellos eran blancos. Podemos entonces
sentirnos justificados para emitir la aserción «Todos los
cisnes son blancos». ¿Es esto verdad? Hemos hecho
nuestras observaciones y hemos llegado a una hipótesis,
pero ahora es el momento de ponerla a prueba. Así pues,
hacemos la predicción de que de ahora en adelante todo
cisne que veamos será blanco. Aquí es donde llega lo
interesante. Supongamos que esta predicción se cumple.
Podemos pasar toda nuestra vida en América del Norte y
todo cisne que veamos será blanco. ¿Demuestra esto la
verdad de la aserción? No, es todavía posible que si algún
día viajamos a Australia (o simplemente abrimos Google),
nos encontremos con un cisne negro.
Cuando tratamos de descubrir verdades empíricas
acerca del mundo, estamos obstaculizados por el hecho de
que nuestra experiencia es siempre finita. No importa
cuánto tiempo vivamos, no podemos tomar como muestra la
totalidad de los cisnes que han vivido o vivirán, así que no
podemos alcanzar certeza alguna al respecto. Si queremos
hacer enunciados generales acerca del mundo —
ejemplificados a veces por las leyes científicas—,
afrontamos el riesgo de que algún fragmento futuro de
evidencia pueda llegar a refutarnos. Esto es así porque el
argumento que estamos utilizando es formalmente
inductivo, y las inferencias inductivas no son
deductivamente válidas. Simplemente no hay manera de
tener la certeza de que el resto del mundo se ajustará a
nuestra limitada experiencia.
La ciencia, en cualquier caso, funciona bastante bien.
Aunque no pueda garantizar la verdad de nuestras
aserciones, estamos al menos reuniendo evidencia de su
relevancia como apoyo a nuestras creencias. ¿Y no debería
esto incrementar la probabilidad de que nuestros
enunciados generales sean verdaderos? 20 . Pero ¿por qué
conformarse con esto? A Popper le molestaba que los
positivistas y otros usaran la forma inductiva de la
inferencia como base de la ciencia. Pero si esa es su
fundamentación lógica, ¿cómo podemos diferenciar lo que
es ciencia de lo que no lo es? Admitir que «podemos estar
equivocados» no parece una distinción. Popper buscaba
algo más fuerte. Quería una base lógica de la especificidad
de la ciencia.
Popper no tuvo que mirar demasiado lejos. El argumento
inductivo que usamos arriba tiene un nombre —«afirmación
del consecuente»— y es una falacia bien conocida de la
lógica deductiva. Pero hay otras formas de argumento
mejores, y una de las más poderosas —modus tollens— es
deductivamente válida. Funciona de la siguiente manera:
«Si A, entonces B, y no B, luego no A».

Si alguien nació entre 1945 y 1991, entonces tiene


estroncio-90 en los huesos.
Gabriel no tiene estroncio-90 en los huesos.
Por tanto, Gabriel no nació entre 1945 y 1991 21 .

Esta era la visión de Popper: ahí estaba, pensó, la base


lógica de la inferencia científica. Que la ciencia trate de
aprender de los hechos empíricos acerca del mundo no
quiere decir que esté condenada a sucumbir ante los
problemas asociados con la inferencia inductiva. Si
miramos al argumento de arriba, comprobaremos que es
posible reunir evidencia empírica y aprender de ella de una
manera negativa, al igual que si nuestras pruebas no dan el
resultado esperado, conviene que revisemos nuestra
aserción general. Como los positivistas lógicos, Popper
todavía confía en la evidencia empírica. Pero ahora, en
lugar de que esa evidencia suponga alguna diferencia
desde el punto de vista de nuestra experiencia, de tal
manera que pueda ser usada para la verificación, la
evidencia es relevante porque la teoría que tenemos a
mano es susceptible de ser refutada por ella.
¿Recordamos el cisne negro? Si viéramos uno, ello nos
obligaría a revisar nuestra hipótesis de que «Todos los
cisnes son blancos». Un único contraejemplo tiene el poder
—por medio del modus tollens— de afectar a nuestros
enunciados generales acerca del mundo. Y eso nos
proporciona una manera, pensó Popper, de abandonar la
idea de la verificación en la ciencia. Si queremos
diferenciar la ciencia de la no-ciencia, tenemos que
plantear una pregunta muy sencilla: ¿es el enunciado
general que acabamos de formular acerca del mundo
susceptible de ser refutado por alguna experiencia posible
incluso si no hemos tenido ni podemos tener esa
experiencia? Si la respuesta es no, entonces no es
científico.
Por suerte para Popper, un ejemplo de buena ciencia
tomado de la vida real estaba a su disposición. De hecho,
bien pudo haber sido el que inspiró su teoría. En mayo de
1919, Arthur Eddington organizó una expedición para
tomar fotografías de las estrellas durante un eclipse total
de sol. Esto fue crucial para la confirmación de la teoría de
la relatividad general de Einstein. Popper explica:

La teoría gravitacional de Einstein conduce al


resultado de que la luz tiene que ser atraída por los
cuerpos pesados (como el Sol) precisamente en tanto
que los cuerpos materiales son atraídos. Como
consecuencia de ello, se puede calcular que la luz
desde una estrella fija determinada cuya posición
aparente está cercana al Sol alcanzaría la Tierra
desde una dirección tal que se diría que la estrella
está ligeramente alejada del sol; o, dicho en otras
palabras, que parece como si las estrellas cercanas al
Sol se hubieran alejado un poco del Sol y las unas de
las otras. Esto es algo que no puede observarse
habitualmente, puesto que esas estrellas son
invisibles durante el día debido a la abrumadora
luminosidad del sol; pero durante un eclipse es
posible tomar fotografías de ellas. Si la misma
constelación es fotografiada de noche, uno puede
medir las distancias entre las dos fotografías y
comprobar si el efecto predicho se da. [...] Ahora lo
impresionante acerca de este caso es el riesgo
involucrado en una predicción de este tipo. Si la
observación muestra que el efecto predicho está
definitivamente ausente, entonces la teoría queda
simplemente refutada. La teoría es incompatible con
ciertos resultados posibles de observación —de
hecho, con resultados que todo el mundo antes de
Einstein habría esperado 22 .

En otras palabras, la falsabilidad de la teoría de Einstein


es un ejemplo excelente de la manera apropiada de hacer
ciencia. De una sola vez, Popper proclamó haber resuelto
simultáneamente los problemas de la demarcación y de la
inducción. Es decir, como la ciencia ya no se basaba en ella,
la inducción no tenía relevancia. Había descubierto cómo
funcionan las observaciones empíricas en cuanto a la
diferencia directa que suponen a la hora de comprobar
nuestras aserciones generales acerca del mundo. Y, por
medio del modus tollens, esto era deductivamente válido.
Es importante entender que Popper no afirmaba que su
criterio de falsabilidad fuera una manera de diferenciar los
enunciados con sentido de los enunciados sin sentido. A
diferencia de los positivistas, Popper no tenía la necesidad
de usar el significado como representante de la
verificabilidad, dado que había encontrado una manera
directa de establecer la diferencia entre los enunciados
científicos y los no científicos 23 . Conviene hacer notar que
la falsabilidad pretendía identificar de esta manera no solo
lo que la ciencia tenía de especial, sino también lo que
había de erróneo en aquellas investigaciones que
meramente pretendían ser científicas.
Hemos mencionado ya el ejemplo de la astrología —que
se remonta a los días de Popper—, pero tomemos ahora en
consideración un caso más contemporáneo. En 1981, el
estado de Arkansas aprobó la Ley 590, que obligaba a los
profesores de las escuelas públicas a dar un «tratamiento
equilibrado» a la «ciencia de la creación» y a la «ciencia de
la evolución» en clase de Biología. La ley deja claro que las
creencias religiosas no se esgrimen como apoyo de la
teoría de la evolución, puesto que tal cosa violaría la
legislación federal. En lugar de eso, se esperaba que el
currículo se concentrara únicamente en la «evidencia
científica» a favor de la ciencia de la creación. Pero ¿había
alguna? ¿Y en qué se diferencia la ciencia de la creación
del creacionismo?
La ley sostenía que la situación existente hasta el
momento no podía mantenerse, puesto que la enseñanza
únicamente de la evolución podía entenderse como un
atentado contra la separación entre la Iglesia y el Estado,
hasta el punto de que podría ser hostil a las «religiones
teístas» y favorecer «el liberalismo teológico, el
humanismo, las religiones no teístas y el ateísmo en el que
esas manifestaciones de fe incluyen generalmente la
creencia en la evolución» 24 . La estrategia en este punto
estaba clara: no solo los defensores de la ciencia de la
creación trataban de mostrar que no era lo mismo que la
religión, sino que además daban a entender que la
evolución estaba muy próxima a ser religión. Pero dado que
era inaceptable librar esta batalla en el campo de la
religión, los defensores de la ciencia de la creación
afirmaban que solo querían recibir el mismo trato a la hora
de presentar sus puntos de vista como competidores de la
teoría de la evolución por selección natural de Darwin 25 .
El destino de esta ley en particular —y de los pleitos que
la siguieron— será expuesto más adelante en este capítulo
y retomado en el capítulo 8, que versa acerca de la teoría
del diseño inteligente, que protagonizó el segundo intentó
de introducir el creacionismo en la enseñanza pública. Por
el momento el problema es filosófico: ¿puede la falsación
identificar lo que pueda haber de erróneo en la ciencia de
la creación? Hay quien considera que puede, por algo
parecido a lo que ocurría con las afirmaciones precedentes
de la astrología: parece que las tesis principales de la
ciencia de la creación —que Dios creó el universo y el
conjunto de especies que contiene— era compatible con
cualquier evidencia. ¿Acaso el descubrimiento de fósiles de
dinosaurios de hace sesenta y cinco millones de años no
entra en conflicto con los seis mil años que la Biblia le
atribuye a la creación? En realidad, sostienen los
«científicos» de la creación, ¡un Dios omnipotente pudo
haber creado todo el registro fósil! Espero que haya
quedado claro tras nuestras consideraciones anteriores de
los problemas con la astrología que este tipo de tendencia a
justificar cualquier evidencia contraria no constituye un
ejemplo iluminador de falsabilidad. Mientras que la
verdadera ciencia se la juega sometiendo sus teorías a
comprobaciones basadas en la evidencia, la ciencia de la
creación rechaza introducir modificaciones incluso cuando
tiene evidencia en su contra. Añadamos a esto el hecho de
que la ciencia de la creación tiene muy poco que ofrecer
como evidencia positiva a su favor, y que muchos estaban
deseando despacharla como nada más que
pseudociencia 26 .
Las virtudes de la falsación están claras. Si Popper
hubiera encontrado una manera de resolver el problema de
la demarcación, los filósofos y los científicos tendrían ahora
una herramienta poderosa para responder a la pregunta de
qué es lo que hace que la ciencia sea especial. También
tendrían un mecanismo para desestimar y criticar aquellas
prácticas —como la astrología y el creacionismo— que no
quieren aceptar como científicas; si no son susceptibles de
falsación, entonces no son científicas. Un beneficio
adicional del enfoque de Popper es que había encontrado la
manera de que una teoría fuera científica sin que tuviera
que ser necesariamente verdadera 27 . ¿Por qué esto es
importante? Al buscar un criterio de demarcación, tiene
mucha relevancia para los versados en historia de la
ciencia, que entendían que algunas de las mentes
científicas más grandes de los últimos milenios habían
dicho cosas que más tarde resultaron ser falsas. Sería un
error pensar que no eran científicos. Aunque la teoría
geocéntrica de Ptolomeo fue reemplazada por el
heliocentrismo de Copérnico, el primero no deja por ello de
ser un científico. Su teoría estaba basada en datos
empíricos y avanzó tanto como pudo. Lo importante es que
sus aseveraciones eran falsables, no que finalmente fueran
falsadas.
Sería fácil imaginar que el nuevo criterio de demarcación
de Popper era también una vindicación de la idea del
«método científico», pero ello estaría lejos de la verdad. De
hecho, Popper fue uno de los primeros y más enérgicos
críticos de la idea de que hay algo así como un «método
científico». En su contribución más definitiva en torno a
esta cuestión, apropiadamente titulada «Sobre la no
existencia del método científico», Popper escribe: «Como
norma, empiezo mis lecciones sobre el método científico
diciéndoles a mis estudiantes que el método científico no
existe» 28 . En otro lugar, escribe:

La creencia de que la ciencia parte de la


observación para llegar a la teoría está todavía tan
extendida y persiste con tanta firmeza que mi
negación de ella se recibe frecuentemente con
incredulidad. [...] Pero de hecho la idea de que
podemos tomar como punto de partida únicamente la
pura observación, sin nada más que conforme la
naturaleza de una teoría, es absurda; esto puede
ilustrarse con la historia del hombre que pasó toda su
vida dedicado a las ciencias naturales, anotó todo lo
que pudo observar y legó el valioso conjunto de sus
observaciones a la Royal Society para que fuera
usado como evidencia inductiva. Esta historia debería
servir para poner de manifiesto que, aunque los
escarabajos puedan ser provechosamente
coleccionados, lo mismo no puede decirse de las
observaciones 29 .

Es importante recordar aquí la distinción entre decir que


hay un «método científico» y decir que existe alguna
diferencia metodológica —como la falsabilidad— entre la
ciencia y la no-ciencia. Aunque Popper está
inequívocamente rechazando la idea del «método
científico», todavía cree que podemos tener un criterio de
demarcación incluso de naturaleza metodológica 30 .
Esta opinión no es compartida por algunos de los críticos
de Popper, especialmente por el más famoso de ellos,
Thomas Kuhn, quien consideraba que, aunque Popper había
acertado al abandonar la idea del método científico 31 ,
probablemente también se debería prescindir del supuesto
de que ha de haber alguna diferencia metodológica
distintiva entre la ciencia y la no-ciencia. Nótese que esto
no significa necesariamente que se está renunciando a la
concepción de que la ciencia es «especial» o de que haya
una manera de distinguir la ciencia de la no-ciencia. Kuhn
todavía no estaba en condiciones de hacer eso (aunque
muchos de sus posteriores seguidores sí lo estuvieron); en
lugar de eso, meramente dejó apuntado que los procesos
que siguen los científicos en su trabajo tienen mucho más
que ver con factores «subjetivos» no basados en la
evidencia a la hora de elegir una teoría, tales como el
alcance, la simplicidad, la productividad y la capacidad de
ajustarse con creencias precedentes para conformar un
marco teórico, y no con un método formal. Y esto
seguramente deba tener impacto en la justificación.
Es importante entender que Kuhn no era un detractor de
la ciencia. No era —aunque ha sido acusado de ello— uno
de aquellos que más adelante iban a proclamar que la
ciencia era un proceso «irracional», no superior a cualquier
otra forma de conocimiento, ni tampoco consideraba que
los factores sociales que a veces afectan a la elección de
una teoría científica socavaran la pretensión de producir
proposiciones fiables. En lugar de eso, Kuhn trató de
asegurarse de que entendíamos la ciencia como lo que
realmente es, convencido de que no por ello sería menos
maravillosa. A pesar de que Kuhn nunca consideró que la
tarea de proporcionar un criterio de demarcación le
concerniera, sí se vio a sí mismo en cualquier caso como un
campeón de la ciencia 32 .
¿Qué hay de la teoría de Popper? A pesar de sus
virtudes, ha sido duramente criticada —por Kuhn y otros—
en tanto que ofrece una concepción demasiado simple del
cambio en la teoría científica, especialmente teniendo en
cuenta el hecho de que la mayor parte de la ciencia no
funciona precisamente como sugiere el heroico ejemplo de
la predicción de Einstein. Hay pocas comprobaciones
cruciales de ese tipo, que implican predicciones
arriesgadas y éxitos espectaculares, a lo largo de la historia
de la ciencia. Por lo general, la ciencia avanza bastante
despacio, con pruebas a una escala mucho menor y,
reveladoramente, una reticencia extendida a abandonar
una hipótesis de trabajo solo porque algo ha ido mal 33 . Sí,
la evidencia cuenta, y uno no puede simplemente apartar la
mirada de los datos y aislar una teoría de la refutación. Sin
embargo, muchos filósofos que abrazan la tesis Duhem-
Quine (que afirma que siempre es más fácil sacrificar una
hipótesis con poco apoyo o hacer una modificación ad-hoc
que abandonar una teoría) eran escépticos acerca de que la
ciencia funcionara como Popper decía. Aunque Popper
mantuviera que su teoría solo se ocupaba de la justificación
lógica de la ciencia, muchos pensaron que había un
creciente salto de credibilidad entre cómo trabajan los
científicos en realidad y cómo justifican los filósofos el
trabajo de los primeros, dados los factores sociales que
Kuhn había identificado. Como Kuhn demostró, tenemos a
veces la oportunidad de participar en una revolución
científica, pero eso no ocurre con la suficiente frecuencia
como para que podamos aceptarlo como base de la
demarcación entre la ciencia y lo que no es ciencia.
El resultado de todo esto es que hacia la década de 1970
la mayoría de los filósofos de la ciencia estaba de acuerdo
no solo en que el método científico de los cinco pasos era
un mito, sino también en que no cabía hablar de una
distinción metodológica genuina entre la ciencia y la no-
ciencia. Esto tuvo una gran importancia para la idea de que
la ciencia era especial. ¿Puede uno defender la idea de que
la ciencia tiene alguna característica distintiva sin creer al
mismo tiempo en el método científico o al menos en algún
otro criterio de demarcación? Muchos responden
negativamente.
Una vez que Kuhn abrió la puerta al examen de los
detalles cotidianos de cómo los científicos se ocupan de sus
asuntos —por medio de la «solución de puzles» y la
búsqueda de acomodo al paradigma dominante por medio
de la «ciencia normal»—, los críticos parecían imparables.
Para horror de Kuhn (después de todo estaba de acuerdo
con Popper y otros defensores de la ciencia en que la
evidencia cuenta y en que la revolución de una teoría
científica a otra sobre la base de la evidencia es el sello
distintivo de la ciencia), quienes ya no creían en el carácter
especial de la ciencia empezaron a citar frecuentemente su
obra como apoyo. Los sociólogos de la ciencia, relativistas,
posmodernos, constructivistas sociales y otros se turnaron
entre ellos para atacar la idea de que la ciencia es racional,
de que tiene algo que ver con la búsqueda de la verdad o
de que las teorías científicas eran algo más que el reflejo de
los sesgos políticos, de raza, clase y género de los
científicos que las elaboran. Para algunos, la ciencia se
convirtió en ideología, y los hechos y la evidencia ya no
eran automáticamente aceptados como fundamentos fiables
para la elección de una teoría ni siquiera en el ámbito de
las ciencias naturales.
Paul Feyerabend llegó al punto de negar que en la
ciencia haya método alguno. He aquí una divergencia
radical con respecto a la mera desconfianza en el método
científico. A lo largo del viaje se hicieron afirmaciones
acerca de cuestiones metodológicas (como la objetividad),
el criterio de demarcación e incluso la idea de que las
creencias científicas gozan de algún tipo de privilegio 34 .
Muchos se preguntaron si la filosofía no había perdido la fe
en la ciencia.
Esto no quiere decir que todos los filósofos de la ciencia
piensen lo mismo. Hay muchos que siguen las ideas del
empirismo lógico (sucesos del positivismo lógico), que gozó
de una posición de privilegio contemporáneamente con el
falsacionismo de Popper y hasta la revolución de Kuhn. Lo
fundamental era aquí defender el método especial de la
ciencia —retomando incluso el antiguo concepto positivista
de la «ciencia unificada» cuyo método podía ser aplicado
en el campo de las ciencias sociales— no por medio de la
falsabilidad (o del significado), sino de un examen
cuidadoso de cómo puede uno construir teorías más sólidas
y fiables a pesar del problema de la inducción 35 . Incluso
aquí, no obstante, era necesario modular la defensa de la
ciencia a pleno pulmón y hacer ciertas concesiones 36 .
Hacia 1983, Larry Laudan, uno de los filósofos de la
ciencia más prominentes, estaba en condiciones de
finiquitar la idea de que se podía establecer un criterio de
demarcación. El trabajo de Laudan no era tan radical como
para sugerir que la ciencia no es importante. Se trataba de
uno de los poskuhnianos que buscaban una manera de
mantener la tesis de que la ciencia podía hacer
«progresos», si bien, ciertamente, no hacia teorías
«verdaderas» o de algún modo que sugiriera la hegemonía
de la ciencia sobre otras formas de conocimiento. En su ya
citado artículo «The Demise of the Demarcation Problem»,
Laudan sostiene que no hay solución posible para el
problema de la demarcación, partiendo de la base de que,
si pudiera ser resuelto, ya lo habría sido. En la época en la
que Laudan interviene en el debate, está de más decir que
no hay método científico, pero incluso la idea de encontrar
otra manera de distinguir entre la ciencia y la no-ciencia
parece ahora muerta.
Nótese que esto no significa necesariamente que no haya
diferencia entre la ciencia y la no-ciencia. Uno podría
incluso creer (como pienso que hizo Laudan) que la ciencia
es exclusivamente explicativa. Es solo que no vamos a ser
capaces de encontrar una herramienta utilizable para la
demarcación. Incluso si todos estuviéramos de acuerdo en
qué es ciencia y qué no es ciencia, no seríamos capaces de
establecer un modo rápido y contundente de distinguirla.
La razón técnica para esto, nos dice Laudan, es que los
filósofos no han sido capaces de proponer un conjunto de
condiciones necesarias y suficientes para la ciencia. Y para
él, ese es un requisito indispensable a fin de cumplir un
criterio de demarcación.

¿Qué aspecto tendrá que tener la estructura formal


de un criterio de demarcación para que cumpla las
tareas para las que ha sido diseñado? Idealmente,
especificaría un conjunto de condiciones
individualmente necesarias y suficientes tomadas
todas juntas que permitiría decidir si una actividad o
conjunto de enunciados es científico o no científico.
¿Bastaría con algo menos ambicioso? Parece
improbable. Supongamos, por ejemplo, que alguien
no ofreciera una caracterización que pretendiera
constituir una condición necesaria (pero no
suficiente) para el estatuto de ciencia. Esa condición,
si es aceptable, nos permitiría identificar ciertas
actividades como decididamente no científicas, pero
no nos ayudaría a «fijar nuestras creencias», porque
no especificaría qué sistemas son realmente
científicos. [...] Por diferentes razones, las
condiciones meramente suficientes son también
inadecuadas. Si nos dijeran: «Cumple estas
condiciones y serás científico», nos dejarían sin
maquinaria alguna para determinar si una cierta
actividad o enunciado es no científico. [...] Sin
condiciones que sean necesarias y suficientes, nunca
estamos en posición de decir: «Esto es científico,
pero aquello no lo es» 37 .

¿Cuál es el problema de aportar solo una condición


necesaria? Es demasiado estricto. Al tratar de excluir todo
lo que no es ciencia, podemos dejar fuera algunas cosas
que nos gustaría incluir. Supongamos que nuestra
condición necesaria es que la ciencia debe ser capaz de
llevar a cabo experimentos controlados. ¿No excluye esto la
geología? ¿Qué pasa con la astronomía? ¿Y qué hay de las
ciencias sociales? Supongamos, por otro lado, que
abandonamos esto y que en su lugar proporcionamos solo
una condición suficiente para la investigación científica:
por ejemplo, que la investigación científica tiene que
ocuparse de buscar la verdad sobre la base de la evidencia
empírica. En este caso quizás hayamos sido demasiado
inclusivos. ¿No deberíamos ahora aceptar como científica
la búsqueda del Pie Grande? Al tratar de integrar todo lo
que es ciencia, quizá se nos cuelen cosas que seguramente
preferiríamos dejar fuera 38 . Así, pues, nos dice Laudan,
para tener un criterio adecuado de demarcación entre lo
que es ciencia y la no-ciencia, necesitamos especificar un
conjunto de condiciones individualmente necesarias y entre
todas ellas suficientes para la ciencia 39 .
Quizá nada ilustre mejor las dificultades planteadas por
la adhesión a tan elevada normatividad que la propuesta de
la falsabilidad de Karl Popper. ¿Obedece al objetivo de
proporcionarle a la ciencia un estándar necesario,
suficiente o ambas cosas a la vez? La búsqueda de una
respuesta llega a ser exasperante. Dependiendo del lugar,
Popper da a entender una cosa o la otra. Como
consecuencia de ello, se le ha acusado tanto de excluir
ciencia legítima (como la biología evolucionista) como de
transigir con las pretensiones científicas de algunas
pseudociencias (como la astrología) 40 . Laudan en
particular se inclina por lo segundo cuando escribe que el
criterio de Popper «tiene la consecuencia no intencionada
de admitir como “científica” cualquier afirmación
excéntrica que haga una aserción determinable como
falsa» 41 .
La última afirmación seguramente habría enfurecido a
Popper (que ideó su criterio precisamente para excluir
cosas como la astrología del panteón científico). Así, pues,
quizá deba interpretarse la falsación como si proporcionara
únicamente una condición necesaria 42 . Ahora bien, como
hemos visto, este enfoque tiene a su vez una debilidad 43 .
Entonces quizá lo mejor sea aceptar la idea de que Popper
trató de alcanzar el estándar más elevado proporcionando
un conjunto de criterios «individualmente necesarios y
entre todos ellos suficientes». En un momento posterior de
su vida, Popper dijo en una ocasión que «una oración (o
una teoría) es empírico-científica si y solo si es falsable» 44 .
En filosofía de la ciencia, he aquí las palabras mágicas: «si
y solo si» le compromete a proporcionar condiciones tanto
necesarias como suficientes. Por las razones ya dadas la
falsación por sí sola no basta para eso; no obstante, uno
busca vanamente en los escritos de Popper una declaración
definitiva en torno a qué otras condiciones podrían
aplicarse. Frank Cioffy, en su importante ensayo
«Psychoanalysis, Pseudoscience and Testability», se
aproxima a ello argumentando que, además de la
falsabilidad, Popper había tratado de incluir como
requisitos «que se lleven a cabo enérgicos intentos de
someter la teoría a comprobación» y que «los resultados
negativos de las pruebas sean aceptados» 45 . Pero incluso
aquí uno choca con el mismo problema de antes,
identificado por Kuhn y otros, de que no siempre se
aceptan los resultados negativos como suficientes para
echar abajo una teoría.
Si hasta Karl Popper se ve envuelto en el problema de
proporcionar las condiciones necesarias y suficientes que
Laudan exige para ofrecer un criterio de demarcación,
algunos pueden preguntarse si los demás deberíamos
sencillamente renunciar. Esto es precisamente lo que
ocurrió durante al menos tres décadas después del ensayo
de Laudan, cuando muchos se vieron forzados por su
razonamiento a dejar de lado la pretensión de proporcionar
un criterio de demarcación entre la ciencia y la no-ciencia.
Esto no es tanto como decir que necesariamente han
renunciado a la idea de que la ciencia es especial.
Recordemos que, como Laudan, uno podría llegar a creer
que la ciencia puede ser definida por ostensión.
Seguramente muchos, al igual que el propio Laudan, no
estaban preparados para renunciar a la idea de que la
ciencia merecía ser defendida, incluso aunque no fuera por
medio de la demarcación. Con la propuesta positiva de
Laudan de que todavía era posible para la ciencia hacer
«progresos» en la línea de Kuhn, muchos se replegaron de
algunas de las radicales aserciones de Feyerabend y los
constructivistas sociales en torno a que la ciencia no es
más que otra forma de conocimiento. Es una lástima que
aunque seamos capaces de reconocer la ciencia (y la
pseudociencia) cuando la vemos, no lleguemos al punto de
tener una buena manera de identificar lo que la define.
Aunque muchos hayan perdido la esperanza en el problema
de la demarcación, no por ello han perdido la esperanza en
la ciencia.
Esta estrategia, sin embargo, tiene sus costes. Al
momento más bajo se llegó en 1982, cuando la Ley 590 fue
impugnada como inconstitucional en el caso McLean vs.
Arkansas. El prominente filósofo de la ciencia Michael Ruse
testificó como experto y, cuando se le puso en aprietos al
hilo de la definición de la ciencia, dio una versión de la
teoría de la falsación de Popper. Esto terminó convenciendo
al juez, que echó mano abundantemente del testimonio de
Ruse para fundamentar su veredicto de que el
creacionismo no es ciencia, de tal manera que no tenía
ningún papel que desempeñar en el aula. Aunque Ruse hizo
lo que pudo —y desde mi punto de vista recibió críticas
injustas tras haber sido lo bastante audaz como para
presentarse en el juicio y acabar con el disparate de la
aceptación del creacionismo como teoría científica legítima
—, la reprobación procedente de la academia fue inmediata
y directa. Laudan, que seguramente estuviera de acuerdo
con Ruse en que el creacionismo era una farsa, condenó el
uso de la teoría de Popper en el dictamen del juez.

Después de la decisión del juez de Arkansas en


torno al creacionismo, [...] los amigos de la ciencia
están listos para saborear el resultado. [...] Sin
embargo, una vez que el polvo se haya asentado, el
juicio en general y la labor del juez William R.
Overton en particular, podrían volver y perseguirnos;
puesto que, aunque el veredicto pueda ser digno de
elogios, se ha llegado a él apelando a las razones
equivocadas y mediante una cadena de argumentos
irremediablemente sospechosa. De hecho, el fallo se
basa en múltiples concepciones erróneas de lo que la
ciencia es y de cómo funciona 46 .

Los temores de Laudan pueden resumirse como sigue:

Laudan replicó que la doctrina creacionista, de


acuerdo con el criterio del propio Popper, es ella
misma ciencia. Es empíricamente comprobable,
puesto que ha sido falsada. Sus defensores se han
comportado de una manera no científica, pero esa es
una cuestión diferente. La razón por la que (el
creacionismo) no debe enseñarse es sencillamente
que es mala ciencia 47 .

Uno se imagina que si esa adhesión tan


escrupulosamente fiel a la erudición de la época se hubiera
impuesto ante el tribunal, los creacionistas se habrían
sentido entusiasmados: sí, enseñar el creacionismo como
mala «ciencia», pero enseñarlo a pesar de todo.
Así pues, vemos que el fracaso a la hora de delimitar la
ciencia de la no-ciencia puede traer consigo consecuencias
que afectan al mundo real más allá de la filosofía. En
primer lugar, el debate en torno a si convertir el
creacionismo en materia de estudio en las escuelas
públicas no cesó en 1982, sino que desde entonces ha
mutado y se ha extendido —en parte como consecuencia de
la incapacidad de los filósofos para defender el estatuto
especial de la ciencia— tras adquirir la forma del actual
«diseño inteligente (DI)» (al que me referí en algún lugar
como «creacionismo en esmoquin barato») como una teoría
científica de pleno derecho que está lista para irrumpir en
las clases de Biología 48 . Esto se ha puesto una vez más a
prueba en 2005 con el caso Kitzmiller vs. Distrito escolar
de Dover, en el que otro juez —en una hiriente reprobación
que recordaba la decisión de McLean— concluyó que el
diseño inteligente «no es ciencia» y ordenó que los
demandados pagaran un millón de dólares a los
demandantes. Esto puede servir de disuasión a los futuros
teóricos del DI, pero esta historia, tristemente, no ha
terminado, puesto que los proyectos de ley de «libertad
académica» están tramitándose en las asambleas
legislativas de Colorado, Misuri, Montana y Oklahoma
tomando como modelo la exitosa ley de Tennessee de 2012
que defendía el derecho «de los profesores a explorar las
fortalezas y debilidades científicas de la evolución y el
cambio climático» 49 .
Solucionar el problema de la diferenciación entre la
ciencia y la no-ciencia no es una frivolidad. Ser capaz de
decir, en público y de manera comprensible, parece un
deber particular de aquellos filósofos de la ciencia que
creen en la ciencia, pero que no han sabido cómo articular
el porqué. Cuando los negacionistas del cambio climático
empiezan a acelerar tomando el relevo de los creacionistas
(y del lobby del tabaco) en sus batallas anteriores y
desafiando las conclusiones científicas que no les gustan
mediante la financiación de «ciencia basura» y las
relaciones públicas, ¿no ha llegado el momento de
contraatacar?
En los últimos tiempos, esto es precisamente lo que ha
ocurrido. En 2013, los filósofos Massimo Pigliucci y
Maarten Boudry publicaron una antología titulada
Philosophy of Pseudoscience: Reconsidering the
Demarcation Problem, en la cual trataban de insuflarle
nueva vida al problema de la demarcación treinta años
después del prematuro obituario de Laudan. Los artículos
atesoran los últimos pensamientos filosóficos en torno a la
cuestión mientras la profesión trata de levantarse de la
zanja en la que Laudan la dejó postrada: aquella en la que
creemos que la ciencia es especial, pero no podemos decir
cómo. Es decepcionante —pero ciertamente comprensible—
que después de todo este tiempo los filósofos estén
ligeramente inseguros en torno a cómo proceder. Quizá la
vuelta a la vida del problema tradicional de la demarcación
sea la respuesta. O quizás haya otra manera.
No es poca cosa rechazar el problema de la
demarcación, que ha sido la espina dorsal de la filosofía de
la ciencia desde sus orígenes. El atractivo que ejerce el uso
de su estructura y vocabulario como una manera de
entender y defender el carácter distintivo de la ciencia es
obvio. Acaso sea esta la razón por la que virtualmente
todos los intentos previos de dejar fijado lo que la ciencia
tiene de especial han involucrado el intento de elaborar un
criterio de demarcación. Pero se le oponen muchas
dificultades a la pretensión de resucitar este enfoque.
En su ensayo «The Demarcation Problem: A (Belated)
Response to Laudan», Pigliucci rechaza el enfoque de las
«condiciones necesarias y suficientes» y prefiere recurrir
en su lugar al concepto de «parecido de familia» de Ludwig
Wittgenstein. Pigliucci afirma entonces que su objetivo es
rescatar el problema de la demarcación del enfoque
«desfasado» de Laudan (lo que puede concebirse como un
desafío al «meta-argumento» de Laudan sobre lo que es
necesario para resolver el problema de la demarcación) 50 .
En cambio, la idea de Pigliucci es abordar el aprendizaje de
la diferencia entre la ciencia y la pseudociencia como una
especie de «juego de lenguaje» en el que adquirimos
conocimiento de los racimos de semejanzas y diferencias
entre diferentes conceptos atendiendo al uso que se hace
de ellos. El objetivo aquí es identificar los diversos hilos de
relación que no se ajustan de manera nítida al guion de las
condiciones necesarias y suficientes, pero que en cualquier
caso caracterizan lo que queremos decir cuando nos
referimos a una área determinada de investigación como
científica. Dos de estos racimos —«conocimiento empírico»
y «comprensión teórica»— parecen hacer la mayor parte
del trabajo. Como afirma Pigliucci, «si hay algo en torno a
la ciencia en lo que todos estamos de acuerdo, es que trata
de proporcionar una comprensión teórica del mundo sobre
una base empírica, de tal manera que una teoría científica
ha de tener tanto apoyo empírico como coherencia interna
y lógica» 51 . Como resultado de ello, Pigliucci piensa que —
entre otras cosas— habremos descubierto un «parecido de
familia wittgensteiniano» para los conceptos de ciencia y
pseudociencia que proporciona un criterio de demarcación
viable para «recuperar mucho (aunque no necesariamente
todo) de la clasificación intuitiva en ciencias y
pseudociencias generalmente aceptada por los científicos y
muchos filósofos de la ciencia en activo 52 .
Sin embargo, esta explicación resulta algo nebulosa
como criterio de demarcación. En primer lugar, ¿qué base
lógica tiene? En varios momentos, Pigliucci se refiere al
uso de una «lógica difusa» (que se basa en inferir grados
de pertenencia para la inclusión en un conjunto) a fin de
ayudar a hacer más riguroso su criterio, pero no queda
claro cómo debería funcionar esto. Como admite Pigliucci,
«para que esto funcione realmente, uno tendría que
desarrollar una métrica cuantitativa de las variables
relevantes. Si bien ese desarrollo es ciertamente posible,
los detalles distan de estar exentos de controversia» 53 .
Cuando menos, uno imagina que los conceptos centrales
del conocimiento empírico y la comprensión teórica pueden
ser tan difíciles de describir y diferenciar de sus opuestos
como el concepto de ciencia mismo. ¿Ha resuelto Pigliucci
el problema de la demarcación o lo ha hecho retroceder un
paso?
Otros que han buscado una solución «pos-Laudan» al
problema de la demarcación han tenido que transitar una
ruta igualmente escabrosa. En el mismo volumen, Sven
Hansson ensaya una definición sumamente abierta de
ciencia. Aparentemente advertido de las implicaciones de
ubicar disciplinas como la filosofía en el apartado de las
pseudociencias, extiende el ámbito de la ciencia hasta
abarcar algo así como una «comunidad de conocimiento» y
a continuación procede a diferenciarla de la pseudociencia.
A pesar de todas las pretendidas ventajas de rescatar las
humanidades del ámbito de la no-ciencia, el coste es, sin
embargo, bastante alto, puesto que ahora no cabe decir
que el problema de la pseudociencia tiene que ver con la
degradación que propicia de los estándares empíricos
(dado que al menos una parte de lo que ahora se clasifica
como ciencia no es empírica) 54 .
Maarten Boudry toma una dirección igualmente
cuestionable al decir que considera que en realidad hay dos
problemas de la demarcación —el territorial y el normativo
— en lugar de solo uno. La disputa previa le parece estéril.
Es solo una cuestión «territorial» que tiene que ver con
separar la ciencia de empresas epistémicas legítimas pero
no empíricas como la historia o la filosofía. De acuerdo con
Boudry, la verdadera disputa se da entre la ciencia y la
pseudociencia; aquí surgen las cuestiones normativas,
puesto que es en este punto donde nos enfrentamos con
disciplinas que meramente simulan ser ciencias 55 . Sin
embargo, esta bifurcación del problema de la demarcación
revela una confusión básica entre decir que una disciplina
es no científica [nonscientific] y decir que es acientífica
[unscientific]. ¿Pretende Boudry identificar la disputa
«territorial» como una disputa entre campos que son
científicos y campos que son no científicos? Si se trata de
eso, el uso del término es idiosincrásico y engañoso. La
disputa que parece querer abordar cuando habla del
problema territorial de la demarcación parece ser entre la
ciencia y lo que puede ser llamado «acientífico». Ahora
bien, ¿por qué habría de ser esta la alternativa correcta a
la disputa normativa? La interpretación más típica del
debate en torno a la demarcación —que se manifiesta en la
mayor parte de la producción académica al respecto— es
entre la ciencia y la no-ciencia, o entre la ciencia y la
pseudociencia. Estos son los neologismos usados por
Popper, Laudan y la mayoría de los demás 56 . En cambio,
Boudry parece crear un nuevo problema de la demarcación,
mientras que no dice nada de por qué debemos olvidar el
problema clásico de diferenciar entre la ciencia y la no-
ciencia. Ahora bien, ¿por qué piensa Boudry que puede
argumentar a favor de la batalla normativa entre la ciencia
y la pseudociencia cuando no se ha deshecho
legítimamente de la cuestión más amplia de la ciencia
frente a lo que no es ciencia? El subterfugio de la distinción
«territorial» entre las disciplinas científicas y las disciplinas
acientíficas (historia, filosofía, etcétera) es insuficiente.
Puede parecer que esta lucha por explicar si el problema
de la demarcación debe ser entre la ciencia y la no-ciencia
—o entre la ciencia y la pseudociencia— obedece a una
disputa meramente terminológica, pero no es así. Si
estamos intentando distinguir la ciencia de todo lo que no
es ciencia, podemos llegar a un criterio de demarcación
muy diferente que si estuviéramos buscando las diferencias
entre la ciencia y meramente sus suplantadoras. Lo
importante aquí es reconocer que, de acuerdo con la
mayoría de los académicos, la categoría de las disciplinas
no científicas incluye tanto aquellos campos de estudio que
son pseudocientíficos como los que son acientíficos. Una
investigación puede ser no científica tanto porque simule
ser científica (en cuyo caso será pseudocientífica) como
porque se ocupe de cuestiones con respecto a las cuales los
datos empíricos no son relevantes (en cuyo caso es
acientífica) 57 . (Véase Figura 1.1.)
La incapacidad de especificar lo suficiente de qué se está
intentando diferenciar la ciencia no solo se da, sino que, en
los ensayos «pos-Laudan» de Pigliucci, Hansson y Boudry,
pero parece reflejar una persistente equivocación en la
literatura académica al respecto que se remonta a través
de Laudan hasta el propio Karl Popper. Recordemos que en
La lógica de la investigación científica, Popper dice que
está definiendo las fronteras de la ciencia con respecto a
las de las matemáticas, la lógica y la «especulación
metafísica» 58 . Para cuando se dispuso a redactar
Conjeturas y refutaciones [Conjectures and Refutations],
sin embargo, su objetivo era la pseudociencia. En su
ensayo, Laudan también alterna las referencias a la no-
ciencia y a la pseudociencia 59 .

Figura 1.1

¿Qué diferencia supone todo esto? Resultará ser crucial.


Más adelante retomaremos el problema de las condiciones
necesarias y suficientes y aprenderemos que toda la
cuestión de la especificidad de la ciencia puede pender de
un hilo. Veremos que el proyecto de tratar de resolver el
problema de la demarcación quedará paralizado salvo que
seamos capaces de delimitar con precisión lo que nos
proponemos definir (la ciencia, la no-ciencia, la
pseudociencia o las disciplinas acientíficas) y, como hemos
visto, todavía no se ha acometido esa tarea de manera
definitiva. Mi objetivo será proporcionar una manera de
pronunciarse en torno a lo distintivo de la ciencia sin
tropezar con el problema de proporcionar unas condiciones
necesarias y suficientes —o tratar de resolver el problema
de la demarcación—, puesto que no creo que esas
dificultades puedan ser superadas. Sin embargo, todavía
necesitamos encontrar una manera de defender la ciencia.
Pero antes de nada debemos lidiar con aquellos que han
entendido de manera errónea cómo funciona la ciencia.

13 Hay ciertas disputas en torno a quién fue el primero en utilizar la expresión


método científico. Muchos se remontan al siglo XIII y le conceden ese honor el
filósofo y teólogo Roger Bacon —hay que tener cuidado con no confundirlo con
el filósofo del siglo XVI Francis Bacon—, quien, en colaboración con su maestro
Roberto Grosseteste, fue el primero en postular la idea de que el conocimiento
científico tiene que basarse en la evidencia sensible. Francis Bacon reivindicó y
perfeccionó el método al servicio del mismo objetivo empírico.

14 Véase Noretta Koertge (ed.), New Dictionary of Scientific Biography (Nueva


York, Scribner’s, 2007).

15 Más adelante en este mismo capítulo exploraremos algunas de las razones


que filósofos de la ciencia como Popper y Kuhn han aportado para rechazar la
idea del método científico.

16 Laudan, «The Demise of the Demarcation Problem», en Beyond Positivism


and Relativism: Theory, Method, and Evidence, en Larry Laudan (ed.) (Boulder,
Co., Westview Press, 1996), 210-222. Una excelente discusión general puede
encontrarse en Thomas Nickles, «The Problem of Demarcation: History and
Future», en Philosophy of Pseudoscience, en M. Pigliucci y M. Boudry (eds.)
(Chicago, University of Chicago Press, 2013), 101-120.

17 La fuente clásica del positivismo lógico es Language, Truth and Logic de A.


J. Ayer (Mineola, NY, Dover, 1952). Para una interesante historia de su
evolución posterior, véase P. Achinstein y S. Barker, The Legacy of Logical
Positivism (Baltimore, MD, Johns Hopkins University Press, 1969), que se
ocupa un poco más detalladamente de los problemas a los que se enfrentaba el
enfoque, especialmente cuando los positivistas lógicos se percataron de que
algunos de sus propios enunciados no podían superar una versión creíble del
criterio de verificación.

18 El capítulo 2 expone una discusión más prolija del problema de la inducción


y sus repercusiones para el razonamiento científico. Básicamente, el problema
de la inducción es que no podemos tener certeza plena en torno a ninguna
afirmación que pueda ser refutada posteriormente por la evidencia empírica.

19 El estroncio-90 es una partícula radioactiva producida por fisión atómica


que entra por absorción en el ciclo alimentario ambiental compitiendo con el
calcio y asentándose en los huesos de quienes lo ingieren. Antes de que en
1963 se aprobara su prohibición, había cientos de pruebas nucleares
atmosféricas por todo el mundo. En un estudio llevado a cabo en San Luis en
1963, se descubrió que los dientes de leche tenían un nivel de estroncio-90
cincuenta veces superior al de los nacidos en 1950. La vida media del
estroncio-90 es de veintiocho años.

20 En realidad, puede que ni siquiera eso, puesto que el problema de la


inducción socava no solo la certeza, sino también la probabilidad de los
enunciados inductivos. Para más detalles, véase el capítulo 2.

21 Aquí todavía podría ser necesaria más investigación para averiguar por qué
Gabriel no tiene estroncio-90 en los huesos. ¿Nació antes de 1945? ¿Nació en
1994, pero no vivió cerca de un reactor nuclear? Pero lo esencial es que el
razonamiento es deductivamente válido. Una vez que sabemos que no tiene
estroncio-90 en los huesos, podemos descartar que haya nacido entre 1945 y
1991.

22 Karl Popper, Conjectures and Refutations (Nueva York, Harper Torchbooks,


1965), 36.

23 Karl Popper, The Logic of Scientific Discovery (Nueva York, Basic Books,
1959). Es fascinante notar que, aunque cualquier académico caracteriza el
interés de Popper en el debate en torno a la demarcación como dependiente de
su interés en distinguir la ciencia de la no-ciencia (o pseudociencia), el propio
Popper no usa esos términos en su libro. Cuando más se acerca a definir la
demarcación (en la sección 4), Popper afirma que su objetivo «es distinguir
entre las ciencias empíricas, por un lado, y las matemáticas y la lógica así como
los sistemas metafísicos, por el otro». Esto deja claro que no pretendía
distinguir la ciencia meramente de la «especulación metafísica», sino de otras
investigaciones «no científicas» como las matemáticas y la lógica, que es de
donde procede quizá la idea de la no-ciencia: una amalgama de pseudociencia e
investigaciones no científicas. Posteriormente, en sus Conjectures and
Refutations: The Growth of Scientific Knowledge (Nueva York, Harper
Torchbooks, 1965), Popper empieza a usar el término «pseudo-ciencia» más o
menos como equivalente a «metafísica» como único contraste con la ciencia,
con el vocablo «no-ciencia» todavía no mencionado. Por tanto, ¿por qué
debemos usarlo ahora? En primer lugar, se ha convertido en un término del
debate que ha sobrepasado a Popper; en segundo lugar, parece fiel al
significado original de Popper. Como veremos, sin embargo, que el debate en
torno a la demarcación sea entre lo que es ciencia y la no-ciencia supone una
gran diferencia con respecto a si es entre lo que es ciencia y la pseudociencia.
Prefiero el término «no-ciencia» incluso aunque no fuera usado por Popper.

24 El texto íntegro de la Ley 590 puede encontrarse en: But Is It Science? The
Philosophical Question in the Creation/Evolution Controversy, M. Ruse (ed.)
(Amherst, NY, Prometheus Books, 1996), 283-286.

25 Véase Lee McIntyre, Respecting Truth: Willful Ignorance in the Internet Age
(Nueva York, Routledge, 2015), 64.

26 Para obtener más información en torno a la evidencia positiva a favor de la


evolución por selección natural y la ausencia de evidencia a favor de la ciencia
de la creación y sus sucedáneos, véanse las págs. 70 y 261-269.

27 Sin embargo, no todos vieron esto como un beneficio absoluto. ¿No se abre
así la puerta a que la astrología pueda proponer una predicción falsable y a
que, como consecuencia de ello, reclame para sí legítimamente el estatuto de
ciencia? Peor aún, dado que la astrología ya está sobradamente acreditada
como falsa, ¿no muestra esto que, después de todo, era falsable y, por tanto,
científica?

28 Este ensayo aparece como prefacio al volumen dedicado a Popper de


Realism and the Aim of Science (Lanham, MD, Rowman and Littlefield, 1983).

29 Popper, «Science: Conjectures and Refutations», en Conjectures and


Refutations, 46.

30 El método científico es solo una manera de que haya una demarcación


metodológica entre la ciencia y la no-ciencia. Otra es la falsación. Quizás haya
más. Como hemos visto, también hay intentos de diferenciar la ciencia de la no-
ciencia sobre la base de criterios no metodológicos, como la idea característica
del positivismo lógico de trazar una distinción entre los enunciados
cognitivamente significativos y los cognitivamente sin sentido (aunque, dado
que aquí se usa el criterio de verificación, se podría argumentar que es también
un intento de demarcación metodológica).

31 Kuhn influyó en la argumentación en contra de la idea simple del «método


científico» por medio de su afirmación de que toda observación está cargada de
teoría. Véase su obra: The Structure of Scientific Revolutions (Chicago,
University of Chicago Press, 1962).

32 Lo más cerca que llega Kuhn de un criterio de demarcación fue en el


comentario que le dedicó a Popper titulado «Logic of Discovery or Psychology
of Research», en The Philosophy of Karl Popper, vol. 14, ed. Paul Schilpp (La
Salle, IL, Open Court, 1974), donde Kuhn escribe: «Es la ciencia normal, en la
cual el tipo de pruebas de Sir Karl no se da, en lugar de la ciencia
extraordinaria, la que más cerca está de distinguir la ciencia de otras
empresas. Si existe un criterio de demarcación (en mi opinión, no debemos
buscar uno nítido o decisivo), debe encontrarse en aquella parte de la ciencia
que Sir Karl no tiene en cuenta» (802). Pero cf. aquí Tom Nickles, «Problem of
Demarcation», 109, que llama «criterio de Kuhn» a la idea de este de la
resolución de puzles dentro de la ciencia normal. Véase también la entrada de
la Stanford Encyclopedia of Philosophy a cargo de Sven Ove Hansson titulada
«Science and Pseudo-Science», en la que explícitamente se refiere a la
concepción de Kuhn acerca de la resolución de puzles como «criterio de
demarcación»: <https://plato.stanford.edu/entries/pseudo-science/>.

33 Kuhn proporciona una explicación de la «ciencia normal» —que, según


sostiene, es lo que la mayoría de los científicos hacen habitualmente— en The
Structure of Scientific Revolutions.

34 En su obra Against Method (Londres, Verso, 1975), Feyerabend sostiene


que en ciencia «todo vale» y aboga por una suerte de «anarquismo
metodológico».

35 Para una amena crónica de estos esfuerzos, véase Peter Achinstein y


Stephen Barker (eds.), The Legacy of Logical Positivism: Studies in the
Philosophy of Science (Baltimore, MD, Johns Hopkins University Press, 1969).

36 Por ejemplo, es posible mantener una objetividad estricta y que hay una
distinción absoluta entre hechos y valores.

37 Laudan, «Demise of the Demarcation Problem», 216-217.

38 Todo esto, por supuesto, es un problema clásico en cualquier procedimiento


de decisión en el que queramos incluir todas y a la vez únicamente aquellas
cosas que nos gusten y excluir todas y solo aquellas que no nos gustan. Los
ejemplos incluyen decidir si derribar un avión (¿es enemigo o aliado?), permitir
que una inferencia sea aceptada (¿es válida o inválida?) o extirpar un tumor
(¿es maligno o benigno?). Un procedimiento de decisión perfecto no comete
errores (ya sean falsos positivos o falsos negativos), que es para lo que muchos
quieren un criterio de demarcación entre la ciencia y la no-ciencia.
Desafortunadamente, la tasa de falsos positivos es inversamente proporcional a
la tasa de falsos negativos, y al revés. Al reducir una, no hacemos sino
incrementar la probabilidad de la otra.

39 Nótese que Laudan está haciendo aquí una especie de «meta-argumento»


en el sentido de que no solo los filósofos que le precedieron han fracasado a la
hora de resolver el problema de la demarcación, sino de que hacer eso
requeriría proporcionar las condiciones necesarias y suficientes para la ciencia.
En otras palabras, está haciendo de la idea de proporcionar las condiciones
necesarias y suficientes para la ciencia su propia condición necesaria para
resolver el problema de la demarcación. Presumiblemente, también cree que si
uno pudiera proporcionar las condiciones necesarias y suficientes para la
ciencia, esto bastaría para resolver el problema de la demarcación. Por tanto, si
uno junta estas dos afirmaciones, obtiene el fascinante resultado de haber
resuelto el problema de la demarcación si y solo si ha proporcionado las
condiciones necesarias y suficientes de la ciencia. De una manera menos
astuta, esto supone que proporcionar las condiciones necesarias y suficientes
de la ciencia es a su vez una condición necesaria y suficiente para resolver el
problema de la demarcación. Para más información sobre el complicado
problema de las condiciones necesarias y suficientes en el debate en torno a la
demarcación, véase el capítulo 4.

40 Hansson, «Science and Pseudo-Science», Stanford Encyclopedia of


Philosophy.

41 Laudan, «Demise of the Demarcation Problem», 218-219.

42 Véase Robert Feleppa, «Kuhn, Popper, and the Normative Problem of


Demarcation», en Patrick Grim (ed.), Philosophy of Science and the Occult
(Albany, NY, SUNY Press, 1990), 142. Popper escribe: «Un sistema tiene que
ser considerado científico solo si hace aserciones que pueden entrar en
conflicto con las observaciones», Conjectures and Refutations, 256.

43 Recordemos aquí la afirmación de Popper de que la biología evolucionista


no es comprobable (véase la nota 8 de la Introducción).

44 Esta cita de Popper está tomada de «Falsifizierbarkeit, zwei Bedeutungen


von» ([1989] 1994), 82, que aparece en el artículo de Sven Hansson «Science
and PseudoScience», en The Stanford Encyclopedia of Philosophy,
<https://plato.stanford.edu/entries/pseudo-science/>.

45 Las citas son de Hannson, «Science and Pseudo Science». Véase también
Frank Cioffi, «Psychoanalysis, Pseudoscience and Testability», Gregory Currie y
Alan Musgrave (eds.), en Popper and the Human Sciences (Dordrecht, Martinus
Nijhoff, 1985), 13-44.

46 Larry Laudan, «Science at the Bar: Causes for Concern», en Beyond


Positivism and Relativism: Theory, Method, and Evidence (Boulder, Co.,
Westview Press, 1996), 223.

47 Tom Nickles, «Problem of Demarcation», 111.

48 McIntyre, Respecting Truth, 64-71.

49 McIntyre, Respecting Truth, 69. Para una discusión, véase el capítulo 8.

50 Massimo Pigliucci, «The Demarcation Problem: A (Belated) Response to


Laudan», en Philosophy of Pseudoscience, 17-19.

51 Pigliucci, «Demarcation Problem», 22.

52 Ibíd., 25.
53 Sven Hansson, «Defining Science and Pseudoscience», en Philosophy of
Pseudoscience, 61-77.

54 Maarten Boudry, «Loki’s Wager and Laudan’s Error», en Philosophy of


Pseudoscience, 79-98.

55 Recuérdese que, aunque Popper no usa la expresión «no-ciencia»


[nonscience], algo muy cercano a su significado original aparece en La lógica
de la investigación científica. Véase n. 11 de este capítulo.

56 Aunque Boudry no usa el término «acientífico» en su ensayo, en mi opinión


debería haberlo hecho, puesto que «no-ciencia» parece una denominación poco
apropiada para la disputa territorial que tiene en mente.

57 Para una cuidadosa exposición de esta distinción, véanse: Tom Nickles,


«Problem of Demarcation», 101-120, y James Ladyman, «Toward a
Demarcation of Science from Pseudoscience», 45-59, en Philosophy of
Pseudoscience.

58 Uno puede pensar que todas esas disciplinas tomadas en su conjunto


constituyen la no-ciencia. Véase la n. 11 de este capítulo.

59 Véase Laudan, «Demise of the Demarcation Problem».


CAPÍTULO 2

Concepciones erróneas acerca de cómo


funciona la ciencia

Es un mito muy extendido el que afirma que la ciencia


conduce a la verdad porque utiliza la evidencia empírica
para demostrar una teoría. Otro es que la ciencia no tiene
relevancia alguna con respecto a cuáles deben ser nuestras
creencias dado que todo lo que propone es «solo una
teoría». En realidad, estas dos concepciones erróneas van
de la mano en tanto que parecen reflejar la idea de que la
ciencia es un todo o nada, de que, o bien estamos seguros
al cien por cien de que nuestra teoría cuenta con el
respaldo de la evidencia, o bien estamos completamente
perdidos porque —mientras no se haya hecho un
experimento definitivo— cualquier teoría es tan buena
como las demás.
Esta idea falsa de que la ciencia tiene que descubrir la
verdad y de que una teoría no puede ser aceptada en el
panteón científico mientras los datos no le hayan
proporcionado una verificación plena, favorece un
sentimiento de justificación entre quienes no comprenden
la ciencia a la hora de rechazar cualquier conocimiento
científico que no se ajuste a esos estándares. Pero esto
obedece a una concepción radicalmente errónea de cómo
funciona la ciencia.

EL PROBLEMA DE LA VERDAD Y LA CERTEZA


Como ocurre con la mayoría de las concepciones
erróneas, hay una semilla de verdad en la postura de los
críticos que ha dado lugar a un árbol torcido. La ciencia
persigue [aims] la verdad. Y trata de alcanzar ese objetivo
confrontando rigurosamente sus teorías con los datos
empíricos. El escrutinio es intenso. Como hemos visto con
Karl Popper, si una teoría choca con datos incompatibles
con ella, hay un problema. Cabe la posibilidad de que al
principio no seamos capaces de determinar si la teoría
puede salvarse mediante las modificaciones oportunas,
pero en cualquier caso, bajo la amenaza de dejar de ser
científicos, es imprescindible hacer algo. Sin embargo,
incluso si una teoría supera todas las pruebas
holgadamente, todavía no podemos tener la certeza de que
sea verdadera. ¿Por qué no? Porque, como veremos en este
capítulo, así no es como en realidad funciona la ciencia. La
única cosa de la que podemos tener la certeza en lo que
concierne a la ciencia es que cuando una teoría deja de ser
consistente con la evidencia empírica, algo ha debido ir
mal, ya sea con la propia teoría, ya sea con alguno de los
supuestos auxiliares que le prestan apoyo. Pero también
cuando una teoría es consistente con la evidencia, nunca
podemos estar seguros de que sea debido a su verdad que
hasta el momento haya funcionado.
Como Popper, Kuhn y otros muchos filósofos de la ciencia
reconocieron hace tiempo, las teorías científicas son
siempre tentativas. Y este es el fundamento tanto de la
fuerza como de la flexibilidad del razonamiento científico.
En cualquier momento en el que estemos tratando con
datos empíricos, afrontamos el problema de que nuestro
conocimiento es de composición abierta porque siempre
está sujeto a revisión sobre la base de la experiencia
futura. El problema de la inducción (que anunciados
brevemente en el capítulo anterior) es el siguiente: si
estamos tratando de formular una hipótesis acerca de cómo
funciona el mundo y la basamos en los datos que hemos
examinado hasta el momento, estamos poniendo en juego
el supuesto, bastante pretencioso, de que los datos futuros
irán en concordancia con lo que hemos experimentado en
el pasado. Pero ¿cómo podemos tener esa seguridad? Que
todos los cisnes que hemos visto hasta ahora hayan sido
blancos no excluye la aparición de un cisne negro en el
futuro. Este problema no carece de enjundia, puesto que no
solo socava la idea de que podemos tener la certeza de que
cualquiera de nuestras propuestas acerca del mundo es
verdadera (no importa lo bien que puedan adecuarse a los
datos), sino también, técnicamente hablando, que ni
siquiera podemos estar seguros de que nuestras
propuestas son más probablemente verdaderas, dada la
relación indefiniblemente pequeña entre el tamaño de la
muestra del mundo que hemos examinado hasta ahora en
comparación con el conjunto de experiencias posibles que
podemos tener en el futuro. ¿Cómo podemos estar seguros
de que la muestra del mundo que hemos visto hasta ahora
es representativa de todo lo demás? Así como no podemos
estar seguros de que el futuro será como el pasado, no
podemos estar seguros de que con la porción del mundo
que hemos conocido en el curso de nuestra limitada
experiencia pueda decirnos nada en absoluto acerca de
cómo son las cosas más allá.
Naturalmente, sigue habiendo un debate aquí (cortesía
de Karl Popper) acerca de si la ciencia usa realmente la
inducción. Aunque la ciencia se proponga extraer
conclusiones generales acerca de cómo funciona el mundo
sobre la base de nuestro conocimiento de circunstancias
particulares, Popper elabora un procedimiento para ello
que soslaya las incertidumbres del problema de la
inducción. Como vimos en el capítulo 1, si usamos el modus
tollens, entonces podemos aprender de los datos de una
manera que es deductivamente válida. Si en vez de tratar
de verificar nuestra teoría nos dedicamos a falsarla,
contaremos con un punto de apoyo lógico más estable.
Pero ha llegado la hora de percatarse de que esta
manera de proceder ha de afrontar serias críticas. A pesar
de todas las virtudes lógicas de la teoría de Karl Popper, es
cuestionable (1) que su explicación haga justicia a cómo se
lleva a cabo realmente la ciencia y (2) que podamos evitar
quedarnos enmarañados en la necesidad de recurrir a
instancias positivas (de confirmación). La tesis de Duhem-
Quine sostiene que no hay «comprobaciones cruciales» en
ciencia, puesto que toda teoría existe dentro de una red de
supuestos que le prestan apoyo. Esto quiere decir que
incluso cuando haya casos capaces de falsar la teoría,
siempre podremos sacrificar alguno de sus supuestos
auxiliares para ponerla a salvo. De acuerdo con el
falsacionismo estricto, esto tiene que asemejarse a un
error. El propio Popper, sin embargo, asegura que ya había
anticipado esta objeción y que la había acomodado a su
teoría 60 . En la lógica de la falsación, cuando una teoría es
falsada, lo que procede es abandonarla. Pero en la práctica
real, reconoce Popper, los científicos son más bien reacios a
prescindir de una teoría con la que se sienten cómodos solo
porque se haya registrado un caso adverso. Quizá se haya
cometido un error; quizás algo fue mal con los aparatos de
medición. Así lo admite Popper cuando escribe: «Aquel que
abandona su teoría demasiado a la ligera a la vista de lo
que parecen refutaciones, nunca descubrirá las
posibilidades inherentes a la teoría» .61

Al exponer su propuesta falsacionista, Popper opta en


cualquier caso por ilustrar sus virtudes con historias
basadas en casos dramáticos y legendarios en los que el
teórico hace una predicción arriesgada que posteriormente
los datos confirman. Como hemos visto, sobre la base de la
teoría general de la relatividad general de Einstein se podía
hacer una audaz predicción acerca de la inclinación de la
luz en un campo gravitacional fuerte que se confirmó
durante un eclipse total de sol en 1919. Si la predicción
hubiera sido errónea, la teoría habría sido rechazada. Pero
dado que era correcta, la recompensa epistémica fue
tremenda 62 .
Pero la mayor parte de la ciencia no funciona así. En su
obra Philosophy of Science: A Very Short Introduction,
Samir Okasha relata el ejemplo de John Couch Adams y
Urbain Le Verrier, descubridores del planeta Neptuno en
1846, cuando estaban trabajando (independientemente)
dentro del paradigma newtoniano y percibieron una leve
perturbación en la órbita del planeta Urano. Sin Neptuno,
esto habría supuesto la falsación de la teoría de Newton,
que sostenía (siguiendo a Kepler) que todos los planetas
debían moverse en órbitas perfectamente elípticas, salvo
que hubiera otra fuerza que actuara sobre ellos. Pero en
lugar de abandonar a Newton, Adams y Le Verrier
buscaron y hallaron otra fuerza gravitacional 63 .
Algunos pueden objetar que esto ni siquiera se acerca a
ser un caso de falsación, dado que los teóricos estaban
trabajando correctamente dentro de las predicciones que
habían sido formuladas por la teoría de Newton. De hecho,
el propio Popper cita a veces este mismo ejemplo como un
caso en el que los científicos fueron lo bastante sabios
como para no descartar una teoría demasiado rápidamente.
Ahora bien, pongamos esto en contraste con un desafío
similar a la teoría de Newton que llevaba por ahí más de
ciento cincuenta años antes del descubrimiento de
Neptuno: el ligero avance del perihelio de la órbita de
Mercurio 64 . ¿Cómo podía explicarse esto? Los astrónomos
ensayaron diversas soluciones ad hoc (sacrificando
supuestos auxiliares), pero ninguna tuvo éxito. Finalmente,
no fue otro que el propio Le Verrier quien propuso que la
ligera perturbación en la órbita de Mercurio se podía
explicar por la existencia de un planeta desconocido —que
llamó «Vulcano»— entre Mercurio y el Sol. Aunque sus
intentos de encontrarlo fueron infructuosas, Le Verrier se
fue a la tumba en 1877 convencido de que Vulcano existía.
Prácticamente todos los astrónomos de la época estaban en
principio de acuerdo con él en que —existiera Vulcano o no
— tenía que haber alguna explicación newtoniana.
Cuarenta años más tarde, Einstein tensó el hilo un poco
más y todo el tejido newtoniano se desenhebró, puesto que
entonces la órbita anómala se explicó no apelando a la
fuerza gravitacional de otro planeta, sino de acuerdo con la
idea no newtoniana de que la fuerza gravitacional del Sol
podía deformar el espacio a su alrededor. Cuando la órbita
de Mercurio encajó en esos cálculos, terminó
convirtiéndose en un hito importante a favor de la teoría
general de la relatividad. Sin embargo, esto no era una
predicción, sino una «retrodicción», que es decir que la
teoría de Einstein se usó para explicar un caso pasado de
falsación con el que los teóricos newtonianos simplemente
habían estado conviviendo durante los últimos doscientos
años. ¿Cuánto tiempo tiene que pasar antes de que uno
«abandone demasiado rápidamente» una teoría falsada?
Popper no proporciona reglas para pronunciarse al
respecto. La falsación puede funcionar bien con la lógica de
la ciencia, pero da pocas orientaciones en torno a los
científicos cómo deben elegir realmente entre teorías.
Como Thomas Kuhn demostró, no hay respuestas fáciles
a la pregunta de cuándo un caso concreto de falsación
tiene que dar al traste con una teoría ampliamente
aceptada y cuándo debe llevarnos meramente a realizar
ulteriores indagaciones dentro del paradigma dominante.
En la obra de Kuhn, encontramos una rica descripción de
cómo los científicos tienen que lidiar con los rompecabezas
cotidianos que se les presentan en el curso de la «ciencia
normal», que es cuando trabajamos para acomodar las
predicciones, errores y lo que pueden parecer casos de
falsación dentro de las cuatro esquinas de cualquier teoría
ampliamente aceptada en la época 65 . Por supuesto, Kuhn
también reconoció que a veces la ciencia da un giro hacia
lo dramático. Cuando las anomalías se acumulan y a los
científicos empieza a costarles reconciliar su paradigma
con cosas que ese mismo paradigma no puede explicar,
comienzan a desarrollarse las condiciones para que una
revolución científica se produzca, y el área de estudio pasa
rápidamente de un paradigma a otro. Ahora bien, tal como
nos dice Kuhn, esto requiere frecuentemente algo más que
la mera falta de encaje con la evidencia; también puede
abarcar consideraciones de alcance, simplicidad,
productividad y otros factores «subjetivos» o «sociales»
que Popper se resistía a incluir en su planteamiento lógico
de la falsación.
Pero hay otros problemas para la concepción de Popper
también en el caso de que una hipótesis supere todas las
rigurosas pruebas a las que podemos someterla. Como
admite Popper, ni siquiera cuando una teoría tiene éxito,
puede ser aceptada como verdadera —o como
aproximadamente verdadera—, sino que ha de ubicarse
siempre en el purgatorio de haber sobrevivido «hasta
ahora» 66 . Por poderosas que sean las pruebas científicas, lo
único que nos queda al final es un número potencialmente
infinito de hipótesis que podrían encajar con los datos y un
acopio infinito de evidencia empírica posible que podría
derribar cualquier teoría. El razonamiento científico, por
tanto, se ve forzado a hacer las paces con el hecho de no
ser nunca concluyente, porque los datos tampoco serán
nunca concluyentes. Aunque no seamos «inductivistas» en
cuanto al método, debemos admitir que por muchas
comprobaciones que haya pasado una teoría, siempre
habrá otras por venir.
Popper trató de resolver este problema por medio de su
concepción de la corroboración, en la que afirma que
después de que una teoría haya sobrevivido a muchas
comprobaciones rigurosas, desarrolla un tipo de
credibilidad tal que sería absurdo abandonarla sin las
debidas cautelas; como Popper puntualiza, algunas teorías
«han probado su fortaleza» 67 . En algunos oídos, sin
embargo, empieza a resonar aquí el tipo de verificación y
confirmación que, según insistía Popper, había que
abandonar. Por supuesto, no podemos decir que una teoría
es verdadera solo porque haya superado muchas
comprobaciones. Así lo admite Popper. Pero el problema es
que tampoco podemos decir que la verdad de una teoría
sea más probable sobre la base de estas comprobaciones.
En algún momento, Popper parece entender este peligro
(como bien debe, puesto que se trata del problema de la
inducción una vez más), pero no está claro cómo propone
abordarlo 68 . Recordemos que la inducción socava no solo la
certeza, sino también la probabilidad. Si la muestra de
potenciales comprobaciones es infinita, entonces la
muestra que hemos elegido para poner a prueba nuestra
teoría es infinitesimalmente pequeña. Así pues, la buena
corroboración no contribuye a la verosimilitud de una
teoría. En diversos lugares, Popper dice que la falsación es
un «asunto puramente lógico» 69 . ¿Por qué, entonces,
introduce una noción como la de corroboración? ¿Será
quizás una peculiar concesión a los problemas prácticos
que afrontan los científicos? Sin embargo, ¿cómo hay que
entender entonces la afirmación de Popper de que la
falsación no tiene que ver con cuestiones prácticas? 70 .
Los filósofos de la ciencia continuarán disputándose el
alma de Karl Popper. Al mismo tiempo, muchos se ven
arrojados a la inevitable conclusión de que los problemas
de tipo inductivista no pueden hacer otra cosa que
incrementarse para las teorías supervivientes, incluso para
un falsacionista. La idea de que siempre habrá más datos
que puedan echar abajo una teoría —junto con la idea
relacionada de que hay infinitas teorías potenciales capaces
de explicar la evidencia de la que disponemos— es
frecuentemente desestimada como una preocupación
filosófica por muchos científicos que siguen manteniendo
que cuando una teoría sobrevive a comprobaciones
rigurosas, es verdadera o probablemente verdadera. Pero
cuando me pongo en su lugar, no estoy seguro de cómo son
capaces de pensar así, puesto que tanto los científicos
como los filósofos de la ciencia saben perfectamente que la
historia de la ciencia está llena de los escombros de esa
actitud arrogante 71 . Quizás algunos defensores de la
ciencia puedan tener la tentación de afirmar que la ciencia
puede probar una teoría, aunque sepan que no puede. A
veces, en el entusiasmo del descubrimiento o el calor de la
crítica, puede parecer oportuno sostener que una teoría es
verdadera —que la certeza es posible—. Pero sugiero que
quienes albergan el deseo de defender la ciencia tienen la
obligación especial de aceptar las peculiaridades de aquella
como lo que son, en vez de replegarse a la protección de
medias verdades e ilusiones cuando se les llama a formular
qué es lo que en mayor medida tiene de especial. Creamos
o no que la ciencia se basa en razonamientos inductivos —
tanto si creemos como si no en el falsacionismo—, debemos
aceptar que (no importa la calidad de la evidencia) la
ciencia no puede probar la verdad de ninguna teoría
empírica, ni podemos decir que sea, desde un punto de
vista técnico, más probablemente verdadera.
Sin embargo, como veremos, esto no significa que
carezcamos de base para creer en una teoría científica.

«SOLO UNA TEORÍA»

En este momento es importante ocuparse de una


segunda concepción errónea acerca de la ciencia, que es
que si una teoría científica no alcanza «prueba», «verdad»
o «verificación», entonces es «solo una teoría» y no debería
ser creída. A veces esto se lee en voz alta como la
afirmación de que otra teoría es «probablemente
verdadera» o de que «podría ser verdadera», mientras que
otras veces se dice que cualquier conocimiento teórico es
simplemente inferior.
La primera cosa que es preciso entender es que no es lo
mismo una teoría que una hipótesis. Una hipótesis es en
cierta manera una conjetura [guess]. Normalmente no es
una conjetura salvaje; lo habitual es que tome forma
merced a alguna experiencia previa en el área de estudio
de la que se trate. Una hipótesis suele plantearse después
de que alguien se haya percatado de la existencia de un
patrón en los datos y haya dicho: «Es curioso, me pregunto
si...». Entonces llegan la predicción y la comprobación. Una
hipótesis quizás haya sido «comprobada retroactivamente»
por nuestra razón a la luz de si se ajusta a los datos
recogidos hasta el momento, pero eso es muy diferente del
tipo de escrutinio que habrá de conocer una hipótesis una
vez que se haya convertido en teoría.
Una teoría científica no solo tiene que estar firmemente
enraizada en la evidencia empírica, sino que tiene que ser
asimismo capaz de dar lugar a predicciones extrapolables a
una escala mayor, de tal manera que podamos ver si
sobrevive a una comparación rigurosa con la nueva
evidencia. Los requisitos son elevados. Muchas teorías
conocen la muerte antes de ser propuestas por sus
defensores como resultado de un meticuloso autoexamen
previo a su escrutinio público. Según la costumbre, una
teoría tiene que incluir una explicación aclaratoria de por
qué se espera que funcionen las predicciones a las que dota
de fundamento, de tal manera que se pueda reconstruir
racionalmente el itinerario entre la falsación de una
predicción y lo que puede haber de erróneo en la teoría que
la ha causado. (Como vimos con el ejemplo del perihelio de
la órbita de Mercurio, es una ventaja que la teoría pueda
explicar o reducir cualquier anomalía con la que hayan
tenido que lidiar los científicos en su teoría anterior.)
Debemos volver aquí a Karl Popper por un momento y
concederle algo de crédito. Aunque puede no haber tenido
razón en los detalles de su explicación de la falsabilidad —o
en su idea más general de que es posible establecer una
demarcación entre la ciencia y la no-ciencia sobre una base
lógica—, fue capaz al menos de capturar un elemento
esencial que explica cómo funciona la ciencia: nuestro
conocimiento del mundo se incrementa si no nos alejamos
de la evidencia empírica. Podemos amar una teoría solo
provisionalmente y debemos desear abandonarla tanto
cuando es refutada como cuando los datos son más
favorables a otra. Es decir, una de las características más
especiales de la ciencia es que la evidencia cuenta.
El físico Richard Feynman, ganador del Premio Nobel, lo
ha expresado admirablemente:

En general, buscamos una nueva ley mediante el


siguiente proceso: en primer lugar, conjeturamos. [...]
Luego calculamos las consecuencias de la conjetura
para ver lo que [...] implicaría. Y luego comparamos
los resultados del cálculo con la naturaleza, o bien,
decimos, con experimentos o experiencias,
directamente con observaciones para ver si
funcionan. Si no se ajusta al experimento, está mal.
En esta afirmación tan sencilla radica la clave de la
ciencia. No importa la belleza de tu conjetura, no
importa cuán inteligente eres, quién formula la
conjetura o cómo se llama. Si no se ajusta al
experimento, está mal. Eso es todo 72 .

En este sentido, no es del todo erróneo decir que el


«método científico» captura algo importante acerca del
proceso del razonamiento científico. Aunque no sirva como
criterio de demarcación, basta para demostrar el estado
mental crítico que uno debe tener al poner a prueba una
teoría confrontándola con la evidencia sensible —que es el
sello distintivo del conocimiento empírico—. Vemos algo
extraño, formulamos una hipótesis al respecto, hacemos
una predicción, la comprobamos, y, si todo va bien,
podemos tener una teoría entre manos 73 . Este tipo de
razonamiento puede no ser exclusivo de la ciencia, pero sin
él es difícil adivinar cómo puede avanzar la ciencia.
Una teoría surge cuando estamos en condiciones de
extrapolar una hipótesis a una escala mayor en el mundo.
Una teoría es más grande que una hipótesis porque es el
resultado de moldear una hipótesis enfrentándola con los
datos, y porque ha sobrevivido a rigurosas comprobaciones
antes de que alguien la haya propuesto. En algún sentido,
una teoría no es más que una ley de la naturaleza. Y no
podemos obtener nada más sólido que una ley de la
naturaleza. De hecho, algunos han sostenido que esto es lo
que los científicos han pretendido alcanzar desde siempre
mientras se atribuían la búsqueda de la «verdad» acerca
del mundo empírico. Quieren descubrir una ley científica
que unifique, prediga y explique el mundo que somos
capaces de observar. Pero las leyes tienen que insertarse
en una teoría. Y una teoría tiene que ser algo más que una
conjetura. Una teoría es el resultado de una enorme
«prueba beta» de una hipótesis frente a los datos, así como
la proyección de una razón por la cual el patrón tiene que
mantenerse a lo largo de la experiencia futura. La manzana
cae porque la gravedad la atrae. La temperatura global
está incrementándose debido a la emisión de gases de
efecto invernadero. Una teoría científica busca explicar
cómo y por qué vemos lo que vemos, y por qué veremos
esas cosas en el futuro. Una teoría ofrece no solo una
predicción, sino una explicación que se inserta en el
entramado de nuestra experiencia.
Idealmente, una teoría científica debería (1) identificar
un patrón en nuestra experiencia, (2) dar apoyo a las
predicciones de ese patrón en el futuro, y (3) explicar por
qué ese patrón existe. De esta manera, una teoría es la
columna vertebral de todo el edificio de la explicación
científica. Por ejemplo, cuando uno mira la teoría de la
gravitación de Newton, hay que destacar que unifica tanto
la teoría del movimiento terrestre de Galileo como la teoría
de Kepler acerca del movimiento celeste. Ya no tenemos
que preguntarnos por qué los objetos caen al suelo y por
qué los planetas orbitan en torno al Sol; ambos fenómenos
se explican por la ley de la gravedad. Esto encaja con
nuestra experiencia y explica por qué si lanzamos una
pelota cerca de la superficie de la Tierra, trazará —como
los planetas— una trayectoria elíptica (y que si la lanzamos
con la fuerza suficiente, se pondrá en órbita), además de
fundamentar predicciones (por ejemplo, la aparición y
regreso de los cometas). ¿Nos dio esto una explicación de
cómo actúa la gravedad? Aún no del todo. Newton hizo la
célebre afirmación de que «no hacía hipótesis» en torno a
la cuestión de qué era la gravedad, dejando que otros más
tarde se ocuparan de las anomalías de la acción a distancia
y de cómo la atracción y la repulsión podían producirse a
través del espacio vacío. Tenía una teoría, pero todavía no
un mecanismo.
¿No socava esto la idea de que una teoría sirve para
explicar algo puesto que nos dice por qué suceden las
cosas? Este punto es controvertido. Algunas de las
explicaciones científicas más famosas no decían nada en el
momento en el que fueron propuestas en torno a los
poderes causales responsables de los patrones que
explicaban. (Otro ejemplo destacado aquí es la teoría de la
evolución por selección natural de Darwin, que tuvo que
esperar a la genética de Mendel antes de poder
pronunciarse acerca de por qué se producía la
evolución) 74 .
Esto suscita el problema de si las teorías científicas son
algo más que instrumentos de predicción, de si son un
mero relato taquigráfico de los patrones de nuestra
experiencia que —dados los límites del teorizar científico—
nunca puede ofrecer una explicación definitiva de los
mecanismos que subyacen a ellos. Se piensa generalmente
que no basta con eso para una explicación científica —que
las teorías científicas deben tratar de decir no solo que algo
ha ocurrido, sino también por qué—. Las respuestas no
tienen por qué ser inmediatas, pero una buena teoría
debería proporcionar al menos la promesa de que las
respuestas estarán algún día disponibles gracias a la
investigación empírica. Que esto es importante lo ilustra lo
que ocurre cuando en realidad no tenemos una teoría en
juego: cuando todo lo que tenemos son bonitas
predicciones, pero no explicaciones de por qué las
predicciones se han cumplido.
La ley de Bode es uno de los ejemplos más elocuentes de
la historia de la ciencia en lo concerniente a cuán lejos
podemos llevar las cosas (y a cuán rápido pueden venirse
abajo) si tenemos un buen anclaje en la evidencia —e
incluso un puñado de buenas predicciones—, pero
carecemos de apoyo teórico. En 1772, tras estudiar la
distancia entre los planetas durante lo que debió de ser un
tiempo muy largo, Johann Bode descubrió una
sorprendente correlación. Si uno toma una serie común de
duplicación {0, 3, 6, 12, 24, 48, 96, 192, 384, 768}, le
añade 4 a cada número y luego divide por 10, obtiene {0,4,
0,7, 1,0, 1,6, 2,8, 5,2, 10,0, 19,6, 38,8, 77,2}, que es casi
idéntica a la distancia de los planetas con respecto al Sol
medida en unidades astronómicas (una unidad astronómica
se define como la distancia entre la Tierra y el Sol). En
1772, solo había seis planetas conocidos, que estaban a una
distancia con respecto al Sol de 0,387 (Mercurio), 0,723
(Venus), 1 (Tierra), 1,524 (Marte), 5,203 (Júpiter) y 9,539
(Saturno). En un primer momento, a nadie pareció
importarle la ausencia de un mecanismo explicativo; ¿no
dijo Newton después de todo que «no hacía hipótesis»
acerca de la gravedad? Todavía hay cuestiones abiertas.
¿Qué pasaba con el «salto» de 2,8? ¿Y qué pasaba con el
resto de la serie? Se supuso que se trataba de
«predicciones» que indicaban dónde podrían situarse otros
planetas. Cuando el planeta Urano fue descubierto nueve
años después a 19,18 unidades astronómicas, la gente se
impacientó. Veinte años después, cuando los científicos
empezaron a creer que una vez había habido un planeta
(póstumamente llamado «Ceres») entre Marte y Júpiter que
se había dividido en pedazos y formado un cinturón de
asteroides a 2,77 unidades astronómicas, la ley de Bode fue
saludada como una gran hazaña científica. Aunque no
explicaba nada (porque no venía asociada con ninguna
teoría científica cuyas predicciones pudieran confirmarse),
se la tomó en serio porque había adelantado acertadamente
la existencia de dos nuevos planetas. Cuando Neptuno fue
descubierto a 30,6 unidades astronómicas en 1846, seguido
en 1930 de Plutón a 39,4 unidades astronómicas, las cosas
empezaron a resquebrajarse. La ley de Bode fue finalmente
aceptada como nada más que un curioso artefacto de
correlación ingenua 75 .
Comparemos esto con algo como la teoría de cuerdas,
que en su versión más modesta es una teoría de la
gravedad a escala microscópica y en la más ambiciosa una
teoría completa de todo el universo 76 . Libros enteros se
han dedicado a este tema endiabladamente difícil, pero en
resumidas cuentas la historia es esta. La teoría general de
la relatividad de Einstein se propone explicar las cosas de
mayor tamaño del universo (estrellas y galaxias), mientras
que la mecánica cuántica pretende explicar las más
pequeñas (moléculas y átomos) 77 . Ambas teorías están
increíblemente bien enraizadas en la evidencia empírica,
pero hay un problema: son incompatibles la una con la otra
en aspectos fundamentales. Dicho sin rodeos: ambas no
pueden ser simultáneamente correctas. Sin embargo,
puede ocurrir que, aunque ninguna de ellas sea
completamente correcta, ambas sean casos especiales de
una teoría mayor que subsuma y explique los fenómenos de
los que cada una de ellas pretende dar cuenta. Un
candidato a ser esa teoría —conocido como «modelo
estándar» en física— ha hecho un buen trabajo de
explicación de todas las fuerzas fundamentales del universo
salvo una: la gravedad. Esto ha llevado a los físicos a la
ambiciosa búsqueda de una teoría cuántica de la gravedad,
de la cual la teoría de cuerdas se ha postulado como la
candidata más prometedora (si bien no la única). Pero hay
otro problema: la teoría de cuerdas no tiene absolutamente
ningún apoyo empírico que sugiera que es correcta.
En este momento, la teoría de cuerdas es un modelo
matemático del que muchos físicos albergan la esperanza
de que sea correcto, por la simple razón de que, en caso
contrario, quedarían pocas alternativas. Pero esto plantea
una importante cuestión: sin apoyo empírico, ¿es la teoría
de cuerdas siquiera ciencia? ¿No es «solo una teoría»? 78 .
Aquí afrontamos una situación que es la diametralmente
opuesta de la recientemente expuesta a propósito de la ley
de Bode: en lugar de una explicación que pone de
manifiesto una asombrosa adecuación a los datos, pero que
carece de una teoría detrás, disponemos de una teoría
increíblemente compleja y productiva sin absolutamente
ningún apoyo empírico. Pero ¿no viola esto nuestro criterio
previo de que una teoría científica tiene que ponerse a
prueba con relación a algún tipo de evidencia?
Precisamente esta cuestión fue tomada en consideración
en una conferencia académica que, bajo el título ¿Por qué
creer en una teoría? Una reconsideración de la metodología
científica a la luz de la física moderna, fue pronunciada en
la Universidad Ludwig Maximilian de Múnich, en diciembre
de 2015. Esta inusual conferencia juntó tanto a físicos
como a filósofos para examinar si es posible hallar una
nueva manera de hacer ciencia. Una propuesta al respecto
fue formulada por el físico convertido en filósofo Richard
Dawid, cuya obra String Theory and Scientific Method
adopta una perspectiva entusiasta en torno a la idea de
que, dada la dificultad de reunir apoyo empírico a favor de
la teoría de cuerdas, necesitamos dotarnos de nuevas
formas de «evaluación de teorías no empíricas» como la
coherencia explicativa, la unificación, la productividad e
incluso el criterio estético de la «elegancia o la belleza» 79 .
Esto recibió la reprobación de muchos científicos
asistentes, que sostuvieron que, aunque la teoría de
cuerdas no sea hoy en día comprobable desde el punto de
vista de sus consecuencias empíricas (dadas las enormes
limitaciones prácticas que conllevaría la construcción de un
aparato capaz de ello), hace predicciones que son en
principio comprobables 80 .
No todos los físicos estarían de acuerdo con esto.
Algunos han sostenido incluso que hay factores
sociológicos en funcionamiento, tales como el
«pensamiento grupal», las presiones derivadas de la
permanencia en el cargo, las perspectivas de una carrera
profesional exitosa y la aspiración a recibir subvenciones,
que —incluso en ausencia de apoyo empírico— han hecho
de la teoría de cuerdas «el único juego en la ciudad» 81 .
Decir estas cosas, sin embargo, no parece lo mismo que
decir que la teoría de cuerdas no es comprobable. Si uno
lee con atención este tipo de crítica, se encuentra con la
expresión cuidadosamente redactada de que la teoría de
cuerdas «no hace predicciones acerca de fenómenos físicos
en energías experimentalmente accesibles» y que «en este
momento, la teoría de cuerdas no puede ser falsada por
ningún resultado experimental concebible» 82 . Pero estas
son palabras de comadreja, nacidas de científicos que no
solían tomarse en serio la distinción entre decir que una
teoría es «actualmente» comprobable y decir que lo es «en
principio». Las limitaciones prácticas pueden ser cualquier
cosa menos insuperables, pero las distinciones filosóficas,
como la demarcación, viven en esa diferencia.
Quizá los críticos estén en lo correcto y la teoría de
cuerdas reciba demasiada atención dada su carencia real
de apoyo empírico. Casi con toda certeza están en lo cierto
en que sería absurdo «redefinir la ciencia» para dar cabida
a esta teoría. El tiempo dirá si el paradigma de la teoría de
cuerdas tiene lo suficiente a su favor para sobrevivir —
como cuestión práctica— sin los contrafuertes del apoyo
empírico. Pero en cuanto al problema de si es ciencia, me
pongo del lado de quienes trazan una distinción entre decir
que algo no es comprobable «ahora» y decir que no lo es
«en principio» (por ejemplo, si no hace predicciones
empíricas). Esto significa que —como otras muchas teorías
antes— la teoría de cuerdas puede ser científica, incluso
aunque más tarde resulte estar equivocada.
¿Qué implica todo esto para la cuestión más general de
la importancia de las teorías para la ciencia? Tener una
teoría puede ser esencial para la ciencia, pero ¿es
suficiente? ¿No tiene que haber alguna evidencia a favor de
la teoría —o al menos cierta evidencia posible que, llegado
el caso, pudiera darle apoyo— antes de que podamos
afirmar que es científica? De lo contrario, ¿cómo seremos
capaces alguna vez de decir por qué la naturaleza funciona
así, cosa que parece necesaria para una explicación
científica? Como vimos con Ptolomeo y Newton, una teoría
puede ser científica y falsa, pero debe buscar ajustarse a la
evidencia y hacer algún intento de explicarla. No
necesitamos dar el drástico paso de rechazar toda teoría
falsa como acientífica. Lo que convierte a una teoría en
científica no es que sea verdadera, sino que diga algo —
aunque sea un pagaré que pueda ser canjeado en el futuro
— acerca de un mecanismo subyacente que apoye sus
predicciones y esté en consonancia con la evidencia
empírica. ¿Hemos llegado a este punto con la teoría de
cuerdas? ¿Llegaremos? Los académicos no se ponen de
acuerdo, pero en cualquier caso podemos apreciar que sin
una teoría, ni siquiera estaríamos teniendo esta
conversación. Esta es la razón por la que la ley de Bode
fracasó y la teoría de cuerdas todavía puede tener éxito.
¿Por qué se quejan entonces algunos críticos de que todo
en la ciencia sea «solo una teoría»? ¿Es porque creen que
toda teoría científica es tan controvertida como la teoría de
cuerdas? ¿O es porque simplemente no entienden (o no
quieren entender) la fuerza que se despliega cuando
decimos que tenemos una buena teoría científica?
La teoría de la evolución por selección natural es «solo
una teoría», pero se aplica a prácticamente todas nuestras
creencias en los campos de la microbiología y la biología
molecular, de las células a las especies. Ha sido
rigurosamente sometida a comprobaciones durante ciento
cincuenta años. Explica los datos, hace predicciones y está
completamente unificada con la genética de Mendel, que es
el mecanismo que subyace a ella. La teoría de la evolución
es el fundamento absoluto de las explicaciones científicas
en el campo de la biología. De hecho, muchos tomaron al
famoso biólogo evolucionista Theodosius Dobzhansky como
portavoz de su profesión cuando pronunció las siguientes
palabras: «Nada en biología tiene sentido salvo a la luz de
la evolución» 83 . Los supuestos agujeros en la teoría de la
evolución por selección natural de Darwin no son en
algunos casos sino interpretaciones erróneas de legos en
aquello de lo que trata la biología. Y los agujeros reales que
pueda haber no pasan de ser el tipo de problemas que
tienen que afrontar los científicos en cualquier
investigación dentro de una ciencia desarrollada. Como nos
enseñó Kuhn, en una empresa abierta nunca se llega a
explicarlo todo. Uno tiene que seguir empujando hacia
adelante 84 . Pero no debe cometer errores. Los científicos
han explicado la complejidad del ojo. Han encontrado un
candidato a «eslabón perdido» 85 . El tipo de sinsentido que
uno percibe defendido por los creacionistas en un intento
de desacreditar la evolución no iguala las críticas que los
científicos se hacen entre ellos: es un batiburrillo de
ideologías y teorías de la conspiración 86 .
La gravedad es «solo una teoría». También lo es la teoría
germinal de la enfermedad. Y la teoría heliocéntrica del
sistema solar. Como hemos visto, todo en la ciencia es «solo
una teoría». Pero esto no quiere decir que no tengamos
razón para la creencia. Tener una buena teoría es el
fundamento de la ciencia. No necesitamos certeza
deductiva para que una teoría sea científica o verosímil. La
noción aquí es sutil pero en cualquier caso importante:
estamos autorizados a creer una teoría sobre la base de la
evidencia con la que cuente a su favor mientras seamos
muy conscientes de que cualquier evidencia futura puede
obligarnos a abandonar nuestra creencia y adherirnos a
otra teoría. En ciencia, simplemente debemos esforzarnos
por hacerlo lo mejor que podamos con un análisis riguroso
de los datos que tengamos a nuestra disposición. Nuestras
creencias pueden estar justificadas incluso aunque no
podamos (ni debamos) mantener que son verdaderas.
Así pues, en algún sentido los críticos tienen razón: la
ciencia no puede probar nada. Y todo lo que la ciencia
propone es sOlo una teoría. Cuando estamos a merced de
los datos futuros, esta es la situación con la que todo
razonamiento empírico debe contar. Y,
desafortunadamente, es la base sobre la cual algunos
miembros del público —muy particularmente los críticos
ideológicos de la ciencia— han entendido mal cómo
funciona la ciencia. Es cierto que la ciencia tiene que lidiar
con la naturaleza abierta del razonamiento empírico; sin
embargo, también es rigurosa, meticulosa y nuestra
principal esperanza para obtener conocimiento acerca del
mundo empírico. ¿Cómo puede ser esto?

EL PAPEL DE LA GARANTÍA

Es el momento de introducir el concepto de


fundamentación [warrant] en el debate acerca de si
tenemos justificación a la hora de creer teorías empíricas.
Aunque no sean probablemente verdaderas, ciertas o
(incluso en principio) más probablemente verdaderas, en
cierto sentido sería absurdo que no tuviéramos en cuenta
que las teorías científicas son creíbles justamente porque
tienen un apoyo empírico positivo.
Hay aquí una distinción crucial que debe ser establecida
entre verdad y fundamentación. Incluso si una teoría
científica no es en un sentido técnico, lógico, más
probablemente verdadera una vez que ha sobrevivido a una
sucesión de comprobaciones rigurosas, la pregunta que se
plantea es: «¿No tenemos en cualquier caso justificación
para creerla?» .Y aquí, pienso yo, uno tiene que considerar,
plausiblemente, que la respuesta es afirmativa. A pesar de
los problemas lógicos que se presentan a propósito de la
inducción, la verificación y la confirmación (y viendo lo
fácilmente que las concesiones prácticas de Popper se
pueden deslizar hacia la confianza en casos positivos), hay
algo crucial en torno al éxito de las comprobaciones
empíricas que los científicos no quieren justificadamente
dejar escapar. Una teoría científica parece más creíble
cuando ha sobrevivido a una sucesión de comprobaciones
rigurosas. La mayoría de los filósofos de la ciencia —que
están muy familiarizados con los problemas de la lógica
inductiva— entienden que sería imprudente afirmar que el
hecho de que la evidencia positiva no pueda usarse para
probar que una teoría es verdadera no impide que la teoría
sea creíble 87 .
Hay una sutil distinción entre decir que una teoría es
verdadera y decir que creerla está justificado. La idea se
remonta a Sócrates. Quizá nunca alcancemos la verdad a lo
largo de nuestra vida, pero ¿podemos acercarnos a ella?
¿Podemos al menos eliminar las falsas pretensiones de
conocimiento? Decir que una teoría está fundamentada es
tanto como decir que tiene una pretensión lícita de
verosimilitud, que está justificada dada la evidencia. Es
decir, incluso si una teoría termina revelándose errónea —
como la teoría de la gravitación de Newton— todavía se
puede sostener que, teniendo en cuenta la evidencia
disponible en la época, los científicos se comportaron
racionalmente al creerla. ¿Por qué esto es importante? Es
importante precisamente porque —dada la manera en la
que funciona la ciencia— uno espera que a largo plazo
prácticamente todas nuestras teorías empíricas terminen
revelándose como falsas 88 . Pero esto no quiere decir que
nuestro comportamiento al creerlas no sea científico ni que
sea mejor abstenerse de adoptar cualquier creencia
mientras no contemos con «el resto de la evidencia».
Teniendo en cuenta cómo opera la ciencia, nunca
contaremos con el resto de la evidencia.
La doctrina del falibilismo acepta que nunca podemos
tener certeza de ninguna creencia empírica, pero mantiene
que no deja de ser razonable pensar que todo conocimiento
requiere certeza 89 . Sí, el problema de la inducción socava
tanto la certeza como la probabilidad, pero ¿qué tipo de
enfoque epistemológico es el apropiado a la luz de esto?
¿Deberíamos prescindir de toda creencia no deductiva?
¿Deberíamos evitar decir, incluso cuando la evidencia
empírica es fuerte, que sabemos algo? Esto parece
absurdo. El falibilista acepta que —fuera de la lógica
deductiva y las matemáticas— nunca podemos alcanzar la
certeza. Pero esto no quiere decir que debamos renegar de
todas las afirmaciones de conocimiento. No todo lo que es
verdadero es necesariamente verdadero 90 . Y seguramente
valga la pena consagrarse a la búsqueda de al menos
algunas de esas verdades no necesarias. En vez de
renunciar a grandes extensiones de conocimiento posible,
quizá sea preferible ampliar la noción de conocimiento, de
tal manera que incluya la idea de que podemos tener
creencias empíricas justificadas, incluso si además
entendemos que algunas de esas creencias pueden
revelarse como falsas más adelante. La doctrina del
falibilismo, por tanto, es tanto una actitud como un
conjunto de principios: nos dice que está bien sentirse
cómodo con la idea de que algunas de nuestras creencias
se justifican sobre la base de su adecuación a la evidencia
incluso si a largo plazo pueden terminar revelándose
erróneas.
Por supuesto, es importante no pecar de crédulo ni de
demasiado ambicioso. No debemos pensar que solo porque
en el momento presente tengamos buena evidencia a su
favor, una creencia empírica es probablemente verdadera;
que aunque podamos no saber que sabemos algo, la fuerza
de la evidencia sugiere que la teoría subyacente ha de estar
muy cerca de la realidad 91 . Sin embargo, en compensación
de esta ecuanimidad epistemológica, nos salvamos de tener
que replegarnos a un estéril escepticismo en el que nos
tomamos el problema de la inducción tan en serio que no
podemos tener ninguna creencia, dado que siempre habrá
la posibilidad de que algún día sea derrocada por una
evidencia mejor. La idea de la fundamentación puede
cuadrar con la confianza en la evidencia empírica, también
si el falibilismo precisa que ninguna acumulación de
evidencia llegue nunca a convertirse en certeza.
No podemos mantener la creencia razonada como rehén
de la certeza. A pesar de los mejores esfuerzos de Popper y
otros, el proceso de razonamiento científico nunca va a ser
deductivamente válido. El deseo de los científicos de
confiar en los estímulos que obtienen de instancias
positivas es legítimo mientras no se les vaya la mano y
afirmen que su teoría es verdadera o caigan en la tentación
de pasar por alto la evidencia adversa. Pero ¿qué pasa con
el problema de la inducción? Puede que no sea el primer
filósofo que piensa esto, pero asumiré el riesgo de decir
aquí lo que les he escuchado a muchos filósofos en privado:
al carajo el problema de la inducción. El problema de la
inducción nunca pretendió sustituir la creencia justificada
por una parálisis mental. El propio David Hume parece
reconocer que en cierto sentido la inducción está
conectada con el razonamiento humano:

Más afortunadamente ocurre que, dado que la


razón es incapaz de disipar estas nubes, la propia
naturaleza se basta para ese propósito, y me cura de
esta filosofía melancólica y de este delirio, ya sea
relajando esta inclinación de la mente, algún
pasatiempo o la viva impresión de los sentidos, que
anulan estas quimeras. Ceno, juego una partida de
backgammon, mantengo conversaciones y disfruto de
la compañía de mis amigos; y cuando después de tres
o cuatro horas de esparcimiento, retomo estas
especulaciones, parecen tan frías, forzadas y ridículas
que mi corazón no puede adentrarse más lejos en
ellas 92 .

Tanto nuestro cerebro como nuestro instinto nos dicen


que los casos positivos cuentan. Como seres humanos, no
nos bastamos a nosotros mismos para confiar en la
inducción y aprender sobre el mundo empírico.
¿Es esto adecuado después de todo? Una de las
respuestas más fascinantes al problema de la inducción fue
aportada por Hans Reichenbach, quien sostuvo que aunque
la inducción no pueda ser lógicamente verificada, sí puede
ser al menos vindicada 93 . Su argumentación es interesante.
Supongamos que el mundo está en desorden, que no hay
correlaciones empíricas entre ninguna cosa. En esta
situación, ningún método sería capaz de describir las
correlaciones que encontramos en nuestra experiencia,
puesto que no habría ninguna. Imaginemos, por otro lado,
un mundo más parecido al nuestro, en el cual nuestra
experiencia encontrara correlaciones y deseáramos
disponer de un método que nos permitiera darnos cuenta
de ellas. ¿Cuál debería ser nuestro método? Cabe decir que
la mejor elección sería la inducción. Aunque otros métodos
también puedan funcionar, ninguno lo haría tan bien como
la inducción. Como la propia ciencia, la inducción responde
a patrones de nuestra experiencia, es lo suficientemente
flexible como para modificar sus conclusiones sobre la base
de nuevas evidencias, y capaz de abandonar cualquier
hipótesis individual y comenzar de nuevo si los datos así lo
permiten. Aunque a veces la inducción pueda hacernos
caer en errores, lo mismo ocurriría con cualquier otro
método de razonamiento. Y, aunque algunos otros métodos
puedan funcionar, nunca superarán a la inducción.
Reichenbach concluye entonces que la inducción sería tan
eficaz como cualquier otro método para descubrir las
regularidades del mundo empírico. Así pues, el
razonamiento inductivo queda «pragmáticamente
vindicado» 94 .
¿Cabe efectuar un movimiento similar esta vez en
defensa de la noción de fundamentación? Como hemos
visto, lo que le proporciona fundamentación a una teoría
científica no es la certeza de que sea verdadera, sino el
hecho de contar con evidencia empírica a su favor, lo que la
convierte en una elección muy bien justificada. Llamemos a
esto vindicación pragmática de la creencia fundamentada:
una teoría científica está fundamentada si y solo si cuenta
al menos con una evidencia que la avala igual a la de sus
alternativas empíricamente equivalentes. Si otra teoría es
mejor, entonces la creemos. Pero si no, entonces es
razonable seguir creyendo la misma teoría 95 . La
fundamentación procede de manera gradual; no es un todo
o nada. Es racional creer en una teoría que no llega a la
certeza mientras sea al menos tan buena o mejor que sus
rivales. De acuerdo con la lógica de Reichenbach, una
teoría puede no ser validada pero sí al menos vindicada.
Incluso si no es probablemente verdadera (o incluso más
probablemente verdadera), todavía está fundamentado
creer en ella a la luz de la evidencia 96 .
En este punto, las cuestiones filosóficas se plantearán
inevitablemente acerca de lo que significa decir que una
creencia potencialmente falsa pueda todavía estar
fundamentada, y acerca de si es permisible confiar en las
inferencias inductivas establecidas a partir de
observaciones empíricas cuando ni siquiera podemos estar
seguros de que nuestros sentidos no nos engañan ni de que
los patrones que hemos descubierto sean los adecuados
para proyectar en el futuro. Hay un conjunto de
preocupaciones escépticas en torno a los fundamentos del
conocimiento empírico que han atormentado a los filósofos
desde Descartes a Nelson Goodman 97 . Sin embargo, en lo
que concierne al trabajo de la mayoría de los científicos,
ninguna de esas preocupaciones tiene demasiado sentido.
Sí, un genio maligno podría estar engañándome, y mi
sistema no me está mostrando lo que los datos sugieren,
pero sin razón alguna para creer que eso sea verdad, ¿por
qué debería tomármelo en serio? Sí, es posible que la
evidencia empírica que estoy reuniendo sugiera un número
infinito de predicados alternativos (y teorías), pero ¿por
qué debería preocuparme de eso si no tengo razón alguna
para pensar que me proporcionarían una explicación
superior de los fenómenos que estoy estudiando? Las
cuestiones filosóficas hasta el momento están lejos de
quedar resueltas, pero es útil recordar que la filosofía parte
de un lugar diferente al de la ciencia. No es necesario tener
resueltos todos los problemas epistemológicos pendientes
para que la ciencia prosiga con su avance. De hecho, es
importante darse cuenta de que la ciencia empieza una vez
que uno ha pasado de largo de las preocupaciones
cartesianas acerca de la fiabilidad de los datos sensoriales
y acepta la premisa de que podemos aprender cómo es el
mundo gracias a la experiencia sensorial. A pesar de que
en ciertas situaciones nuestras capacidades sensoriales
pueden quedar comprometidas, no es realista pretender
que la ciencia no pueda avanzar porque —en algún caso
concreto— podríamos ser engañados o estar locos. ¿No es
esta la razón por la que la ciencia confía en el escrutinio
crítico de otros que avalen nuestros propios juicios? O
quizá todos nosotros estemos en riesgo. Sin embargo, salvo
que haya alguna razón para creer que todos nosotros
estamos realmente dormidos o que los términos teóricos
que estamos usando sean arbitrarios, ¿no pueden los
científicos limitarse simplemente a seguir avanzando con la
convicción de que la carga de la prueba le corresponde
aquí al escéptico? 98 .
Si los científicos pudieran aprender a vivir con este tipo
de defensa filosófica pragmática, creo que sería mejor para
ellos. Ya no tendrían que sentirse avergonzados por la
naturaleza abierta de la ciencia. Ya no tendrían que simular
la certeza de que sus teorías son verdaderas cuando saben
perfectamente que son —como deben ser— anulables. Esto
requiere un delicado cambio no tanto en cómo trabajan los
científicos, sino en cómo defienden su trabajo. Los casos
positivos todavía pueden contar, pero no hacia la verdad,
sino hacia la fundamentación. Los científicos todavía
tendrían apoyo para sus teorías, aunque fuera admitiendo
que pueden quedar desfasadas a la luz de la evidencia
futura. Considero que esta es una manera de proceder
totalmente honesta, puesto que la mayor parte de los
científicos ya abraza exactamente esos valores de
comodidad sin certeza, escepticismo y provisionalidad,
junto con el deseo de no exagerar sus conclusiones 99 . Los
científicos se extravían cuando se les reta a defenderse
contra ignorantes partidistas y se les incita a decir alguna
cosa precipitadamente que alimenta concepciones erróneas
acerca de la ciencia. Pero si los científicos estuvieran
preparados para dejar de lado la inclinación hacia el mito
de la prueba y la certeza —y poner en su lugar la idea de
fundamentación—, ¿no serían sus vidas más fáciles?
Tengo la convicción de que los filósofos de la ciencia
pueden desempeñar aquí una función valiosa si articulan
una concepción de la ciencia que celebre su incertidumbre
en lugar de avergonzarse de ella, mientras subrayan la
importancia de la evidencia empírica para la creencia
fundamentada. Si pudiéramos hacer esto, daríamos un gran
paso hacia la derrota de los negacionistas, los ideólogos,
los teóricos de la conspiración y otros críticos de la ciencia.
¡Qué justicia poética la de que sean ellos quienes de
repente se vean obligados a defender la fundamentación de
sus creencias en vez de limitarse a explotar las
incertidumbres de la ciencia! El hecho de que las teorías
científicas sean inherentemente de tal manera que no estén
aseguradas, no implica que las teorías no científicas estén
más cerca de ser verdaderas; de hecho, solo pone de
manifiesto el salto epistémico entre ellas. Sin evidencia, se
diría que las creencias no científicas carecen por completo
de fundamentación.
Así pues, ¿qué tiene de especial la ciencia? Más que
apelar a un principio lógico, soy de la opinión (opinión que
defenderé en el siguiente capítulo) de que la cosa más
importante que un científico debe poseer para navegar a
través de estas aguas traicioneras es una actitud adecuada
con respecto a la evidencia empírica. ¿Recordamos la frase
de Feynman anteriormente reproducida? «Si [nuestra
teoría] no se ajusta al experimento, está mal». Afirmo que
hay algo llamado «actitud científica» que es crucial tanto
para hacer ciencia como para explicar en qué consiste lo
especial de la ciencia. Es algo que los científicos conocen
instintivamente y que los filósofos deberían abrazar como
la mejor manera de articular por qué la ciencia puede
reclamar para sí legítimamente un estatuto privilegiado
como forma de conocimiento. No es un método ni una
receta para hacer ciencia, pero sin ella la ciencia no podría
avanzar. Como argumentaré más adelante, la actitud
científica enmarca y conforma la mentalidad de los
científicos a medida que construyen y someten a crítica las
teorías que están en el núcleo de la explicación científica.

60 Es importante tener en cuenta que Popper se defendió durante toda su vida


de la acusación de «falsacionismo ingenuo». Para más información, véase la
nota 10 de este capítulo.

61 Popper, «Replies to My Critics», en The Philosophy of Karl Popper, vol. 14,


Paul Schilpp (ed.) (La Salle, IL, Open Court, 1974), 984.

62 Habrá quien esté tentado de recordar la famosa historia de que a Einstein,


cuando se supo que su teoría había sido confirmada, se le preguntó qué habría
hecho si el resultado del experimento hubiera sido adverso. Él respondió:
«Entonces lo hubiera sentido por el buen Dios; mi teoría es correcta». A pesar
de la confianza de Einstein, ¿alguien cree realmente que si la comprobación no
le hubiera sido favorable, la teoría habría sido aceptada? Quizás hubieran sido
necesarias más comprobaciones o las mediciones de Eddington se hubieran
terminado revelando como defectuosas, pero en caso contrario, la teoría, como
mínimo, habría tenido que ser modificada.

63 Samir Okasha, Philosophy of Science: A Very Short Introduction (Oxford,


Oxford University Press, 2016), 15.

64 Esta es la observación de que, en su revolución alrededor del Sol, Mercurio


no traza nuevamente su órbita con precisión, sino que lleva a cabo un
desplazamiento minúsculo cada vez. Esto solo podía ser el resultado de alguna
fuerza gravitacional.

65 Kuhn, The Structure of Scientific Revolutions (Chicago, University of


Chicago Press, 1962).

66 V. Hilary Putnam, «The “Corroboration” of Theories», en The Philosophy of


Karl Popper, 223.
67 Popper usa esta frase muchas veces en La lógica de la investigación
científica [The Logic of Scientific Discovery (Nueva York, Basic Books, 1959)],
incluyendo una sección titulada «La teoría positiva de la corroboración: cómo
una teoría puede probar su fortaleza».

68 Como escribe Tom Nickles en «The Problem of Demarcation: History and


Future», en M. Pigliucci y M. Boudry (ed.), Philosophy of Pseudoscience
(Chicago, University of Chicago Press, 2013): «En opinión de [Popper], incluso
una teoría general que haya superado muchas comprobaciones exigentes (y
que, como consecuencia de ello, esté ampliamente corroborada), todavía tiene
una probabilidad cero. De acuerdo con Popper, [...] en un universo infinito [...]
la probabilidad de una ley universal (no tautológica) será cero (cursivas de
Popper)» (107-108).

69 «La falsabilidad como criterio de demarcación es un asunto puramente


lógico y no depende de nuestra (inexistente) capacidad empírica o práctica
para falsar un enunciado de manera concluyente» (cursivas en el original).
Comunicación personal de Karl Popper a Lee McIntyre, 26 de marzo de 1984.

70 V. Popper, Conjectures and Refutation (Nueva York, Harper Torchbooks,


1965), 41, n. 8.

71 Por ejemplo, el flogisto, el éter y la teoría calórica.

72 Richard Feynman, «The Essence of Science in 60 Seconds»,


<https://www.youtube.com/watch?v=5v8habYTfHU>.

73 Es decir, incluso si la falsación fracasa como criterio de demarcación,


contiene algo verdadero acerca de la ciencia, puesto que centra nuestra
atención en la idea de que confrontar una teoría con la evidencia es crucial
para determinar el estatuto especial de la ciencia. Recordemos también que, a
pesar de aquellos que parecen empeñados deliberadamente en no entenderle,
Kuhn también defendió el papel de la evidencia en la ciencia.

74 Otro ejemplo, del que nos ocuparemos en el capítulo 3, es el descubrimiento


de la causa de la fiebre puerperal a cargo de Semmelweis, que recibió
posteriormente el refuerzo de la teoría germinal de la enfermedad.

75 Es una cuestión interesante, sin embargo, la de si lo que arrumbó la ley de


Bode fue que careciera de una teoría o sus posteriores predicciones fallidas.
Véase mi «Accommodation, Prediction, and Confirmation», Perspectives on
Science 9, núm. 3 (2001), 308-323.

76 V. Alberto Guijosa, «What Is String Theory?»,


<http://www.nuclecu.unam.mx/~alberto/physics/string.html>.

77 La obra más accesible a este respecto es la de Brian Greene, The Elegant


Universe: Superstrings, Hidden Dimensions, and the Quest for the Ultimate
Theory (Nueva York, Norton, 2010).
78 Es interesante apuntar aquí que la «teoría de cuerdas» fue llamada
originalmente «hipótesis de cuerdas». Véase Ethan Siegel, «Why String Theory
Is Not a Scientific Theory», Forbes, 23 de diciembre de 2015,
<http://www.forbes.com/sites/startswithabang/2015/12/ 23/why-string-theory-
is-not-science/>.

79 Richard Dawid, String Theory and Scientific Method (Cambridge,


Cambridge University Press, 2014). Algo de esto puede sonar a Kuhn, pero es
importante tener en cuenta que los criterios «extraempíricos» de Kuhn estaban
encaminados a complementar la evidencia empírica, no a sustituirla.

80 Véanse en particular las observaciones de David Gross (un físico ganador


del Premio Nobel), que «calificó la teoría de cuerdas como comprobable “en
principio” y, por tanto, perfectamente científica, puesto que las cuerdas son
potencialmente detectables». David Castelvecchi, «Is String Theory Science?»,
Nature, 23 de diciembre de 2015,
<https://www.scientificamerican.com/article/is-string-theory-science/>. Para
ampliar perspectivas en torno a la conferencia, véase Natalie Wolchover,
«Physicists and Philosophers Hold Peace Talks, If Only for Three Days»,
Atlantic, 22 de diciembre de 2015,
<https://www.theatlantic.com/science/archive/2015/12/physics-philosophy-
string-theory/421569/>.

81 Véase Lee Smolin, The Trouble with Physics: The Rise of String Theory, the
Fall of a Science, and What Comes Next (Nueva York, Mariner, 2007), y Peter
Woit, Not Even Wrong: The Failure of String Theory and the Search for Unity in
Physical Law (Nueva York, Basic, 2007).

82 Peter Woit, «Is String Theory Even Wrong?», American Scientist (marzo-
abril de 2002), <http://www.americanscientist.org/issues/pub/is-string-theory-
even-wrong/>.

83 Theodosius Dobzhansky, «Nothing in Biology Makes Sense except in Light


of Evolution», American Biology Teacher 35, núm. 3 (marzo de 1973): 125-129.

84 Véase también Larry Laudan, Progress and Its Problems: Towards a Theory
of Scientific Growth (Berkeley, University of California Press, 1978).

85 Sobre cómo explicar el ojo y otros «órganos de extrema perfección», véase


Richard Dawkins, Climbing Mount Improbable (Nueva York, Norton, 2016).
Para una exposición del descubrimiento relativamente reciente del fósil de un
pez con espalda, codos, patas y muñecas —llamado «Tiktaalik»—, véase Joe
Palca, «The Human Edge: Finding Our Inner Fish», NPR,
<http://www.npr.org/2010/07/05/127937070/thehuman-edge-finding-our-inner-
fish.

86 Ver la discusión sobre el diseño inteligente en el capítulo 8.


87 Este punto de vista tiene otra virtud también, que es que nos permite
disputar la idea de que las teorías científicas son débiles salvo que puedan ser
probadas. Si bien es verdad que no podemos probar un enunciado empírico,
eso no quiere decir que tengamos justificación para creer cualquier cosa que
queramos con el pretexto de que «podría» ser verdadera. La hipótesis de la
Tierra plana «podría» ser verdadera, pero ¿dónde está la evidencia? Incluso si
uno conjeturara correctamente (cómo el reloj parado del proverbio que acierta
la hora que es dos veces al día), eso no es ciencia. Decir que no tenemos
fundamento para creer «cualquier cosa» que queramos no significa que
tengamos fundamento para no creer «nada». La ciencia trata sobre tener
teorías que se ponen a prueba contrastándolas con la evidencia, que es lo que
nos proporciona justificación para creerlas.

88 Esto suele denominarse «inducción pesimista». Nótese, sin embargo, que


debe distinguirse cuidadosamente de algo denominado contrainducción, la idea
de que, dado que algo ha ocurrido en el pasado, está destinado a fracasar en el
futuro. Imaginemos a un jugador de dados inductivista que ha sacado tres
sietes seguidos y dice: «¡Voy a hacerlo de nuevo!». Esto no es valido, pero
tampoco lo es la actitud de su amigo contrainductivista que afirma: «No, has
agotado ya toda tu suerte; es casi imposible que lo hagas de nuevo». Si los
dados funcionan bien, las probabilidades son las mismas para cada
lanzamiento, sin que importe lo que haya ocurrido en el pasado. Por el
contrario, la inducción pesimista es meramente la observación de que, teniendo
en cuenta cómo funciona la inducción, es casi inconcebible que nuestra
limitada experiencia nos lleve a descubrir una teoría verdadera; por tanto,
prácticamente todas las teorías científicas serán derrocadas algún día.

89 Uno de los ensayos más interesantes sobre este tema fue escrito por el
eminente filósofo pragmatista Charles S. Peirce. En «The Scientific Attitude and
Falibilism», Peirce relaciona las «características virtuosas» que podemos
asociar con alguien que tiene la actitud científica con la idea de que el
conocimiento empírico tiene que ser por fuerza siempre incompleto. La persona
que tiene la «actitud científica» no puede nunca obstruir el camino de la
investigación pensando que su conocimiento es completo, porque en un campo
abierto, como la ciencia, siempre hay más que aprender. Véase
<https://www.textlog.de/4232.html>.

90 Véase D. H. Mellor, «The Warrant of Induction», en Matters of Metaphysics


(Cambridge, Cambridge University Press, 1991),
<https://www.repository.cam.ac.uk/bitstream/handle/1810/3475/InauguralText.
html?sequence=5>.

91 Uno desearía, sin embargo, admitir que es perfectamente aceptable para los
científicos seguir usando la palabra «verdadero» —sin tener que añadir
siempre la llamada falibilista de que la evidencia futura puede mostrar que la
creencia es falsa— en tanto que recuerde que en toda discusión sobre
conocimiento empírico este será seguramente el caso.
92 David Hume, A Treatise of Human Nature (Londres, 1738), libro VII.

93 Aunque la propia obra de Reichenbach es esclarecedora, la discusión más


accesible en torno a esta idea puede encontrarse en Wesley Salmon, «Hans
Reichenbach’s Vindication of Induction», Erkenntnis 35, núm. 1 (julio de 1991),
99-122.

94 Es muy importante tener en cuenta que la palabra «vindicado» se usa aquí


como lo opuesto a decir que la inducción está «verificada».

95 El principio del conservativismo en cuanto al cambio de teorías obedece a


una norma hondamente asentada en ciencia. Como hemos vito, Popper sostuvo
que —con independencia de cualesquiera otras consideraciones— debemos
concederles una mayor deferencia a aquellas teorías que más han sobrevivido o
están mejor «arraigadas». Quine también ha sostenido (sobre un trasfondo
práctico) que podemos preferir legítimamente las ideas que en menor medida
violentan nuestras creencias previas.

96 Quedan todavía varios problemas sin resolver aquí. En primer lugar, si la


vindicación pragmática puede convertirse en un baluarte contra la certeza,
¿qué puede decir acerca de si las creencias fundamentadas son más probables
a la luz de la evidencia? Recordemos que la probabilidad se ve socavada por la
observación inductiva de que no podemos estar seguros de que la parte del
mundo de la que hemos obtenido nuestras muestras hasta el momento sea
representativa de lo demás. Ahora bien, ¿no podríamos responder que, si no lo
es, entonces ninguna creencia está fundamentada, pero que, si lo es, entonces
nuestra creencia está como mínimo tan bien fundamentada como cualquier
otra? Para más detalles, véase mi «A Pragmatic Vindication of Warranted
Belief» (trabajo en curso).

97 A Descartes le preocupaba que nuestros sentidos fueran potencialmente no


fiables debido a la posibilidad de que estuviéramos en un sueño perpetuo o de
que hubiera un genio maligno que nos engañara. Goodman —con su famoso
«nuevo acertijo de la inducción— de que ni siquiera podamos estar seguros de
que los predicados que estamos usando (como «verde» o «azul») fueran
superiores a los fabricados (como «verdul») que pueden contar con el mismo
apoyo empírico procedente de la evidencia. Ver Nelson Goodman, Fact, Fiction,
and Forecast (Cambridge, MA, Harvard University Press, 1955).

98 Si el objetivo de defender la fundamentación de la inducción no es solo para


mostrar que los científicos saben x, sino también que deben saber que saben x,
¿no es solo para sucumbir a la demanda de certeza que se basa en una de las
concepciones erróneas en torno a la ciencia?

99 Véase, por ejemplo, la carta firmada por 255 miembros de la Academia


Nacional de Ciencias de Estados Unidos que mencioné en la primera página de
este libro.
CAPÍTULO 3

La importancia de la actitud científica

Muchos pensadores han querido ver lo especial de la


ciencia en su metodología, supuestamente exclusiva. Este
enfoque ha recibido críticas en tanto que se ha demostrado
que muchos científicos no siguen en realidad los pasos que
los filósofos de la ciencia han descrito para justificar su
trabajo 100 . Esto no quiere decir que no haya nada
importante en lo que hacen los científicos que pueda tener
relación con el estatuto privilegiado de la ciencia. Es solo
que quizá debamos atender no tanto al método mediante el
cual la ciencia se justifica y sí a la actitud que quienes se
consagran a ella tienen en mente mientras realizan su
labor.
Como vimos en el capítulo 1, no hay fórmulas que seguir
para hacer ciencia. De la misma manera, puede no haber
medios lógicos para distinguir entre el tipo de
razonamiento del que se valen los científicos para pensar
acerca del mundo empírico y el que se usa en otros
contextos. Los no científicos pueden ser ciertamente
rigurosos y cuidadosos en su consideración de la evidencia,
y los científicos pueden a veces recurrir a criterios
subjetivos, sociales y de otro tipo para decidir entre teorías.
Hay, sin embargo, un rasgo importante de la labor
científica del que rara vez se habla en círculos filosóficos,
que es la actitud que guía la investigación científica.
Incluso si los científicos no pueden siempre basarse en un
conjunto de reglas que seguir, está claro, si se tiene en
cuenta la historia de la ciencia, que deben basarse en algo,
un ethos, un espíritu inquisitivo, un sistema de creencias
que les dice que la respuesta a las preguntas empíricas se
encontrará no sometiéndose a una autoridad o acatando un
compromiso ideológico —o a veces incluso en la razón—,
sino en la evidencia que reúnen acerca de la materia que
investigan. Este credo, mantengo, es la mejor manera de
entender qué tiene la ciencia de especial. Lo llamaré
actitud científica.
La actitud científica puede resumirse como el
compromiso con dos principios:

(1) Nos preocupamos por la evidencia empírica.


(2) Estamos dispuestos a cambiar nuestras teorías a la
luz de nueva evidencia.

Esto, por supuesto, no lleva a descartar la idea de que


otros factores puedan influir a veces. Como demuestra la
obra de Thomas Kuhn, aunque nos preocupemos por ella, la
evidencia puede no ser suficiente para determinar la
elección de una teoría, lo que abre la puerta a
consideraciones extraempíricas. Lo que tiene que ser
descartado, sin embargo, es el pensamiento desiderativo
[wishful thinking] y la deshonestidad. En la versión más
concisa de su intento en curso de captar lo distintivo de la
ciencia, Richard Feynman nos dice que «la ciencia es lo que
hacemos para evitar mentirnos a nosotros mismos» 101 .
Quizá no haya una exposición más atinada de la mentalidad
que subyace a la actitud científica.
Alguien podría pensar que este discurso acerca de las
actitudes y valores de la ciencia es demasiado vago y
carente de rigor como para resultar útil, así que seré ahora
más específico en torno a lo que este enfoque puede
implicar. ¿Qué significa preocuparse por la evidencia?
Quizá la mejor manera de abordar este asunto sea
examinar lo que significa no preocuparse por la evidencia.
Si uno no se preocupa por la evidencia, entonces se resiste
a aceptar nuevas ideas. Es dogmático. Una persona así
podría atrincherarse en sus creencias sin que le importara
lo que la evidencia pone de manifiesto. Cuando la actitud
científica dice que debemos «preocuparnos por la
evidencia», la idea es que debemos estar sinceramente
dispuestos a buscar y considerar la evidencia que pueda
tener relación con los fundamentos de nuestras creencias.
En algunos casos, esto mejorará nuestra justificación, pero
en otros puede socavarla. Los científicos deben estar
abiertos a ambas posibilidades.
Preocuparse por la evidencia es estar dispuestos a poner
a prueba nuestra teoría en contraste con una realidad que
pueda refutarla. Se trata del compromiso a adherirse a una
creencia no porque nos haga sentir bien, parezca correcta
o incluso sea coherente con otras cosas que creemos, sino
porque se ajusta a los datos de nuestra experiencia. A
pesar de que existe una vasta literatura en filosofía de la
ciencia que muestra lo difícil que es a veces decidir entre
teorías sobre esta base —siendo necesaria toda suerte de
otras consideraciones tales como la simplicidad, la
productividad y la coherencia—, esto no modifica el credo
subyacente a la ciencia: allí donde esté disponible, la
evidencia tiene que regir la elección de una teoría científica
sobre otra 102 .
Por supuesto, en algunos temas de estudio, puede no
preocuparnos la evidencia porque es irrelevante. Si nuestro
trabajo se desarrolla en el campo de las matemáticas o la
lógica, entonces la evidencia no supondrá diferencia
alguna, puesto que cualquier problema teórico podrá ser
resuelto mediante la razón. Pero cuando se investiga una
cuestión empírica, rechazar de esta manera la evidencia es
un anatema desde el punto de vista del rigor científico.
Cuando hacemos ciencia, buscamos el conocimiento a
partir de la experiencia para descubrir cómo es el mundo.
Es fundamental preocuparse por la evidencia, puesto que
esa es la única manera de que nuestro conocimiento se ciña
cada vez más estrechamente a la realidad que queremos
conocer.
Uno puede imaginar aquí una lista de rasgos. La persona
con una buena actitud científica es humilde, sincera,
abierta de mente, intelectualmente honesta, curiosa y
autocrítica. El peligro aquí, sin embargo, es que no
podemos simplemente convertir la actitud científica en un
asunto de psicología individual ni tampoco abandonar al
juicio del propio interesado la cuestión de si posee esos
rasgos. En primer lugar, ¿qué cabe hacer a propósito de los
negacionistas o de los defensores de la pseudociencia, que
pueden decir de sí mismos que también se preocupan de la
evidencia —o que incluso la creen— cuando es obvio para
el resto de nosotros que no es así? Esta persona puede
simplemente estar mintiéndonos, pero puede estar también
mintiéndose a sí misma. Si la actitud científica fuera solo
cuestión de cómo uno se siente a propósito de si le
preocupa la evidencia, no sería posible establecer
diferencias entre la persona verdaderamente sincera que
busca una manera de poner a prueba sus creencias
confrontándolas con la experiencia y los ideólogos víctimas
de un espejismo que les lleva a pensar que se preocupan
por la evidencia meramente porque recolectan hechos que
vienen a confirmar sus creencias anteriores. En vez de eso,
la actitud científica debe medirse por nuestras acciones, y
no es el individuo, sino la comunidad científica, cuyos
miembros comparten la actitud científica como ethos
rector, la mejor capacitada para juzgarlas 103 . Así pues,
preocuparse por la evidencia es actuar de acuerdo con un
conjunto de prácticas bien acreditadas que cuentan con la
sanción de la comunidad científica porque a lo largo de la
historia han llevado a creencias bien justificadas.
Esto no quiere decir que el proceso de la ciencia sea
perfecto. Incluso cuando la asumimos sin matices, la
actitud científica probablemente no pueda eliminar a todos
los negacionistas y defensores de la pseudociencia que
afirman que también la tienen, aunque no sea así. Que sea
a sí mismos a quienes engañan o a otros es algo a veces
difícil de determinar 104 . De la misma manera, puede haber
investigadores científicos que a veces se involucren
demasiado con sus propias teorías y se nieguen a creer lo
que los datos les dicen 105 . ¿Por dónde pasa la línea entre
estas dos facciones? Aunque la actitud científica no pueda
trazar una división lógica o metodológica firme entre la
ciencia y quienes se arrogan la condición de científicos,
puede al menos poner de manifiesto una laguna básica en
los valores que se tornan visibles por la forma en la que nos
comportamos ante la evidencia adversa.
¿Qué es la evidencia? Probablemente sea imposible
definir todas las cosas diferentes que pueden funcionar
como evidencia científica. Las evidencias estadísticas,
cualitativas e incluso históricas pueden existir en múltiples
empresas empíricas. Evidencia son los datos que
obtenemos de la experiencia que afectan al grado de
racionalidad de nuestra creencia en una teoría. A veces
estos datos son cuantitativos y pueden ser medidos
directamente. En otras ocasiones, es difusa y debe ser
interpretada. En cualquier caso, los científicos deberían
estar de acuerdo en que la evidencia desempeña un papel
crucial en la elección o modificación de una teoría
científica.
Hay, sin embargo, diversas teorías que compiten entre
ellas en torno a lo que significa para los científicos usar la
evidencia de una manera racional. Como escribe Peter
Achinstein:

Los científicos discrepan frecuentemente en torno


a si o hasta qué punto algún conjunto de datos o
resultados de la observación constituye evidencia a
favor de una hipótesis científica. Las discrepancias
pueden versar sobre cuestiones empíricas, como la
corrección de los datos o los resultados de la
observación, o si hay información empírica adicional
que no se está teniendo en cuenta. Pero los conflictos
también surgen porque los científicos emplean
conceptos incompatibles de evidencia 106 .

Libros enteros se han escrito acerca de estos diferentes


conceptos de evidencia y sus varias fortalezas y debilidades
a la hora de explicar cómo los hechos de la experiencia
proporcionan o restan apoyo a una teoría científica 107 .
Podría suponerles una conmoción a quienes están fuera de
la filosofía de la probabilidad y las estadísticas que haya
explicaciones contradictorias en torno a qué es lo correcto
inferir de uno y el mismo fragmento de evidencia. Se dan
enconados debates, por ejemplo, en torno al enfoque
«subjetivista» de la probabilidad que favorecen los
bayesianos frente al «frecuentista» que ofrecen Deborah
Mayo y otros 108 . La actitud científica puede considerarse
compatible con muchos conceptos diferentes de evidencia.
No importa la teoría en torno a la manera adecuada de usar
la evidencia, la actitud científica hacia la evidencia es
aquella en la que nos comprometemos con la idea de que la
evidencia es primordial a la hora de decidir si una teoría es
digna de ser creída.
Como es fácil suponer, la mejor manera de apreciar la
importancia de la actitud científica es verla en acción, y
enseguida proporcionaré algunos ejemplos. En primer
lugar, sin embargo, me gustaría abordar dos posibles
concepciones erróneas. Primero, la actitud científica no
pretende ser una solución al problema de la
demarcación 109 . El objetivo del proyecto de la demarcación
es encontrar un criterio lógico que permita agrupar toda la
ciencia y solo la ciencia en un lado y todo lo demás en el
otro. La tarea no es fácil y, como hemos tenido ocasión de
comprobar, los intentos de realizarla en general han
fracasado. Esto deja la ciencia a merced de malentendidos
y críticas vertidas por quienes no son capaces de captar en
su totalidad de qué trata. El objetivo de identificar la
actitud científica como un rasgo esencial de la ciencia no
supone aislarla de otras disciplinas, sino mostrar que, salvo
que estén dispuestos a seguir los rigurosos estándares que
definen el razonamiento científico, aquellos que hacen
afirmaciones empíricas no llegarán a participar de la mejor
forma que tiene la mente humana de conocer el mundo
empírico.
Una segunda concepción errónea posible puede
involucrar mis intenciones. No estoy aquí tratando de
proporcionar una exposición descriptiva de lo que hacen
realmente los científicos un día cualquiera en un
determinado laboratorio: el compromiso de uno con la
actitud científica puede estar en constante cambio. Los
científicos pueden vulnerar ocasionalmente las normas de
la ciencia y después, más adelante, reencontrarse con la
senda correcta 110 . En vez de eso, propongo la actitud
científica como ideal normativo que nos permite juzgar si
un científico individual o un campo de investigación
completo están a la altura de los valores de la ciencia.
Como hemos visto, la ciencia no está basada en una
fórmula invariable, a diferencia de lo que prometía el
método científico. Tampoco se trata estrictamente de un
juicio de todo o nada sobre lógica o metodología. La ciencia
se define por un conjunto de prácticas que enraízan en los
valores que encarnan las personas que trabajan en ella.
Esto no quiere decir que la ciencia solo se justifique (o
no) por lo que hace. La práctica es importante, pero no es
la única cosa que hay que tener en cuenta al juzgar la
ciencia. Digo esto porque una variante de la argumentación
en contra del enfoque metodológico en filosofía de la
ciencia durante las últimas décadas ha sido que, dado que
la ciencia no siempre sigue los preceptos que la lógica de la
ciencia le dicta, no debe ser mejor ni peor que cualquier
otra forma de investigación. Puedo no estar de acuerdo con
la idea tradicional de que para defender la ciencia haya que
trazar una distinción rígida entre hechos y valores, pero
tampoco creo que la ciencia sea desesperanzadoramente
subjetiva. Aunque la objetividad sea importante, los valores
desempeñan un papel como elementos rectores de nuestra
práctica que nos mantienen en el buen camino. Es decir,
aunque la práctica de la ciencia pueda a veces ser
insatisfactoria, todavía es posible justificar la ciencia en su
conjunto sobre la base de los objetivos a los que aspira.
Reconocer el papel de la práctica en la comprensión de
la ciencia no supone subestimar la importancia de sus
ideales. Aunque pueda haber quien juegue sucio o haga un
trabajo negligente, eso no quiere decir que la ciencia sea
injustificable. Así como decir que algunos científicos se
comportan a veces de manera irracional no socava la lógica
de la ciencia, tampoco señalar que otros científicos han
llegado a traicionar la actitud científica socava los valores
de la ciencia. Esta es la razón por la que es importante
subrayar el papel del escrutinio de grupo cuando se trata
de enjuiciar el trabajo científico. No solo el individuo es el
encargado de mantener los estándares científicos, sino
también la comunidad científica, que ha desarrollado un
conjunto de herramientas para garantizar la probidad de
sus integrantes. He aquí la razón por la que la actitud
científica constituye una tesis normativa en lugar de
descriptiva. Los humanos tergiversan a veces un ideal
incluso si creen en él. En ese caso, depende de los demás
ofrecer correcciones. Y esto es exactamente lo que la
actitud científica nos permite hacer. La ciencia es diferente
no meramente por lo que hace, sino por lo que tiene como
fin [aims] hacer. A pesar de los errores que puedan cometer
los individuos, es el ethos lo que le confiere a la ciencia una
autoridad tan grande 111 .

DOS EJEMPLOS DE ACTITUD CIENTÍFICA

Al principio del libro adelanté que como más se aprende


acerca de la ciencia no es examinando sus triunfos, sino
especialmente sus fracasos. También prometí que no iba a
usar ejemplos exclusivamente tomados de la historia de la
física y la astronomía. Teniendo esto en cuenta, pondré a
continuación un ejemplo para ilustrar las virtudes de la
actitud científica tomado de la medicina, seguido de un
ejemplo «fallido» de la química (la fusión fría) que pone de
manifiesto lo que puede ocurrir cuando la actitud científica
tiende a difuminarse 112 .
Para que esta estrategia resulte creíble, debemos
aceptar que habría sido fácil encontrar otros ejemplos de la
física y la astronomía que bastaran para poner de
manifiesto los méritos de la actitud científica. Este no es en
mi opinión un supuesto inverosímil. Uno podría, por
ejemplo, recurrir a la teoría de la gravedad de Newton o,
mejor aún, a la teoría general de la relatividad de Einstein.
Dada la ventaja que nos proporciona la preferencia de
Popper por este ejemplo, bien puede servirnos para ilustrar
el valor de tener una mentalidad adecuada al poner a
prueba una teoría. Pero le encomendaré al lector la tarea
de imaginar lo que Popper habría podido decir acerca de la
actitud científica de Einstein. En lugar de eso, compartiré
aquí uno de mis ejemplos favoritos de la historia de la
ciencia: la teoría de la fiebre puerperal de Semmelweis.
Este ejemplo se ha popularizado dentro del campo de la
filosofía de la ciencia gracias a Carl Hempel, que lo incluyó
en su Filosofía de la ciencia natural de 1966 como
ilustración de las virtudes de las explicaciones
científicas 113 . Por lo que a mí respecta, me esforzaré en
destacar cómo la teoría de Semmelweis exhibe la actitud
científica más que en el relato lógico empirista de la ciencia
en el que Hempel la enmarca. Esto también enlaza
bastante bien con lo que tendré que decir en el capítulo 6
acerca de cómo la actitud científica transformó la medicina
moderna.
Dado el estatuto incuestionablemente científico de la
medicina moderna, resulta difícil de creer que más de
doscientos años después de la revolución que trajo consigo
la ciencia moderna en el siglo XVII, la asistencia médica
todavía no se hubiera beneficiado del descubrimiento de la
anestesia (1846), la teoría germinal de la enfermedad
(década de 1850) ni la cirugía antiséptica (1867). Un
problema es que, incluso una vez realizados los
descubrimientos, había pocas vías acordadas para
propagar la información y vencer las resistencias de los
escépticos 114 . Los métodos experimentales eran relegados
a un segundo plano por la intuición y la tradición. Esto
hace todavía más destacable que en 1846, en el Hospital
General de Viena, pudiéramos asistir a uno de los ejemplos
más notables de la actitud científica en plena floración.
Ignaz Semmelweis era un modesto médico asistente que
trabajaba en la mayor clínica de maternidad del mundo,
que estaba dividida en dos pabellones. En el pabellón 1, la
fiebre puerperal (también conocida como fiebre de
posparto) estaba descontrolada, y la tasa de mortalidad
alcanzaba el 29 %; en el pabellón 2, adyacente al primero,
la tasa era de solo el 3 % 115 . Otro dato relevante es que
entre las mujeres que daban a luz en casa o incluso camino
del hospital en «partos callejeros» la fiebre puerperal tenía
una incidencia mucho menor. ¿Qué ocurría, entonces, en la
sección 1? Se formularon diversas hipótesis. Una fue que el
pabellón 1 estaba masificado. Pero cuando Semmelweis
hizo el recuento de las pacientes el resultado fue que la
masificación era de hecho mucho mayor en el pabellón 2
(quizá porque todas las mujeres querían evitar el
tristemente célebre pabellón 1). Se observó entonces que,
debido a la disposición espacial del pabellón 1, el sacerdote
encargado de dar la extremaunción a las mujeres que
agonizaban de fiebre puerperal tenía que pasar por delante
de muchas camas —haciendo sonar una campana—, lo que
podía infundir una sensación de angustia en las otras
mujeres y quizás incrementar sus probabilidades de
contraer la enfermedad. En el pabellón 2, el sacerdote
entraba directamente a la enfermería. Semmelweis decidió
poner a prueba la observación y diseñó un experimento
consistente en pedirle al sacerdote que tomara un camino
diferente, silencioso y más discreto, hasta llegar a la
enfermería del pabellón 1, pero la tasa de mortalidad por
fiebre puerperal no varió.
Otras pruebas se centraron en comprobar si la
enfermedad afectaba en diferente proporción a las mujeres
que yacían de lado que a las que yacían de espaldas.
Finalmente, se observó que una de las diferencias
principales era que en el pabellón 1 había estudiantes de
Medicina que intervenían en los partos, mientras que en el
pabellón 2 solo participaban matronas. ¿Eran demasiado
bruscos los estudiantes de Medicina a la hora de efectuar
exámenes? Después de que las matronas y los estudiantes
de Medicina intercambiaran los pabellones en los que
actuaban, la tasa elevada de mortalidad se desplazó con los
segundos, pero todavía no se sabía por qué. Los
estudiantes de Medicina recibieron instrucciones sobre
cómo suavizar sus técnicas, pero la tasa de mortalidad no
mejoró.
Finalmente, se hizo la luz en 1847, cuando un colega de
Semmelweis se hizo una herida punzante en el curso de
una autopsia practicada sobre el cadáver de una mujer que
había muerto de fiebre puerperal, y falleció de una
enfermedad que parecía tener los mismos síntomas 116 .
¿Podía alguien que no fuera una mujer embarazada
contraer la fiebre puerperal? Semmelweis se dio cuenta de
que había una diferencia en torno a dónde habían estado
los estudiantes de Medicina antes de que accedieran al
pabellón de maternidad: iban directamente de hacer
autopsias, sin haberse lavado las manos ni los instrumentos
(recordemos que estamos en una época anterior a la teoría
germinal de la enfermedad y la antisepsia), al pabellón de
maternidad, lo que le llevó a la hipótesis de que la fiebre
puerperal podía estar relacionada con la transmisión de
«materia cadavérica» a las mujeres embarazadas. Como
prueba, Semmelweis les ordenó a los estudiantes de
Medicina que se lavaran las manos con agua clorada antes
de intervenir en los partos. La tasa de mortalidad se
desplomó. Tenía ahora una explicación no solo de por qué
la incidencia de la fiebre puerperal era mucho mayor en el
pabellón 1, sino también de por qué entre los «partos
callejeros» se registraban tan pocos casos de la
enfermedad. Posteriormente, Semmelweis tuvo que ampliar
su hipótesis para incluir la idea de que la fiebre puerperal
también podía proceder de los tejidos vivos pútridos,
después de que él y sus colegas examinaran a una mujer
con cáncer de cuello de útero y a continuación murieran
doce mujeres, once de ellas de fiebre puerperal 117 .
El uso de la actitud científica en este ejemplo es obvio.
Semmelweis no supuso que ya estuviera en posesión de la
respuesta a la cuestión de qué causaba la fiebre puerperal;
examinó las semejanzas y diferencias entre los dos
pabellones, y aprendió luego lo que pudo mediante la
observación y los experimentos controlados. Formuló varias
hipótesis y empezó a ponerlas a prueba una por una.
Cuando una hipótesis se desvanecía, pasaba a la siguiente,
abierto siempre a recibir nueva información a lo largo del
proceso. Cuando por fin encontró la respuesta —y más
tarde la amplió—, modificó sus ideas sobre la base de los
nuevos datos.
¿Se preocupó «por la evidencia empírica? Claramente, la
respuesta es sí. Controlando las circunstancias y poniendo
en relación sus ideas con la experiencia que obtenía,
Semmelweis estaba respetando la presunción de que la
causa de la fiebre puerperal no podía distinguirse
únicamente por la razón. ¿Estaba «dispuesto a cambiar de
teoría a la luz de la nueva evidencia disponible»? La
respuesta, una vez más, es sí. No solo Semmelweis
cambiaba de hipótesis cada vez que una era refutada, sino
que llegó a ampliarla cuando descubrió la nueva
información de que no solo la materia cadavérica —sino
también los tejidos cadavéricos en descomposición— podía
transferir la enfermedad de un cuerpo a otro. Todavía no
conocía el mecanismo exacto por el que la enfermedad se
transfería (al igual que Darwin no conocía la genética
cuando propuso su teoría de la evolución por selección
natural), pero la correlación era innegable. Semmelweis
había mostrado que la «falta de higiene» era la responsable
de la fiebre puerperal.
Aunque parezca increíble, la idea encontró oposición y
fue despreciada durante décadas. A pesar de la
incontrovertible demostración empírica de Semmelweis de
que lavarse las manos con agua clorada podía hacer que la
incidencia de la fiebre puerperal cayera rápidamente, su
hipótesis fue combatida por la mayoría de los médicos en
ejercicio. Innumerables mujeres perdieron
innecesariamente la vida mientras los contumaces
integrantes de la comunidad médica se sentían ultrajados
por la sugerencia de que ellos mismos eran los responsable
de transmitir la fiebre puerperal a sus pacientes. La idea de
que a unos caballeros pudiera fallarles la higiene les
resultaba insultante. Sin explicación de cómo la materia
cadavérica podía transmitir la enfermedad, se resistieron a
abandonar la hipótesis de que las infecciones
probablemente resultado del «mal aire». Semmelweis fue
despedido de su trabajo y tras posteriores demostraciones
de la eficacia de sus ideas en otros hospitales a lo largo de
Europa (sin recibir todavía el reconocimiento de la
comunidad médica), su carácter se fue resintiendo.
Finalmente, se le internó en un asilo, donde recibió una
paliza de los guardas y murió dos semanas después de
septicemia, una infección de la sangre similar a la fiebre
puerperal.
En la resistencia a aceptar la hipótesis de Semmelweis,
podemos observar el reverso de la actitud científica. No
solo es cierto que la presencia de la actitud científica
propicia el progreso en los hallazgos y explicaciones
científicas, sino también que su ausencia puede impedirlo.
Durante la década de 1840, el concepto medieval de
enfermedad como consecuencia del desequilibro de los
«cuatro humores» del cuerpo todavía gozaba de un amplio
respaldo. La costumbre y la tradición dictaban las
respuestas a las preguntas médicas en mucha mayor
medida que los descubrimientos empíricos. No fue hasta el
trabajo de Pasteur y Koch acerca de la teoría de los
gérmenes y su relación con la enfermedad en la década de
1890, y la introducción de la cirugía antiséptica por Lister
en 1867, cuando la medicina encontró un asidero científico.
Años después de la muerte de Semmelweis, sus ideas
fueron reivindicadas 118 .
Podríamos ser indulgentes con alguien que pensara que
las cosas son tan sencillas y obvias que quienes
despreciaron a Semmelweis solo podían ser idiotas. ¿Cómo
pudieron ser tan cerriles e ignorantes como para no ver la
verdad cuando la tenían delante? La respuesta es que hasta
la mitad del siglo XIX la medicina no abrazó la actitud
científica. La idea de que podemos aprender lo
concerniente a un campo dado a la investigación empírica
mediante la experimentación y la evidencia obtenida de la
observación ya estaba asentada en las ciencias físicas. La
revolución de Galileo se había producido más de doscientos
años atrás en astronomía. Pero las viejas ideas mantuvieron
la medicina en su poder hasta mucho más tarde. Quizá la
parte más asombrosa de la historia de la fiebre puerperal
no sea por qué muchos médicos en ejercicio rechazaron la
experimentación controlada y la importancia de la
evidencia empírica, sino que Semmelweis se alejara tanto
de la jauría y la aprovechara 119 .
Pero ¿qué excusa podemos esgrimir a favor de los
científicos que hoy en día realizan de vez en cuando
investigaciones que no se ajustan a estos estándares? Quizá
sea irónico que una de las manifestaciones más rotundas de
la confianza de los científicos en el poder de la evidencia
pueda exponerse por medio de lo que lo que algunos han
considerado el peor ejemplo de chapuza científica del siglo
XX. En la primavera de 1989, dos químicos de la
Universidad de Utah —B. Stanley Pons y Martin
Fleischmann— celebraron una conferencia de prensa para
anunciar que habían conseguido una reacción de fusión
nuclear sostenida a temperatura ambiente. Si era cierto,
las implicaciones serían enormes, puesto que entonces el
sueño de contar a escala mundial con una fuente de
energía limpia, barata y abundante estaba cerca de
cumplirse. Como se esperaba, la comunidad científica se
tomó el anuncio con enorme escepticismo —no solo porque
se hizo en una conferencia de prensa en vez de seguir la
ruta habitual de publicación tras una rigurosa revisión por
pares— e inmediatamente empezaron los intentos de
reproducir los resultados de Pons y Fleischmann.
Y no pudieron. Después de dos meses de luna de miel en
los medios de comunicación, durante la cual Pons y
Fleischmann se negaron a compartir con otros científicos
los detalles de sus experimentos, empezó a quedar claro
que su trabajo era irremediablemente defectuoso. La
acusación de interferencias extracientíficas empezó a
proliferar abundantemente, pero al final lo único que
importaba era apelar a la evidencia. Muchos científicos se
sintieron sumamente avergonzados por toda esta historia,
especialmente cuando empezaron a publicarse libros con
títulos como Bad Science, Too Hot to Handle y The
Scientific Fiasco of the Century. En lugar de avergonzarse,
los científicos podían haber aprovechado la ocasión para
poner de manifiesto el poder del escepticismo científico. A
pesar de todo el dinero, prestigio y atención mediática, el
caso se resolvió gracias a la evidencia empírica. Aunque
una teoría particular (y un par de reputaciones científicas)
había sido espectacularmente derribada, la victoria cayó
del lado de la actitud científica 120 .
Aquí se nos presenta una situación que es casi la opuesta
a la que afrontó Semmelweis. En el caso de la fiebre
puerperal, fue el médico solitario quien insistió en que sus
resultados eran correctos para cualquiera que se tomara la
molestia de atender a la evidencia. En el caso de la fusión
fría, los experimentadores originales quizá se dejaron cegar
por el entusiasmo que desató su teoría y no fueron lo
suficientemente cautelosos con su investigación como para
no anunciar sus resultados hasta después de haberlos
sometido a un escrutinio un poco más metodológico, un
intento de réplica y una revisión por pares.
Afortunadamente, en el caso de la fusión fría la comunidad
académica adoptó la actitud científica y actuó como un
elemento de control contra el apresuramiento y la
preferencia por la teoría propia que a veces puede hacer
descarrilar la investigación científica. Para una comunidad
científica más amplia —algunos de cuyos integrantes
seguramente tengan sus propios intereses en juego— la
manera de apropiada de tomar una decisión se basa en
observar qué evidencia puede aportarse con relación al
problema.
No es que nunca se cometan errores en la ciencia. Los
científicos son humanos y, por tanto, les afectan
características como la ambición, el orgullo, la codicia y la
contumacia de la misma manera que al resto de la
población. Lo que hay que destacar es que en la ciencia nos
hemos puesto de acuerdo en torno a unas normas de
transparencia que sean útiles para resolver disputas
empíricas y faciliten la corrección de cualquier error. En el
caso de Semmelweis, la medicina tuvo que esperar dos
décadas hasta que la teoría correcta se asentara
firmemente. Con la fusión fría, bastaron dos meses. La
diferencia radicó en la presencia de la actitud científica.

LAS RAÍCES DE LA ACTITUD CIENTÍFICA


La idea de que la actitud de los científicos es un rasgo
importante de la ciencia no es nueva. Fue anticipada por
muchos otros, incluyendo Popper y Kuhn 121 . Popper, en su
explicación de la falsación, enfatizó la idea de que hay una
«actitud crítica» que subyace a la ciencia. De hecho, en
cierto sentido Popper parece considerar que una actitud
crítica es previa a la falsabilidad 122 .

Lo que caracteriza el enfoque científico es una


elevada actitud crítica hacia nuetras teorías más que
un criterio formal de refutabilidad: solo a la luz de
esa actitud crítica y del correspondiente enfoque
crítico metodológico retienen las teorías «refutables»
su refutabilidad 123 .

En su autobiografía intelectual, Popper reflexiona sobre


cómo llegó en un primer momento a la idea de la falsación,
y establece una conexión entre la actitud crítica y la actitud
científica:

Lo que más me impresionó fue la clara afirmación


de Einstein de que consideraría su teoría como
insostenible si hubiera de fallar en ciertas
comprobaciones. Así, escribió: «Si el desplazamiento
al rojo de las líneas espectrales debido al potencial
gravitacional no hubiera de existir, entonces la teoría
general de la relatividad sería insostenible». He aquí
una actitud totalmente diferente de la actitud
dogmática de Marx, Freud, Adler y todavía más de la
de sus seguidores. Einstein buscaba experimentos
cruciales cuya coincidencia con sus predicciones de
ninguna manera demostrara su teoría; en cambio, la
no coincidencia, como fue el primero en recalcar,
mostraría que su teoría es insostenible. Esta,
considero, es la verdadera actitud científica. Es
totalmente diferente de la actitud dogmática que a
todas horas pretende encontrar «verificaciones» de
sus teorías preferidas. Llegué así, a finales del 1919,
a la conclusión de que la actitud científica era la
actitud crítica, que no busca verificaciones, sino
pruebas cruciales, pruebas que puedan refutar la
teoría a la que se aplican, aunque nunca puedan
demostrarla 124 .

Aplaudo esta exposición. Hay un aspecto importante de


la actitud científica que Popper capta en su visión del
falsacionismo. No estoy de acuerdo con Popper, sin
embargo, en que la mejor manera de comprender la actitud
crítica sea reducirla a un principio metodológico que sirva
como criterio de demarcación. Como Popper reconoce, hay
algo especial en torno a la actitud que los científicos
adoptan hacia el poder de la evidencia empírica. Pero ¿ha
de ser una cuestión de lógica?
Kuhn también reconoció la importancia de la actitud
científica. Este hecho a menudo no se tiene en cuenta,
debido a la respuesta enamorada que recibió la concepción
de la ciencia de Kuhn procedente del «programa fuerte» de
la sociología de la ciencia, que sostenía que todas las
teorías científicas —tanto verdaderas como falsas— podían
explicarse atendiendo a factores sociológicos más que a la
evidencia, y que eran, como consecuencia de ello, en cierto
sentido relativas a los intereses humanos. Kuhn, sin
embargo, se tomó con consternación esta interpretación de
su obra y se opuso a la idea de que la naturaleza no tuviera
importancia para los científicos. Uno de sus comentaristas
escribe:

Kuhn [...] se sintió hondamente contrariado por los


desarrollos que tuvieron lugar en el campo de la
sociología de la ciencia iniciados por el programa
fuerte. [...] A Kuhn le preocupaba que los defensores
del programa fuerte entendieran erróneamente el
papel que los valores desempeñan en la ciencia. [...]
Se quejó de que los estudios de la ciencia basados en
el programa fuerte «dejaran fuera el papel de la
naturaleza». [...] Kuhn, no obstante, insistió en que la
naturaleza desempeña un papel significativo a la hora
de conformar las creencias de los científicos 125 .

Kuhn se tomó en serio la idea de que las teorías


científicas deben ser comparadas entre ellas, pero también
hay que ponerlas a prueba confrontándolas con la
evidencia empírica. Kuhn escribe:

[El mundo] no es en la menor medida considerado


con los deseos y anhelos de un observador; es
perfectamente capaz de proporcionar una evidencia
decisiva frente a hipótesis inventadas que no se
ajusten a su comportamiento 126 .

A diferencia de Popper, Kuhn pudo no haber planteado


esto como una «actitud» subyacente a la metodología de la
ciencia, pero no por ello dejó de reconocer el importante
papel que la evidencia empírica podía desempeñar como
ayuda a los científicos que tuvieran que optar entre
diferentes teorías, y se dio cuenta de que la adhesión al
valor de la evidencia empírica era necesaria para que la
ciencia siguiera avanzando.
Así, queda todavía la cuestión de por qué ni Popper ni
Kuhn llegaron tan lejos como para hacer de los valores de
la ciencia —ya sean la actitud crítica o el respeto a la idea
de que la naturaleza puede prevalecer sobre nuestros
deseos y anhelos— la base de la distinción entre la ciencia
y la no-ciencia 127 . Para Kuhn, la respuesta era quizá más
fácil: aunque considerara que la ciencia era especial y
realizara un gran esfuerzo para asimilar el funcionamiento
efectivo de la ciencia, no deseaba vincularse con ninguna
forma de criterio de demarcación 128 . Popper, por otro lado,
abiertamente lo deseaba, por lo que quizá sea una
pregunta viva la de por qué no trató de encontrar dentro de
la actitud crítica de la ciencia una explicación de lo que hay
de distintivo en ella. Alguien podría argumentar, supongo,
que eso fue justamente lo que hizo por medio de su
concepción de la falsación. Sin embargo, en cierto sentido,
esto no se aviene con la estrategia de Popper de trazar una
distinción entre cómo opera la ciencia y cómo los filósofos
tratan de justificarlo, yuxtapuesta a su profunda
ambivalencia en torno a cómo abordar el hecho de que las
consideraciones prácticas puedan a veces amenazar la
belleza de su concepción lógica de la demarcación. Dentro
incluso de una de sus afirmaciones más tajantes de que la
falsación es una solución lógica al problema de la
demarcación, Popper escribe: «Lo que ha de llamarse
“ciencia” y quién debe llamarse “científico” tiene que
seguir siendo siempre una cuestión de convención o
decisión» 129 . Popper entendió claramente la importancia
de la flexibilidad con una actitud crítica y una deferencia
ocasional a cuestiones prácticas. Sin embargo, anhelaba
contar con una base absolutamente lógica que le
permitiera establecer una distinción entre lo que era
ciencia y lo que no era ciencia. Pienso que esto le distrajo
de reconocer en toda su plenitud el poder de algo como la
actitud científica, que puede no haberle parecido lo
suficientemente «dura» como para satisfacer su búsqueda
de demarcación lógica.
Una raíz si cabe más profunda de la actitud científica
puede encontrarse en el momento mismo en el que los
filósofos empezaron a pensar acerca de la metodología de
la ciencia. Aunque hoy se le recuerda sobre todo por sus
trabajos en torno al método científico, la idea de que hay
«virtudes» especiales conectadas con la investigación
científica puede encontrarse en la obra maestra de Francis
Bacon de 1620 Novum Organum 130 . Bacon propone en ella
virtudes como la honestidad y la actitud receptiva como
indisociables de la buena práctica de la ciencia. Bacon
afirma que la metodología es importante, pero debe estar
inserta en los valores correctos que le proporcionen apoyo.
Rose Mary-Sargent ha sostenido que la búsqueda moderna
de la «objetividad» en la defensa de la ciencia —en la que
uno trata de separar los hechos de los valores— representa
una perversión de los ideales de Bacon 131 . Puede parecer
irónico que la persona más comúnmente asociada con el
método científico defendiera también que la práctica
científica debe realizarse con la actitud apropiada, pero
uno solo tiene que leer el Prefacio y los primeros cincuenta
aforismos de Novum Organum para cerciorarse de las
intenciones de Bacon.
En su obra posterior Nueva Atlántida (1627), Bacon
también propuso la idea de que estas virtudes científicas no
solo deben ser encarnadas por los individuos concretos que
se consagran a la ciencia, sino también por la comunidad
de científicos que les enjuiciarían y defenderían. En su
artículo «A Bouquet of Scientific Values», Noretta Koertge
recalca la naturaleza comunitaria de la visión de la ciencia
de Bacon. Escribe: «El sueño de Bacon de una nueva
ciencia incluía no solo una nueva metodología, sino
también una comunidad dedicada a la tarea» 132 . Así, vemos
que una concepción bastante robusta de la actitud
científica ha estado ahí todo el tiempo, prácticamente
desde que se empezó a hablar del «método científico».
Finalmente, quizá puedan apreciarse las raíces de la
actitud científica por analogía con otro campo filosófico
cuyos orígenes pueden rastrearse hasta Aristóteles. En su
clásico Tras la virtud, Alasdair MacIntyre nos pide que
tomemos en consideración los méritos de su enfoque
basado en la «práctica comunitaria» para la ética
normativa por medio de un espeluznante experimento
mental acerca de la ciencia:

Imaginemos que las ciencias naturales sufrieran


los efectos de una catástrofe. El público en general
acusa a los científicos de una serie de desastres
naturales. Se producen disturbios generalizados, los
laboratorios son incendiados; los físicos, linchados;
los libros e instrumentos, destruidos. Finalmente, un
movimiento político que exalta la ignorancia toma el
poder y deroga exitosamente la enseñanza de la
ciencia en las escuelas y universidades, encarcelando
a los científicos supervivientes. Más adelante se
produce una reacción en contra de este movimiento
destructivo y un grupo de personas ilustradas trata
de revivir la ciencia, aunque han olvidado en qué
consistía. Todo lo que poseen son fragmentos: un
conocimiento de experimentos desvinculado del
conocimiento del contexto teórico que les dio
significado; trozos aislados de teorías sin relación con
las demás; instrumentos cuyo uso se ha olvidado;
partes de capítulos de libros; páginas arrancadas de
artículos no siempre completamente legibles debido a
los sabotajes y las llamas. En cualquier caso, estos
fragmentos se reencarnan en un conjunto de
prácticas que se conocen con los nombres
restablecidos de física, química y biología. Los
adultos discuten entre ellos en torno a los meritos
respectivos de la teoría de la relatividad, la teoría de
la evolución y la teoría del flogisto, aunque solo
poseen un conocimiento muy parcial de cada una de
ellas. Los niños aprenden de memoria las porciones
conservadas de la tabla periódica y recitan como
ensalmos algunos de los teoremas de Euclides. Nadie,
o casi nadie, da cuenta de que lo que están haciendo
no es ciencia natural en sentido propio 133 .

¿Qué se habría perdido en un mundo como ese?


Precisamente aquello que hace a la ciencia tan especial.
Aunque tuviéramos todo el contenido, conocimiento,
teorías —e incluso los métodos— de la ciencia, nada de esto
tendría sentido sin los valores, actitudes y virtudes de la
práctica científica que permitieron que esos
descubrimientos se produjeran en primer lugar.
Aquí se pone de manifiesto la analogía entre la ética de
la virtud y la ciencia 134 . En el gran debate ético que ha
llegado a nosotros desde Aristóteles, hay quien ha
sostenido que lo que hace correctos determinados actos no
es que cumplan las normas de una teoría moral que
pretenda definir nuestros deberes sobre la base de cómo se
conforman a un criterio ideal, ya sean las consecuencias
(como el utilitarismo), ya sea la adhesión a algún principio
racional (como la deontología); en vez de eso, lo que hace
que la conducta moral sea moral es la virtud de las
personas que la realizan. La gente con un buen carácter
moral se comporta moralmente; la moralidad es lo que
hace la gente moral.
¿Cabe hacer un movimiento similar en el debate en torno
a la ciencia? No creo que sea tan sencillo como decir que la
ciencia es simplemente lo que los científicos hacen; como
en el debate sobre ética, también tenemos que considerar
la naturaleza y el origen de nuestros valores y cómo los
aplica y enjuicia una comunidad más amplia 135 . En
cualquier caso, la analogía es interesante: quizá sea
necesario que nos centremos menos en diferenciar las
teorías científicas de las no científicas y más en las
actitudes epistémicas virtuosas que subyacen a la práctica
de la ciencia 136 . Parte de este trabajo solo está en sus
albores en el campo de la epistemología de las virtudes,
que procede por analogía con las virtudes éticas: si
queremos saber si una creencia está justificada, quizá lo
más conveniente sea que les dediquemos al menos parte de
nuestra atención al carácter, normas y valores de las
personas que la tienen. La aplicación de esto a problemas
relacionados con la filosofía de la ciencia es todavía
bastante reciente, pero ha habido ya algunos trabajos
excelentes que tratan de aplicar los puntos de vista de la
epistemología de las virtudes a problemas tan espinosos
como la infradeterminación y la elección de una teoría en
filosofía de la ciencia 137 .
Espero que en este momento esté claro que no pretendo
elaborar una reivindicación de prioridad a favor de la
actitud científica. Esta idea tiene una larga historia que se
remonta, a través de Popper y Kuhn, al menos hasta
Francis Bacon y probablemente Aristóteles. Lo que espero
dejar claro es que la actitud científica ha sido tristemente
pasada por alto en la filosofía de la ciencia. Puede en
cualquier caso desempeñar un papel preponderante en la
comprensión y defensa de la ciencia al arrojar luz sobre un
rasgo esencial que ha estado ausente en muchos escritos
contemporáneos. Si nos centramos exclusivamente en el
método, podemos olvidar aquello sobre lo que la ciencia
trata más esencialmente.

CONCLUSIÓN

En trabajos previos, algunos filósofos de la ciencia han


considerado que la mejor manera de defenderla consiste en
elaborar una justificación lógica de su método en vez de
observar cómo se lleva a cabo realmente. Cuando esto
produjo un criterio de demarcación en el que pretendía
situar toda y solo la ciencia de un lado —y toda y solo la no-
ciencia del otro—, empezaron los problemas. La razón fue
esta: parece una virtud de la actitud científica que sea lo
suficientemente flexible como para captar por qué la
explicación científica es diferente, pero al mismo tiempo es
lo bastante robusta como para asegurar que, incluso sin un
procedimiento de decisión, todavía podamos decir si la
investigación es científica. Tener una actitud «científica»
hacia la evidencia puede parecer una fórmula algo
imprecisa, pero capta la esencia de lo que significa ser
científico. Poco importa que esta sea una observación
acerca del contexto de descubrimiento (cómo la ciencia
funciona en realidad) o del contexto de justificación (una
reconstrucción racional después del hecho). Pienso que la
mayor amenaza a la credibilidad de la ciencia no procede
de ninguna distinción filosófica entre cómo hacen los
científicos su trabajo y el método que usamos para
justificarlo, sino de la inapropiada introducción de
compromisos ideológicos en el proceso científico. Y la
actitud científica es un bastión precisamente en contra de
esta infección ideológica 138 .
La idea que subyace a la actitud científica es fácil de
formular pero difícil de medir. En cualquier caso,
desempeña un papel crucial tanto en la explicación de
cómo opera la ciencia como en la justificación del carácter
único de la ciencia en tanto forma de conocimiento. La
ciencia debe su éxito justamente a que adopta una actitud
honesta y crítica hacia la evidencia (y ha creado un
conjunto de prácticas, como la revisión por pares, la
publicación y la reproducibilidad para institucionalizar esta
actitud) 139 . Por supuesto, la ciencia no siempre es exitosa.
Uno puede tener una actitud científica y aun así
proporcionar una teoría defectuosa. Pero la fuerza de
preocuparse de la evidencia empírica reside en que
nosotros (y otros) podamos criticar nuestra teoría y ofrecer
una mejor. Cuando estamos tratando de aprender acerca
del mundo empírico, la evidencia debe sobrepasar otras
consideraciones 140 . La evidencia no es siempre definitiva,
pero no puede dejar de ser tenida en cuenta, puesto que el
control que nos proporciona a la luz de la realidad es la
mejor manera de descubrir (o al menos de aproximarse a)
la verdad acerca del mundo.
Esto pone de manifiesto una vez más la naturaleza
tentativa de cualquier teoría científica. La actitud científica
va en plena consonancia con la idea de que nunca podamos
estar seguros de que hayamos alcanzado la verdad: todas
las teorías son provisionales. Pero esto es tal como debe
ser, puesto que lo distintivo de la ciencia no es la verdad de
la teoría newtoniana o einsteiniana, sino el proceso por
medio del cual esas teorías adquirieron fundamentación.
Las teorías científicas son creíbles no meramente porque se
ajusten a los datos de nuestra experiencia, sino porque se
construyen por medio de un proceso que respeta la
evidencia sensible y la idea de que nuestras hipótesis no
tuteladas [untutored] pueden mejorar gracias al choque
con las críticas de otros científicos que están familiarizados
con los mismos datos.
Se nos recuerda una vez más la fragilidad de la ciencia,
pues depende de la disposición de quienes la practican
adoptar la actitud científica. No importa lo fiable que sea
nuestro método: la ciencia no podría funcionar sin la
franqueza y el espíritu de cooperación de los científicos. Si
queremos ser científicos, nuestro compromiso no puede ser
con ninguna teoría dada (aunque sea nuestra) ni con
cualquier ideología, sino con la actitud científica misma.
Otros factores pueden ser tenidos en cuenta, pero al final
siempre son y deben ser sobrepasados por la evidencia. Si
bien esto puede parecer poca cosa, es el meollo de lo
distintivo de la ciencia.

100 Para el argumento clásico, ver Norwood R. Hanson, Patterns of Discovery:


An Inquiry into the Conceptual Foundations of Science (Cambridge, Cambridge
University Press, 1958). Para una excelente reseña, ver Thomas Nickles,
«Introductory Essay: Scientific Discovery and the Future of Philosophy of
Science», T. Nickles (ed.), en Scientific Discovery, Logic, and Rationality
(Dordrecht, Reidel, 1980), 1-59.

101 Esta cita es ampliamente conocida como de Feynman, pero solo es un


fragmento de lo que tenía que decir sobre el tema. Para más información,
consúltese su delicioso ensayo «What Is Science?», Physics Teacher 7, núm. 6
(1968), 313-320.

102 Algunos sostendrían que el problema aquí es mucho más grave —que la
evidencia siempre es ambigua porque hay infinitas teorías posibles que podrían
en principio encajar con los mismos datos—. Véase a este respecto Helen
Longino, «Underdetermination: A Dirty Little Secret?», STS Occasional Papers
4 (Londres, Department of Science and Technology Studies, University College
Londres, 2016). Para más información de contexto, véanse Paul Horwich, «How
to Choose between Empirically Indistinguishable Theories», Journal of
Philosophy 79, núm. 2, (1982), 61-77, y Larry Laudan y Jarrett Leplin,
«Empirical Equivalence and Underdetermination», Journal of Philosophy 88,
núm. 9 (1991), 449-472. Para una discusión general en torno a este problema,
véase Lee McIntyre, «Taking Underdetermination Seriously», SATS: Nordic
Journal of Philosophy 4, núm. 1 (2003), 59-72.

103 Diré más acerca de las prácticas por medio de las cuales los científicos
hacen esto en el capítulo 5.

104 Si bien, ciertamente, podemos buscar indicadores de mal razonamiento.


Los negacionistas y los pseudocientíficos pueden decir que se preocupan por la
evidencia, pero es importante abordar detalladamente el problema de cómo se
demuestra esto. Los pensadores desiderativos pueden tener la esperanza de
que haya evidencia que respalde su teoría, pero no basta con eso. Aquellos que
hacen generalizaciones apresuradas también faltan al respeto a lo que significa
preocuparse por la evidencia. Esgrimir de manera tramposa el apoyo empírico
—seleccionando, por ejemplo, únicamente la evidencia favorable a la teoría que
pretende defenderse— no es preocuparse realmente por la evidencia. La
preocupación por la evidencia se demuestra trabajando duro para ver no solo si
hay evidencia que se ajuste a la teoría, sino también si hay algo que pueda
refutarla. Para más información sobre esta cuestión, véase la discusión sobre el
negacionismo y la pseudociencia del capítulo 8.
105 Y ocasionalmente todo un campo científico puede extraviarse. ¿Qué se
hace cuando el individuo tiene razón y es la comunidad científica la que está
equivocada? Esta cuestión será abordada en el capítulo 8 con el ejemplo de
Harlan Bretz.

106 Peter Achinstein (ed.), Scientific Evidence: Philosophical Theories and


Applications (Baltimore, MD, Johns Hopkins University Press, 2005), 1. Algunas
de las diferentes concepciones de evidencia que Achinstein estudia son (1)
falsacionismo, (2) inductivismo, (3) explicacionista (4) bayesiana y (5)
«anarquista».

107 Ver en particular Deborah Mayo, Error and the Growth of Experimental
Knowledge (Chicago, University of Chicago Press, 1996). El modelo de error
estadístico de Mayo ofrece un estimulante desafío al enfoque bayesiano
dominante. Para otras perspectivas, ver Peter Achinstein, The Book of Evidence
(Oxford, Oxford University Press, 2003), y Clark Glymour, Theory and Evidence
(Princeton, NA, Princeton University Press, 1980).

108 En términos generales, los partidarios de los enfoques subjetivistas


consideran que es razonable basarse en nuestro conocimiento de trasfondo de
las probabilidades previas como punto de partida para evaluar la probabilidad
de una hipótesis, con modificaciones a lo largo del tiempo basadas en la
experiencia. Los frecuentistas cuestionan esto y argumentan que es inútil
adjuntar una estimación de probabilidad a una hipótesis antes de que haya sido
probada a la luz de la experiencia. Mayo argumenta que el conocimiento
científico surge solo de «pruebas rigurosas» de una teoría.

109 Tendré mucho más que decir sobre esto en el capítulo 4.

110 Un ejemplo de esto se ha producido recientemente cuando algunos


astrónomos anunciaron que un telescopio en el Polo Sur había descubierto
«evidencia directa de que en la primera fracción de segundo posterior al big
bang el universo experimentó un extraño crecimiento exponencial». Más tarde
se demostró que el hallazgo era un artefacto de polvo que emite radiación de
microondas. Al principio, los investigadores se resistieron a abandonar sus
conclusiones, pero más tarde se dejaron convencer cuando la evidencia se
volvió abrumadora. Adrian Cho, «Curtain Falls on Controversial Big Bang
Result», Science, 30 de enero de 2015,
<http://www.sciencemag.org/news/2015/01/curtain-falls-controversial-big-
bang-result>.

111 Me ocuparé más detenidamente de la crucial función crítica del juicio de la


comunidad en la evaluación de las teorías científicas cuando llegue el capítulo
5.

112 Nótese que estos breves ejemplos se incluyen aquí para ilustrar lo que
entiendo por actitud científica. Más detalles se aportarán en el capítulo 6
(donde discutiré cómo la actitud científica transformó la medicina moderna) y
en el capítulo 5 (donde discutiré cómo la fusión fría socavó la actitud científica
al no facilitar el escrutinio de grupo del trabajo individual).

113 Carl Hempel, Philosophy of Natural Science (Nueva York, Prentice Hall,
1966), 3-8.

114 Ver el fascinante ensayo de Noretta Koertge «Belief Buddies versus


Critical Communities», en M. Pigliucci y M. Boudry (ed.), Philosophy of
Pseudoscience (Chicago, University of Chicago Press, 2013), 165-180, en el que
argumenta que el examen crítico de las propias ideas por otros científicos es
una manera valiosa de mejorarlas y atraer hacia ellas la atención de una
comunidad más amplia.

115 Roy Porter, The Greatest Benefit to Mankind: A Medical History of


Humanity (Nueva York, Norton, 1999), 369.

116 Porter, Greatest Benefit, 369.

117 Ibíd., 369-370; W. F. Bynum et al., The Western Medical Tradition 1800-
2000 (Cambridge, Cambridge University Press, 2006), 156; Carl Hempel,
Philosophy of Natural Science, 3-8.

118 Otro ejemplo de científico solitario que fue reivindicado después de años
de resistencias es Galileo. Para un ejemplo más moderno —que tiene que ver
con la cuestión de lo que le ocurre a la actitud científica cuando el individuo
está en lo correcto y el grupo, equivocado—, véase mi discusión en el capítulo 8
en torno a Harlen Bretz y su teoría de las megainundaciones en los terrenos
erosionados del este de Washington.

119 En «Belief Buddies», Koertge plantea el interesante punto de que incluso


las ideas de los genios solitarios pueden mejorar gracias a los miembros de una
comunidad crítica.

120 Para una discusión de la fusión fría dentro del contexto de la revisión por
pares, véase el capítulo 5. Véase también Lee McIntyre, Dark Ages: The Case
for a Science of Human Behavior (Cambridge, MA, MIT Press, 2006), 19-20.

121 Véase también el importante ensayo de Robert Merton «The Normative


Structure of Science» (1942) [reimpreso como capítulo 13 en Robert Merton
(ed.), The Sociology of Science (Chicago, University of Chicago Press, 1973)],
que dice algunas cosas enormemente esclarecedoras acerca del papel y la
importancia de los valores en la investigación científica.

122 Esta idea puede ser más importante de lo que parece. ¿Es posible que
Popper no alcanzara a comprender lo fundamental de su propio criterio de
demarcación? Quizá lo más importante no sea si una teoría es falsable, sino si
los científicos que la proponen buscan falsarla. Para una perspectiva
interesante sobre esta idea, véase el ensayo de Janet Stemwedel «Drawing the
Line between Science and Pseudo-Science», en el que escribe: «La gran
diferencia que Popper identifica entre la ciencia y la pseudociencia es una
diferencia de actitud. Mientras que una pseudociencia se establece para buscar
evidencia que apoye sus afirmaciones, [...] una ciencia se establece para
desafiar sus propias afirmaciones y buscar evidencias que puedan probar que
es falsa. En otras palabras, la pseudociencia busca confirmaciones y la ciencia
busca falsaciones», Scientific American, 4 de octubre de 2011,
<https://blogs.scientificamerican.com/doing-good-science/drawing-the-line-
between-science-and-pseudo-science/>.

123 Karl Popper, «Remarks on the Problems of Demarcation and of


Rationality», en I. Lakatos y A. Musgrave (eds.), Problems in the Philosophy of
Science (Ámsterdam, North-Holland, 1968), 94.

124 The Philosophy of Karl Popper, P. A. Schilpp (ed.) (LaSalle, IL, Open Court,
1974), 29.

125 K. Brad Wray, «Kuhn’s Social Epistemology and the Sociology of Science»,
en W. Devlin y A. Bokulich (eds.), Kuhn’s Structure of Scientific Revolutions—50
Years On (Dordrecht, Springer, 2015), 175-176.

126 Thomas Kuhn, The Road since Structure: Philosophical Essays, 1970-1993,
with an Autobiographical Interview, J. Conant y J. Haugeland (eds.) (Chicago,
University of Chicago Press, 2002), 101.

127 Se puede decir, no obstante, que algunos lo hicieron. Téngase en cuenta


nuevamente la discusión de Merton sobre los valores de la ciencia. Enumera
cuatro (comunalismo, universalismo, desinterés y escepticismo organizado), de
los que Sven Hansson —en su ensayo «Science and Pseudo Science» de la
Stanford Encyclopedia of Philosophy— afirma que han sido subestimados
debido a su papel en el debate de la demarcación. Es interesante notar que
Kuhn le dedica algunos comentarios muy elogiosos a Merton en su Estructura
de las revoluciones científicas.

128 Obsérvese aquí la afirmación de Kuhn (véase cap. 1, n. 20) de que no


debemos esforzarnos demasiado por encontrar un criterio de demarcación.

129 Popper, «Science: Conjectures and Refutations», en Conjectures and


Refutations (Nueva York, Harper Torchbooks, 1965), 52.

130 Véase <http://www.earlymoderntexts.com/assets/pdfs/bacon1620.pdf>.

131 Rose-Mary Sargent, «Virtues and the Scientific Revolution», Noretta


Koertge (ed.), en Scientific Values and Civic Virtues (Oxford, Oxford University
Press, 2005), 78.

132 Noretta Koertge (ed.), Scientific Values and Civic Virtues (Oxford, Oxford
University Press, 2005), 10.
133 Alasdair MacIntyre, After Virtue: A Study in Moral Theory (South Bend, IN,
University of Notre Dame Press, 1981), 1

134 En su importante ensayo «The Virtues of Scientific Practice: MacIntyre,


Virtue Ethics, and the Historiography of Science», Daniel Hicks y Thomas
Stapleford reconocen que «aunque la historia y la filosofía de la ciencia no son
el centro de la ética de las virtudes de MacIntyre, la ciencia sirve como ejemplo
prominente en sus escritos», Isis 107, núm. 3 (septiembre de 2016), 4.

135 Como veremos en el capítulo 8, también es posible que la comunidad


científica se equivoque.

136 Al final de su artículo, Hicks y Stapleford defienden precisamente una


visión de este tipo, en la que las virtudes de la ciencia se reconocen por su
papel en la práctica comunitaria por analogía con la concepción de las virtudes
éticas de MacIntyre.

137 Abrol Fairweather (ed.), Virtue Epistemology Naturalized: Bridges


between Virtue Epistemology and Philosophy of Science (Dordrecht, Springer,
2014).

138 ¿Hay algún tipo de relación entre el contenido de una teoría y el


comportamiento de las personas que la proponen? Tradicionalmente, el
problema de la demarcación se ha ocupado de lo primero, pero quizá lo
segundo desempeña también algún papel. Véase aquí la reseña a cargo de
Martin Curd de Philosophy of Pseudoscience de Pigliucci y Boudry, en Notre
Dame Philosophical Reviews (22 de julio de 2014), en la que, citando el artículo
de Boudry, Curd plantea la cuestión de si el comportamiento de los
pseudocientíficos es relevante para el problema de la demarcación,
<http://ndpr.nd.edu/news/philosophy-of-pseudoscience-reconsidering-the-
demarcation-problem/>.

La acción, después de todo, está motivada por valores. Es importante el


enfoque que se le da a la evidencia. Las intenciones son importantes. Esto
parece ajustarse a la actitud científica.

139 Exploraremos estas prácticas de la ciencia en detalle en el capítulo 5.

140 Está claro que también deben preocuparnos la coherencia lógica y la


consistencia de nuestra teoría. Si una teoría es contradictoria consigo misma,
no hay evidencia que pueda salvarla.
CAPÍTULO 4

La actitud científica no tiene por qué


resolver el problema de la demarcación

Si la actitud científica es la mejor manera que tenemos a


nuestro alcance para articular lo que la ciencia tiene de
especial, se plantea inevitablemente la siguiente cuestión:
¿puede proporcionar la largamente esperada solución al
problema de la demarcación? Si así fuera, ¿no debería
determinar un conjunto de condiciones necesarias y
suficientes que permitan distinguir la ciencia de la no-
ciencia? Soy de la opinión de que la filosofía de la ciencia
no tiene ninguna necesidad de extraviarse en esta cuestión,
puesto que toda nuestra tarea consiste en identificar una
condición simple y necesaria para una buena ciencia:
preocuparse por la evidencia y estar dispuesto a usar esa
evidencia para poner a prueba las propias teorías. Si
alguna área potencial de investigación no se presta a esto,
entonces no es ciencia. Así, de acuerdo con el tema de este
libro, uno ve que puede aprender bastantes cosas acerca de
la ciencia atendiendo a lo que no es. Uno no necesita
probar que algo con actitud científica sea ciencia; uno solo
necesita mostrar que algo sin actitud científica no es
ciencia. Que esto constituya un verdadero criterio de
demarcación en el sentido más robusto del término no
parece tan importante como que nos dé lo que necesitamos
para entender en qué consiste lo distintivo de la ciencia.
Recordemos aquí la admonición de Laudan: sin
especificar un conjunto de condiciones necesarias y
suficientes para la ciencia, no podemos pretender hallar la
solución al problema de la demarcación. Sin embargo,
dados los constantes fracasos de los filósofos de la ciencia
en su intento al respecto, argumenta que el problema de la
demarcación está muerto. Por supuesto, incluso si Laudan
está en lo correcto, esto no quiere decir que no pueda
haber discusiones productivas en torno a si la ciencia tiene
algo de especial. Pero también es posible que Laudan se
equivoque al decir que proporcionar un conjunto de
condiciones necesarias y suficientes es a su vez necesario
(o suficiente) para resolver el problema de la
demarcación 141 .
La clave aquí es darse cuenta de a qué altura se está
colocando el listón al decir que tenemos que establecer un
conjunto de condiciones necesarias y suficientes. Al decir
que A es necesario para B, estamos diciendo «si B,
entonces A». De la misma manera, al decir que A es
suficiente para B, estamos diciendo «si A, entonces B».
Cualquier estudiante de lógica reconocerá las
equivalencias en funcionamiento aquí y entenderá que
decir «A es suficiente para B» es equivalente a decir «B es
necesario para A», y, de la misma manera, que «B es
suficiente para A» es equivalente a «A es necesario para
B». Pero aquí es donde ocurre la magia, puesto que cuando
estos dos enunciados se combinan en uno que diga «A es
tanto necesario como suficiente para B» —que, por
supuesto, significa la mismo que «B es tanto necesario
como suficiente para A— se obtiene la equivalencia lógica
entre A y B. Y esta es la relación más fuerte que podemos
encontrar en lógica 142 .
Esto plantea una formidable tarea para la demarcación y
sus implicaciones son asombrosas, puesto que significa que
en la búsqueda de condiciones suficientes y necesarias
para la ciencia perseguimos un criterio que sea
lógicamente equivalente a la ciencia. La mejor ilustración
del coste que esto puede traer consigo se encuentra en
Popper. Recordemos que Popper es ambiguo acerca de si su
noción de falsación —como solución al problema de la
demarcación— está destinada a proporcionar una condición
necesaria para la ciencia, una condición suficiente o una
condición que sea tanto necesaria como suficiente 143 .
Laudan reprende a Popper por su condición suficiente,
sosteniendo que no basta para garantizar los elevados
estándares de la ciencia: ¿qué pasa con áreas como la
astrología, que hacen afirmaciones demostrablemente
falsas (que son seguramente, como consecuencia de ello,
falsables)?, ¿debemos admitirlas como científicas? De la
misma manera, otros han puesto en cuestión la
interpretación de la necesidad según el criterio de Popper
argumentando que es demasiado estricto: ¿qué deberíamos
hacer con aquellos sectores de la investigación científica
que no parecen producir afirmaciones falsables? 144 , ¿no
son ciencias? Pero me gustaría apuntar que también si
hubiera postulado la falsación como un criterio necesario y
suficiente, Popper estaría con el agua al cuello. Más
adelante, cuando Popper escribió: «Una oración (o teoría)
es empírico-científica si y solo si es falsable» 145 , no estaba
resolviendo los problemas formulados más arriba, sino
únicamente combinándolos. Debido a su compromiso con la
equivalencia lógica entre la ciencia y la falsación, recibió
críticas tanto de quienes piensan que su concepción es
demasiado estricta como de quienes consideran que es
demasiado suave 146 .
Para explicar este problema de manera más precisa, es
necesario entender el poder de la relación bicondicional en
lógica. Decir «A si y solo si B» es equivalente a decir «B si y
solo si A». Así, decir que «una teoría es científica si y solo si
es falsable» es equivalente a decir que «una teoría es
falsable si y solo si es científica». Pero esto quiere decir
que «ser falsable» y «ser científica» son lógicamente
equivalentes. Una vez que introducimos «si y solo si» en la
oración, «ciencia» y «falsabilidad» tienen idénticas
condiciones de verdad 147 . Un estándar de necesidad es
demasiado fuerte y un estándar de suficiencia es
demasiado débil. Pero sumándolos, en vez de crear un
criterio que sea «simplemente correcto», los problemas
parecen multiplicarse. Ahora el estándar no puede
satisfacer nuestra intuición de que la biología evolucionista
es científica pero la astrología no 148 .

TABLA 4.1

CRITERIO TIPO PROBLEMA

Si es ciencia, entonces
es falsable ¿No es ciencia la biología
Necesidad
(si no es falsable, no es evolucionista?
ciencia)

Si es falsable, es
ciencia
Suficiencia ¿Es la astrología ciencia?
(si no es ciencia, no es
falsable)

Es ciencia si y solo si
es falsable ¿Es la astrología ciencia pero no la
Equivalencia
(falsable si y solo si es biología evolucionista?
ciencia)

Esta es la razón por la que renuncio al enfoque de


búsqueda de «unas condiciones necesarias y suficientes» al
abordar la actitud científica como medio de entender lo que
hay de especial en la ciencia. Si uno tratara de plantear la
actitud científica como un conjunto de condiciones
necesarias y suficientes, creo que surgirían los mismos
problemas que ya vimos con Popper. En particular,
defender el carácter distintivo de la ciencia no parece
requerir una condición suficiente. Basta con abrazar la
condición necesaria y decir: «Para que una área de
investigación sea una ciencia, tiene que tener una actitud
científica», lo que equivale lógicamente a decir: «Si una
teoría no tiene actitud científica, entonces no es ciencia».
Por supuesto, me doy cuenta de que eligiendo no
especificar una condición suficiente, solo habremos
identificado la no-ciencia, no lo que es ciencia. Pero quizá
no haga falta más. No seremos capaces de afirmar de
manera definitiva, por ejemplo, si la teoría de cuerdas es
científica. Ni incluso el resto de la física. Pero ¿de verdad
esto es tan problemático? Aunque puede que hayamos
empezado preguntándonos si había alguna manera de
mostrar por qué la ciencia es científica, tal vez esa
pregunta esté errada. Quizás el objetivo de averiguar qué
es lo distintivo de la ciencia sea, en cambio, mostrar por
qué algunas áreas de investigación no son científicas.
Podemos definir la ciencia por lo que no es. Esto nos
permite protegerla de impostores. Cuando descubrimos las
propiedades esenciales de la ciencia, podemos usarlas para
decir que si algo no las tiene, entonces no puede ser
ciencia. Pero esto no quiere decir que todo lo que tenga
actitud científica sea ciencia. Se trata de un estándar
necesario, no suficiente.

TABLA 4.2

CRITERIO TIPO

Si es ciencia, entonces tiene actitud científica


Necesidad
(si no tiene actitud científica, entonces no es ciencia)

Si tiene actitud científica, entonces es ciencia


Suficiencia
(si no es ciencia, entonces no tiene actitud científica)
Es ciencia si y solo si tiene actitud científica Equivalencia
(actitud científica si y solo si es ciencia)

Desde Laudan, aquellos que han tratado de proporcionar


un criterio de demarcación han encallado en la cuestión de
las condiciones tanto necesarias como suficientes. No solo
es probable que eso no se pueda hacer (como atestigua la
historia del problema tanto anterior como posterior al
«obituario» de Laudan), sino que además el intento de
seguir el mandato de Laudan trae consigo un coste serio.
Por mi parte, en lugar de eso, propongo que tratemos de
hacer el trabajo atendiendo solo a las condiciones
necesarias de la ciencia, entre las que se encuentra la
actitud científica. Una vez que esté claro que si tenemos
ciencia, entonces debemos tener actitud científica —y que,
por lo tanto, hemos encontrado una condición necesaria
para la ciencia—, también habremos dicho que si no
tenemos la actitud científica, entonces no tenemos ciencia
—lo que resulta ser la condición suficiente para que algo no
sea ciencia—. Cuando decirmos: «si una área de
investigación no tiene la actitud científica, entonces no es
ciencia», la forma lógica es: «si no tiene AC, entonces no es
ciencia», que por contraposición es equivalente a: «si es
ciencia, entonces tiene AC».
Aquí debemos ser cuidadosos. Es tentador en este
momento querer completar la segunda parte del trabajo y
tratar de convertir la actitud científica en un estándar de
suficiencia para la ciencia, de tal manera que podamos
resolver el problema tradicional de la demarcación. Pero
debemos evitar esto. Mientras que las equivalencias
esbozadas en la tabla 4.3 son correctas, las tareas en el
caso 1 y en el caso 2 están completamente separadas.
Afirmo que el caso 1 es todo lo que necesitamos para
identificar lo que tiene de especial la ciencia (y, por
supuesto, el caso 1 no implica en modo alguno el caso 2).
Sería muy costoso comprometerse con el caso 2 y tratar de
presentar la actitud científica como un estándar de
suficiencia para la ciencia. Esto no solo nos llevaría de
vuelta al embrollo de Laudan consistente en especificar las
condiciones necesarias y suficientes para la ciencia (lo cual
significaría defender la aserción de que la actitud científica
es lógicamente equivalente a la ciencia), sino que también
nos enredaría en la controvertida cuestión de las diferentes
maneras en las que algo puede no ser científico.

TABLA 4.3

CASO 1

«si es ciencia, El estándar de necesidad para la ciencia es equivalente


entonces AC» al estándar de suficiencia para la no-ciencia
es equivalente a
«si no AC,
entonces no es
ciencia».

CASO 2

«si AC, entonces El estándar de suficiencia para la ciencia es


ciencia» equivalente al estándar de necesidad para la no-
ciencia.
es equivalente a
«si no es ciencia,
entonces no AC».

Recordemos que el estándar de suficiencia es el estándar


de necesidad para la no-ciencia. Pero ¿por qué debería
importarnos en absoluto el estándar de necesidad para la
no-ciencia? Hay una miríada de maneras en las que una
investigación puede no ser científica, principalmente
porque no pretenda serlo. La astrología y el creacionismo
son cosas distintas; aquí los temas de investigación parecen
empíricos, de tal manera que deberíamos ocuparnos de
cómo no son ciencia. Todos estos campos pueden carecer
de actitud científica, pero ¿estamos verdaderamente en
condiciones de decir que se trata de una condición
suficiente para la ciencia? Todo lo que uno tiene que decir
es que si estas áreas no adoptan la actitud científica —cosa
que, por diferentes razones, ninguna de ellas hace—, no
son ciencias. Nuestro proyecto actual solo requiere que la
ausencia de actitud científica sea suficiente para no ser
ciencia, no que solo haya una manera de no ser ciencia.
Esto puede ser más bien una pregunta viva cuando nuestro
interés se dirige a aquellos ámbitos de estudio de las
ciencias sociales que quieren ser considerados científicos,
pero que no alcanzan todavía el estándar. Sin embargo,
aquí nuestra visión original da sus frutos: puede haber
muchas maneras de no ser ciencia, pero solo una de serlo:
es necesario adoptar la actitud científica. Así, declaro que
uno puede decir algo interesante acerca de lo que tiene la
ciencia de especial sin resolver el tradicional problema de
la demarcación.
Es importante ser sensible a la cuestión de la
condescendencia a la hora de juzgar lo que es y lo que no
es la ciencia. A diferencia de algunos que han lidiado con el
problema de qué tiene de especial la ciencia, sostengo que
la actitud científica no nos obliga a decir que toda no-
ciencia constituya una búsqueda humana de rango inferior.
(¡De hecho, mejor que no sea así, puesto que la filosofía
estaría incluida en ese campo!) La literatura, el arte, la
música... Ninguna de ellas es ciencia. No tienen actitud
científica, pero eso es por completo lo esperado. El
problema, por el contrario, procede de ciertas disciplinas
no científicas que están tratando de presentarse a sí
mismas como científicas. En la astrología, el creacionismo,
la curación por fe, la radiestesia, etcétera, encontramos
disciplinas que están haciendo afirmaciones empíricas,
pero que se niegan a someterse a las prácticas de la buena
ciencia, una de las cuales es tener la actitud científica hacia
la evidencia. Solo están, en definitiva, haciendo como si
fueran científicas. Aquí parece más apropiado tratar con
desdén aquellos campos que se disfrazan de ciencias o
proclaman tener algún tipo de acceso especial al
conocimiento empírico fuera de los canales de la práctica
científica. Cuando uno se embarca en la búsqueda del
conocimiento empírico, un grave inconveniente es esquivar
los valores de la ciencia.

¿ES POSIBLE TODAVÍA DIFERENCIAR LA CIENCIA DE LA


PSEUDOCIENCIA?

Alguien podría objetar que todo lo que he hecho hasta


este momento ha sido hacer retroceder un paso el
problema de la demarcación. Algunos han abordado el
problema de la demarcación no como una línea divisoria
entre la ciencia y la no-ciencia, sino entre la ciencia y la
pseudociencia. La virtud de este enfoque es que va
directamente adonde está el problema: aquellos campos
que hacen afirmaciones empíricas, pero que solo fingen ser
ciencias. ¿Debería usar la actitud científica como criterio
de demarcación entre la ciencia y la pseudociencia, y
cortar toda conexión con la cuestión de las no-ciencias
como la literatura o la filosofía que no hacen afirmaciones
empíricas? Quizás a alguien pudiera parecerle conveniente
hacer eso, añadiendo criterios a la actitud científica tales
como «hacer afirmaciones empíricas» o «no hacerse pasar
por ciencia» 149 en busca de un intento de resolver el
problema de la demarcación entre la ciencia y la
pseudociencia. Pero creo que hay problemas de calado en
proceder de esta manera.
Como pudimos comprobar en el capítulo 1, si le echamos
un vistazo a la literatura en torno a la demarcación,
encontraremos inquietantes equivocaciones a propósito de
si se supone que la ciencia tiene que yuxtaponerse a la no-
ciencia o a la pseudociencia. Los positivistas lógicos se
mostraron preocupados por distinguir la ciencia de la
metafísica (que uno podría considerar un tipo de no-ciencia
que los positivistas querían excluir con cierta carga de
prejuicios). Karl Popper, en su Lógica de la investigación
científica, se muestra preocupado por la no-ciencia, pero en
la época en la que escribe Conjeturas y refutaciones,
caracteriza a su enemigo como «pseudociencia». Incluso
Laudan es ambiguo acerca de si la Némesis de la ciencia es
la no-ciencia o la pseudociencia 150 .
Sin embargo, aquí radica la diferencia. Dadas las
cuestiones lógicas que acabamos de explorar alrededor de
las condiciones necesarias y suficientes, es fundamental
entender la ciencia mirando a todas las demás cosas que no
son ciencia, no solo a las que tratan de hacerse pasar por
ciencia. Sí, es tentador reservar un oprobio especial para
los farsantes y los negacionistas, los petulantes y los
charlatanes, y en los capítulos 7 y 8 me dedicaré,
precisamente, a eso. Pero al considerar la cuestión de la
demarcación con relación a las condiciones necesarias y
suficientes, la lógica es firme: toda investigación tiene que
ser ciencia o no-ciencia. Las condiciones necesarias para la
ciencia son las condiciones suficientes para la no-ciencia,
no para la pseudociencia. Si bien es verdad que muchos de
los trabajos contemporáneos acerca del problema de la
demarcación desde Laudan lo interpretaron como un
debate entre la ciencia y la pseudociencia, esto es
problemático. Como argumenté anteriormente (en el
capítulo 1), los planteamientos tanto de Hansson como de
Boudry fracasan precisamente porque no distinguen entre
la no-ciencia y la pseudociencia 151 .
Creo que la distinción correcta es la siguiente: el
problema de la demarcación se refiere propiamente a la
ciencia frente a la no-ciencia. La categoría de no-ciencia
incluye —entre otras cosas— dominios que son acientíficos
(como las matemáticas, la filosofía, lo lógica, la literatura y
el arte), que no desean hacer afirmaciones empíricas, y
otros que son pseudocientíficos (como la astrología, el
diseño inteligente, la curación por la fe y la percepción
extrasensorial [ESP por sus siglas en inglés]), que desean
tener protagonismo en la arena empírica, a pesar de que
desobedecen el estándar de la buena evidencia 152 . Otros
campos, como la ética o la religión, son difíciles de
categorizar. Algunos académicos han sostenido, por
ejemplo, que la ética es completamente normativa y que,
por tanto, debería unirse al resto de la filosofía en la
categoría de «acientífica». Otros afirman que hay partes de
la ética que tienen la pretensión de ser científicas —o que
incluso cumplen esa aspiración—, de tal manera que su
estatuto como ciencia o pseudociencia depende del punto
de vista que se adopte. La religión, en tanto que hace
afirmaciones empíricas sobre una base espiritual, es más
fácil de clasificar como pseudociencia, pero hay quien
sostiene —como Galileo— que a la religión no le compete el
ámbito de lo empírico, por lo que debería ser considerada
acientífica 153 . Por mucho que me adhiera al deseo de
despreciar la pseudociencia por sus deficiencias y
deshonestidad, un enfoque más directo es reconocer que la
actitud científica hace su trabajo tanto para identificar por
qué la literatura y el arte no son ciencia (porque se
preocupan por la evidencia empírica solo en la medida en
la que nutran su base para la expresión creativa y no para
probar o refutar teorías científicas) como por qué la
astrología y el creacionismo no lo son (porque solo fingen
preocuparse por la evidencia empírica y no están
dispuestos a revisar sus teorías). Son dos pájaros de un
tiro. No necesitamos más.
¿Debería haberme confinado en este libro a discutir solo
aquellos campos que buscan hacer afirmaciones empíricas
y a intentar hacer de esta manera una diferenciación entre
la ciencia y la pseudociencia? Por las razones que ya he
dado, he elegido la ruta lógicamente más limpia. ¿Por qué
buscar un criterio de necesidad adicional para la ciencia
(en el mejor de los casos) o suficiente (en el peor), cuando
la actitud científica ya hace el trabajo de señalar qué tiene
de especial la ciencia? Así, no creo que meramente haya
retrasado un paso el problema de la demarcación. Nunca
prometí demarcar entre los campos acientíficos y los
pseudocientíficos —entre la literatura y el creacionismo,
digamos— 154 . También parece una virtud de mi
planteamiento que abra un camino para que aquellos
campos no científicos que no son pseudocientíficos (pero
quizás incluso para estos) emulen los elevados estándares
de la ciencia.
Este libro no solo defiende la ciencia, sino que hace
proselitismo a favor de ella. Así, busco dar cabida a todas
las áreas en las que pueda haber una preocupación genuina
por la evidencia empírica —como las ciencias sociales—,
pero que pueden no haber sido siempre fieles a la actitud
científica, tal vez porque no se dieron cuenta de que era el
ingrediente esencial para ser más riguroso. Creo también
que adoptar la actitud científica puede ayudar a convertir
un campo inicialmente pseudocientífico en una ciencia
triunfante, al igual que ocurrió en la historia de la
medicina 155 . Para entender lo que tiene la ciencia de
especial, uno no tiene por qué ponerse furioso con todo lo
que no sea ciencia ni condenarlo. Decir que la sociología
cualitativa no es ciencia es desprecio suficiente; no hace
falta equipararla con la brujería. Al leer a Popper, se
percibe el deleite que experimenta al despachar la obra de
Adler, Freud y Marx a un tiempo con la astrología. Sin
embargo, quizá Freud, por ejemplo, no reconoció los
estándares empíricos que su investigación debía cumplir y
pudo tal vez emular mientras buscaba ser más científica. Si
los filósofos de la ciencia pusieran más cuidado en
identificar las condiciones necesarias para la ciencia,
¿podría incluso la psicología freudiana ser rehabilitada
para adoptar la actitud científica? 156 . Mientras sea posible,
prefiero abstenerme de emitir juicios acerca de aquellas
áreas que no son científicas. La actitud científica es un
recurso arrojado al campo de batalla empírico al alcance de
cualquier disciplina que quiera ser más rigurosa.
Por supuesto, muchas cuestiones quedan por resolver.
En el capítulo 5, me ocuparé del problema de quién juzga si
alguien tiene actitud científica y con respecto a qué patrón.
En el capítulo 8, discutiré cómo tratar a aquellos que no
alcanzan la actitud científica, ya sea deliberadamente o por
la falsa creencia de que ya la han adoptado, aunque sea
evidente para la comunidad científica que algo falla. En
este momento, sin embargo, es importante tener en cuenta
dos cuestiones todavía no abordadas que los partidarios de
la demarcación tendrán en mente. En primer lugar, ¿tan
terrible sería que yo intentara convertir la actitud científica
en un estándar de suficiencia y no solo de necesidad? Y, en
segundo lugar, aun si no estuviera dispuesto a hacer eso,
¿no podría con todo afirmar que he resuelto el problema de
la demarcación redefiniéndolo?

¿DEBERÍA LA INVESTIGACIÓN COTIDIANA CONSIDERARSE CIENCIA?

Ya hemos abordado las consecuencias de negarnos a


usar la actitud científica para demarcar la ciencia de la
pseudociencia, y lo cierto es que esto suponía agrupar
algunas disciplinas como la literatura y la filosofía con la
astrología y el creacionismo en el lado no científico del
recuento. Antes afrontamos el hecho de que un estándar de
necesidad por sí solo no nos permite decir de cualquier
disciplina dada que es ciencia, sino únicamente que no lo
es. Cuando nos negamos a especificar un estándar de
suficiencia para la ciencia, este es el precio que pagamos:
¿nos obliga la confianza en la actitud científica únicamente
como estándar de necesidad a descartar demasiadas cosas?
Llamémoslo el problema de la exclusividad. Pero ¿qué hay
de la otra mitad del problema? ¿Qué pasaría si súbitamente
nos encontráramos tentados a postular la actitud científica
como estándar de suficiencia —junto con el de necesidad—
y así intentar resolver el problema de la demarcación? Esto
traería consigo a su vez sus propios problemas.
Recordemos a Popper: al postular la falsabilidad como
criterio tanto necesario como suficiente para la ciencia, no
resolvió sus problemas sino que los duplicó. Lo mismo
ocurriría aquí. Si dijéramos que adoptar la actitud científica
es suficiente para ser científico, correríamos el riesgo de
admitir todo tipo de investigaciones empíricas arbitrarias
en el panteón de la ciencia. ¿Estarían contentos los
demarcacionistas si pudieran considerar la fontanería y la
reparación de televisores como ciencias? Llamaremos a
esto el problema de la inclusividad.
Un ejemplo conspicuo —que ilumina aquellas ocasiones
mundanas en las que podemos estar pensando
científicamente, pero puede decirse que no «haciendo
ciencia»— consiste en buscar las llaves 157 . Supongamos
que mi hermano ha perdido sus llaves. Sabe que la última
vez que las vio estaban en casa, así que no se molesta en
buscarlas en el patio ni en el coche. Las llevaba en la mano
mientras abría la puerta principal, por lo que deben de
estar en algún lugar dentro de casa. Primero, se concentra
en los lugares más probables —los bolsillos de su pantalón,
el cajón del vestíbulo, al lado del televisor— y luego amplía
la búsqueda desandando lo andado desde que entró en
casa. Empieza por el pasillo, continúa por el baño, donde se
había estado lavando las manos, y de ahí pasa a la cocina,
donde se había preparado un sándwich antes de ponerse a
comerlo sentado en el sofá. Es allí donde encuentra las
llaves entre los cojines. Podría decirse que, en lo que ha
durado su búsqueda, se ha servido de la actitud científica.
Se preocupó por la evidencia empírica y estuvo tratando de
aprender de la observación (mientras miraba en varios
sitios e iba descartándolos uno por uno). Estuvo
continuamente cambiando de hipótesis («la llave puede
estar en el lugar X»). Pero ¿es eso ciencia?
Si bien algunos pueden tener la tentación de decir que
sí, sospecho que la mayoría de los científicos y filósofos de
la ciencia (y prácticamente todos los demarcacionistas)
preferían decir que no y empezar a buscar un criterio
adicional para evitarlo. Esta es la atracción gravitacional
del estándar de suficiencia. ¿Cómo puede ser que buscar
las llaves, hacer trabajos de fontanería o reparar un
televisor puedan considerarse ciencias al lado de la física?
158 . Una ruta aquí podría consistir en introducir la idea
anteriormente vista de «necesitar tener una teoría» como
criterio para hacer ciencia. Como vimos en el capítulo 2, a
esto se debió en la historia de la astronomía la caída de la
famosa ley de Bode. Encajaba con la evidencia, pero solo
merced a la manipulación masiva de datos y a un poco de
suerte. Para que uno «se preocupe por la evidencia y esté
dispuesto a cambiar su teoría sobre la base de nuevas
pruebas o indicios», ¿no debe haber una teoría en juego?
Pero esta es una pregunta difícil. Podría decirse que para
mi hermano hay una teoría en juego. Quizá no se trate de
una teoría a la par con la de la evolución por selección
natural, pero en cualquier caso puede ser una teoría.
¿Realmente en este punto quiero establecer una
demarcación entre una teoría científica genuina y una
teoría científica no genuina?
Es por esto precisamente por lo que más atrás sostuve
que debemos evitar la tentación de postular la actitud
científica como condición suficiente para la ciencia. Si uno
rehuyó anteriormente la idea de no ser capaz de decir ni
tan siquiera de la física que era científica, ¿debería estar
dispuesto ahora a admitir que la búsqueda de unas llaves
es ciencia? Como vimos antes, Laudan afirmó que debemos
resolver las dos mitades del problema de la demarcación;
de lo contrario, seremos vulnerables, bien al problema de
la inclusividad, bien al de la exclusividad. Para un filósofo
de la ciencia, el primer reflejo puede consistir en mirar
hacia la lógica o la metodología y tratar de hacer esto:
ampliar la lista de criterios conforme a los cuales podamos
clasificar la física y la búsqueda de unas llaves en
diferentes lados de la ecuación, de la misma manera que
podemos esperar hacer entre la literatura y el
creacionismo. Pero no voy a hacer eso, porque pienso que
es una cuestión controvertida la de especificar las muchas
maneras en las que algo puede no ser ciencia. La actitud
científica no puede postularse como condición suficiente
para la ciencia, puesto que no funciona como condición
necesaria para la no-ciencia. Entonces, ¿a qué se reduce la
demarcación, además de a decir que ya sabemos qué
disciplinas consideramos científicas y cuáles no? 159 .

TABLA 4.4

CRITERIO TIPO PROBLEMA

Si es ciencia, entonces
Exclusividad:
AC
Necesidad ¿debería la literatura agruparse junto
(si no AC, entonces no
con el creacionismo?
es ciencia)

Si AC, entonces es
ciencia Inclusividad:
Suficiencia
(si no es ciencia, ¿es «buscar las llaves» ciencia?
entonces no AC)

La actitud científica es una idea poderosa para


identificar lo esencial de la ciencia; sin embargo, puede no
ser capaz de clasificar todas las disciplinas, de tal manera
que solo la física, la química, la biología y sus compañeras
terminen en el lado correcto de algún criterio de
demarcación. Buscar unas llaves de forma sistemática es
una mentalidad. Es una actitud. Que uno esté dispuesto o
no a aceptar esto como científico quizás importe muy poco.
No hay la necesidad de crear un conjunto completo de
condiciones necesarias y suficientes para que la ciencia se
quede excluida. De hecho, al usar la actitud científica como
estándar de suficiencia, ¡esto puede ser la misma cosa que
le permita colarse a hurtadillas! 160 . Hay virtud en
mantener una definición simple de la actitud científica. Es
una disposición, no un procedimiento. No hay una lista de
verificación por medio de la cual podamos comprobar que
está presente; lo que sentimos más bien es su ausencia. Por
tanto, me resisto a la idea de que ahora debemos tratar de
acumular cada vez más condiciones individualmente
necesarias —de tal manera que uno pueda terminar con un
conjunto completo y correcto de criterios o incluso con el
temido método en cinco pasos— y, reconocer que la actitud
científica meramente identifica una mentalidad que todo
buen científico debería adoptar hacia los datos. El objetivo
de la actitud científica no es elaborar una lista interminable
de condiciones para la ciencia, sino señalar que esta
sencilla propiedad esencial está habitualmente ausente de
aquellas ideologías que se limitan a disfrazarse de ciencias,
y también de aquellas otras áreas de investigación —como
las ciencias sociales— que desearían abandonar la
penumbra de la ideología rumbo a un mayor rigor
científico 161 . Con decir que la actitud científica es
necesaria para la ciencia, basta.
De acuerdo con la célebre máxima de Émile Durkheim de
que «El sociólogo [debería] ponerse a sí mismo en el mismo
estado mental que el físico [...] cuando indaga en una
región todavía inexplorada del dominio científico [...] —
tiene que estar preparado para descubrimientos que le
sorprenderán y conturbarán» 162 —, los buenos científicos
deben abordar sus estudios con curiosidad y humildad.
Ciertamente, no deberían considerar que tienen todas las
respuestas antes de haber examinado la evidencia (y quizá
entonces tampoco). Más flexible que la falsabilidad, la
actitud científica puede ayudarnos no solo a expandir la
ciencia hacia otras áreas en las que hay hechos empíricos
—como el estudio del comportamiento humano—, sino
también a criticar aquellos casos de fraude y engaño en los
que las ciencias naturales han cometido el pecado de
acomodar los datos en un intento de hacerlos encajar con
creencias extraempíricas. Y, como veremos en los próximos
capítulos, nos ayudará a identificar lo que está mal en el
negacionismo científico y la pseudociencia.
Quizás algún futuro filósofo de la ciencia pueda querer
buscar otras condiciones necesarias que, cuando se añadan
a la actitud científica, puedan constituir una serie de
criterios individualmente necesarios y suficientes en su
conjunto por medio de la cual queden integradas la
medicina, la física, la biología evolucionista y la teoría de
cuerdas, y excluidas la astrología, la curación por la fe, «la
búsqueda de las llaves» y la ley de Bode 163 . Pero esa no es
aquí mi tarea. Todo lo que estoy intentando hacer es
identificar una condición muy importante que sea esencial
para que la ciencia avance, la cual, según he sostenido, es
la actitud científica. Esto es lo que está ausente en la no-
ciencia. Así, espero haber encontrado una manera de
defender la ciencia mediante la especificación de lo más
distintivo que tiene, sin dejarme arrastrar a proporcionar
un conjunto de criterios necesarios y suficientes dirigido a
resolver el problema de la demarcación.

¿NO PUEDE DE TODAS MANERAS LA ACTITUD CIENTÍFICA FUNCIONAR


COMO UN CRITERIO MODIFICADO DE DEMARCACIÓN?

Queda una cuestión importante. Incluso si rechazo la


idea de un conjunto de condiciones necesarias y suficientes
para la ciencia, ¿podría tratar de recuperar de Laudan el
problema de la demarcación? 164 . Muchos comentaristas en
este debate se han percatado de que ni los científicos ni los
filósofos parecen tener demasiados problemas a la hora de
identificar lo que es ciencia y lo que no, a pesar de que
haya bastante discrepancia en torno a cómo hacerlo 165 .
Como observa Laudan, prácticamente todos los intentos de
establecer un conjunto de condiciones necesarias y
suficientes para la ciencia han fracasado. ¿No es ese el
precio que uno paga por tratar de marcar la diferencia
entre la ciencia y la no-ciencia? ¿O puede uno tratar de
demarcar la ciencia de la no-ciencia sin acatar el mandato
de Laudan de proporcionar unas condiciones necesarias y
suficientes? 166 .
Esta estrategia es la que sigue Pigliucci en su ensayo
«The Demarcation Problem: A (Belated) Response to
Laudan». Ahí se muestra de acuerdo con Laudan en que
nadie puede resolver el problema de proporcionar unas
condiciones necesarias y suficientes para la ciencia, pero
prosigue diciendo que el problema de la demarcación
probablemente pueda resolverse de otra manera, mediante
el reconocimiento de que hay un «grupo de conceptos»
activo en la ciencia que viene a delimitar unas «fronteras
difusas». Recordemos aquí nuestra discusión del capítulo 1
en torno a la idea de Pigliucci de que es mejor seguir un
proyecto wittgensteiniano de identificar los «parecidos de
familia» en funcionamiento en vez de buscar un criterio
lógico duro y rápido 167 . Esto puede abrir una nueva senda
para entender la ciencia. Pero temo que también pueda
llevarnos peligrosamente cerca de vaciar el debate en torno
a la demarcación de todo contenido.
En un ensayo posterior, «Scientism and Pseudoscience:
In Defense of Demarcation Projects», Pigliucci ofrece de
nuevo su interpretación de la solución basada en el
«parecido de familia» wittgensteiniano al problema de la
demarcación (que caracteriza ahora como el punto de vista
del «consenso» entre los filósofos de la ciencia) 168 . Aquí,
sin embargo, parece haberse irritado con la idea de que el
tipo de «fronteras difusas» que uno debe tolerar en
ausencia de un criterio lógico duro y rápido debería admitir
siempre como ciencia una especie de «investigación
cotidiana» como la que acabamos de considerar en la
última sección (tal que buscar unas llaves extraviadas).
Escribe:

No tiene mucho sentido decir que la fontanería es


ciencia, ni incluso que las matemáticas son ciencia.
La ciencia es lo que hacen los científicos, y los
científicos hoy en día tienen roles, herramientas y
modus operandi claramente definidos tales que les
permiten distinguirse a todos ellos de los fontaneros
y los matemáticos, por no mencionar a los filósofos,
historiadores, críticos literarios y artistas 169 .

Parece que hemos saltado aquí directamente desde la


idea de Hansson de que «sabemos lo que es la ciencia,
aunque tengamos problemas para decirlo» a la de Pigliucci
de que «la ciencia es lo que hacen los científicos». Sin
embargo, esto no se asemeja en absoluto a un criterio 170 .
De hecho, si uno cree esto, ¿no puede simplemente decir:
«Reconozco la ciencia cuando la veo», y terminar con el
asunto? Si esto fuera así, uno se imagina que los
creacionistas y negacionistas del cambio climático —que
recientemente han adoptado algunas tácticas relativistas
del posmodernismo— estarán entusiasmados 171 .
Si bien estoy de acuerdo con Pigliucci en que lo mejor es
abandonar el enfoque de las condiciones necesarias y
suficientes de Laudan, pienso en cualquier caso que es
posible especificar las propiedades esenciales de la ciencia.
Reconozco que —como yo— Pigliucci quiere salvar la
ciencia de los charlatanes 172 , pero quizá vaya demasiado
lejos con sus «fronteras difusas» ¿No podemos contar al
menos con un criterio de necesidad?
No creo que la ciencia sea meramente «lo que hacen los
científicos», ni siquiera aunque sea algo íntimamente
relacionado con las buenas prácticas que surgen de los
valores fundamentales que comparten los científicos
individuales y la comunidad científica 173 . Como veremos en
el próximo capítulo, la comunidad científica desempeña un
papel fundamental en el establecimiento de los medios
prácticos para vigilar las creencias, normas, valores y el
comportamiento que constituyen la actitud científica. La
buena práctica científica probablemente no pueda
especificarse mediante un conjunto exhaustivo de reglas,
pero seguramente sea más de lo que la comunidad
científica se incline a creer 174 . Pigliucci afirma
esclarecedoramente:

La ciencia es una actividad inherentemente social,


dinámicamente circunscrita por sus métodos, sus
materias, sus costumbres sociales (incluyendo la
revisión por pares, las concesiones, etcétera), y su
papel institucional (dentro y fuera de la academia, las
agencias gubernamentales y el sector privado) 175 .

Pero creo que se equivoca al extraer de aquí la


conclusión de que la ciencia es lo que hacen los científicos.
¿Ha olvidado que la verdadera amenaza aquí la plantean
las pseudociencias? En mi opinión, es posible ser mucho
más específico y afirmar que lo distintivo de la ciencia es la
actitud científica, y que esa idea puede defenderse
renunciando solo en parte a Laudan, en reconocimiento en
la virtud de ser capaz de decir lo que no es ciencia, aunque
no pueda decirse definitivamente lo que es ciencia.
Que elijamos ver esto como el abandono del enfoque de
las condiciones necesarias y suficientes y del problema de
la demarcación —o, en vez de eso, como un intento, similar
al de Pigliucci, de rescatar el problema de la demarcación
del exigente estándar de Laudan— tiene poca relevancia
para mí. Seguramente habría virtudes en aceptar mi
enfoque de «estándares de necesidad de la ciencia y
estándares de suficiencia de la no-ciencia» como solución a
alguna versión modificada del problema de la demarcación,
pero probablemente esto también tendría costes. Para
empezar, ¿cómo podríamos usar algo tan amorfo como las
creencias y valores que conforman la actitud científica
como criterio de demarcación? ¿Cómo se puede medir eso?
Esta es la razón por la que en enfoque metodológico
funciona tan bien para un criterio de demarcación,
mientras que el actitudinal quizá se quede corto. Sin
embargo, la lástima aquí parece ser no tanto para la actitud
científica como para quienes buscan explicar la ciencia
únicamente haciéndola encajar en el esquema de la
demarcación. La actitudes y los valores son reales, aunque
sean difíciles de medir. Así, me doy por satisfecho con decir
que el enfoque de la actitud científica para entender la
ciencia puede llevar al abandono del problema tradicional
de la demarcación, aunque pueda conservar la idea de que
uno puede especificar una propiedad esencial de la ciencia
que le confiera un estatuto epistémicamente privilegiado.

TABLA 4.5

TIENEN ACTITUD CIENTÍFICA


— La ciencia natural (creencias basadas en la evidencia)
— Las áreas de legítima discrepancia científica (evidencia no concluyente,
creencia suspendida)
— Lo erróneo pero científico (teorías falsas pero justificadas por la evidencia
de la época)
— Las ciencias sociales (que se valen de la experimentación y la evidencia)
— La investigación cotidiana (que se basa en la evidencia)

NO TIENEN ACTITUD CIENTÍFICA (NO-CIENCIA)


— Matemáticas y lógica (no son empíricas)
— La literatura, el arte y áreas similares (no son empíricas ni intentan ser
ciencias)
— Las ciencias sociales (que no se basan en la evidencia)
— La mala ciencia (negligencias, errores, restricciones presupuestarias)
— El fraude (mentiras, engaños, falsedades)
— La pseudociencia (hace como si fuera ciencia, pero rechaza adherirse a
los patrones que exige la buena evidencia)
— El negacionismo (de base ideológica; no se preocupa por la evidencia)

¿Qué repercusiones tendría esto con respecto a la


clasificación de las disciplinas? Aunque no sea un criterio
de demarcación, puede que sea interesante observar el
aspecto que tendría el universo de la investigación
conforme al estándar de necesidad de la actitud científica.
Téngase en cuenta que aquí no se trata de diferenciar entre
la ciencia y la no-ciencia. Con solo un estándar de
necesidad, uno solo puede decir: «Si es ciencia, entonces
tiene actitud científica». Uno no puede decir: «Si tiene
actitud científica, entonces es ciencia». Así, la actitud
científica nos permite ser específicos solo acerca de lo que
no es ciencia, y no acerca de lo que es ciencia 176 .
Puede que la actitud científica ofrezca menos que un
criterio de demarcación tradicional, pero es una
herramienta poderosa en nuestro intento de entender qué
tiene la ciencia de especial. Podemos no estar en
condiciones de garantizar que toda área que tenga la
actitud científica sea una ciencia, pero al demostrar que los
ámbitos que no la tengan no son ciencia, podemos alcanzar
un conocimiento más íntimo de la ciencia.
Pero ¿quién debería pronunciarse en torno a la cuestión
crucial de si alguien está siguiendo buenos estándares
basados en la evidencia y adoptando por tanto la actitud
científica? Como veremos en el próximo capítulo, esto va
más allá de los valores de cualquier científico individual y
tiene que involucrar el juicio de la comunidad científica en
su totalidad.
141 Véase mi discusión anterior en torno al «meta-argumeto» de Laudan en el
capítulo 1, n. 27.

142 En lógica, «si A, entonces B» añadido a «si B, entonces A» nos proporciona


«A si y solo si B», que es la aseveración de la equivalencia lógica de A y B. Si el
lector quiere saber más acerca de los vericuetos que siguen los lógicos en su
uso de frases como «condiciones necesarias y suficientes», las relaciones entre
«si», «solo» y «si y solo si» y términos como «bicondicional», «contraposición»
y «equivalencia lógica», hay una buena cantidad de manuales de introducción a
la lógica, ninguno mejor que el de E. J. Lemmon, Beginning Logic (Cambridge,
MA, Hackett, 1978).

143 Véase la discusión del capítulo 1. Feleppa sostiene que solo pretende ser
un criterio de necesidad [«Kuhn, Popper, and the Normative Problem of
Demarcation», en Patrick Grim (ed.), Philosophy of Science and the Occult
(Albany, NY, SUNY Press, 1990)], pero téngase en cuenta la afirmación
(posterior) de Popper de que es un criterio de suficiencia y de necesidad.

144 Recordemos aquí la afirmación de Popper de que la biología evolucionista


no es falsable.

145 Popper, «Falsifizierbarkeit, zwei Bedeutungen von» ([1989], 1994), 82.

146 Laudan parece pensar que la razón para postular condiciones tanto
necesarias como suficientes es que ambas son necesarias como protección
frente a las críticas que podrían formularse únicamente en contra del otro
criterio. Pero tal vez este no sea el caso y, en cambio, hace que el criterio se
torne vulnerable a ataques por los dos lados.

147 Lo que quiere decir que son verdaderas bajo circunstancias idénticas. Si
algo satisface el criterio de ser ciencia, entonces satisface el criterio de ser
falsable, y a la inversa.

148 A este respecto la observación que acaba de hacerse en contra de Laudan


en la nota 6 de este capítulo parece relevante. ¿Cómo puede proteger a Popper
la falsabilidad como estándar de suficiencia de la crítica consistente en que su
criterio de necesidad «es incompatible con la consideración de la biología
evolucionista como ciencia»? De la misma manera, ¿cómo le protege la
falsabilidad como estándar de suficiencia frente a la crítica consistente en que
su criterio de suficiencia admite la astrología como ciencia?

149 ¡Piénsese solo en la dificultad de encontrar un criterio que mida esto!

150 Véanse Karl Popper, The Logic of Scientific Discovery (Nueva York, Basic
Books, 1959); Karl Popper, Conjectures and Refutations (Nueva York, Harper
Torchbooks, 1965); Larry Laudan, «The Demise of the Demarcation Problem»,
en Beyond Positivism and Relativism (Boulder, CO, Westview Press, 1996).
151 Véase Boudry, «Loki’s Wager and Laudan’s Error», 80-82, y Hansson,
«Defining Pseudoscience and Science», 61-77, ambos en M. Pigliucci y M.
Boudry (eds.), The Philosophy of Pseudoscience: Reconsidering the
Demarcation Problem (Chicago, University of Chicago Press, 2013). ¿Es
Pigliucci culpable de esto también? En su ensayo «The Demarcation Problem»,
renuncia a resolver el problema de la demarcación apelando a condiciones
necesarias y suficientes, y afirma que el enfoque general que busca definir un
criterio de demarcación es «difuso», plausiblemente porque pretende
diferenciar entre la ciencia y la pseudociencia en lugar de entre la ciencia y la
no-ciencia.

152 Véase la figura 1.1. Para una discusión más detallada de este problema,
véase el capítulo 1. Véanse también: Tom Nickles, «The Problem of
Demarcation: History and Future», 101-120, y James Ladyman, «Toward a
Demarcation of Science from Pseudoscience», 45-49, ambos en M. Pigliucci y
M. Boudry (eds.), Philosophy of Pseudoscience (Chicago, University of Chicago
Press, 2013).

153 Es conocido que Galileo dijo: «La intención del Espíritu Santo es
enseñarnos cómo ir al cielo, no cómo va el cielo», Carta a la señora Cristina de
Lorena, gran duquesa de Toscana (Florencia, 1615).

154 Supongo que aquí uno puede intentar trazar una línea más clara dentro de
la categoría de no-ciencia entre lo que he llamado «aciencia» y
«pseudociencia». Aunque esto no equivaldría a un criterio más amplio de
demarcación entre la ciencia y la no-ciencia (o entre la ciencia y la
pseudociencia), quizá sería útil decir que dentro de la categoría de no-ciencia
se encuentran aquellos campos que no pretenden preocuparse de la evidencia
empírica (literatura, arte) y aquellos que sí (astrología, creacionismo). Aunque
uno pudiera entonces argumentar que, como asunto práctico, a los segundos en
realidad no les importa. Incluso este modesto paso, sin embargo, puede
resultar problemático, puesto que genera la tentación de (1) tratar de usar esto
como palanca para cambiar de tema en el debate más amplio de la
demarcación o (2) meterse en honduras en busca de todas las condiciones
necesarias y suficientes para un nuevo debate de la demarcación dentro de la
categoría de no-ciencia. Pero si ya hemos tenido problemas con cómo
«preocuparse por la evidencia» puede servir como condición suficiente para
demarcar la ciencia de la no-ciencia, ¿cuán difícil podría ser construir otra
explicación sobre la base de la pretensión de preocuparse por la evidencia?
Una vez más, creo que el enfoque adecuado para el debate sobre la
demarcación es entre la ciencia y la no-ciencia.

155 Y, plausiblemente, en la biología evolucionista. V. Michael Ruse,


«Evolution: From Pseudoscience to Popular Science, from Popular Science to
Professional Science», en Philosophy of Pseudoscience, 225-244.

156 Véase el excelente tratamiento de este asunto en el ensayo de Frank Cioffi


«Pseudoscience: The Case of Freud’s Sexual Etiology of the Neuroses», en
Philosophy of Pseudoscience, 321-340.

157 Estoy en deuda con Rik Peels por este ejemplo.

158 Aunque se podría argumentar que mi hermano tiene actitud científica, la


mayoría de los filósofos todavía preferirían decir que no está haciendo ciencia.
Sidney Morgenbesser se refirió en cierta ocasión a este problema diciendo que
puede haber una diferencia entre que algo sea científico y que sea ciencia.
Boudry también plantea esta cuestión pragmática en su ensayo «Plus Ultra:
Why Science Does Not Have Limits», Science Unlimited (Chicago, University of
Chicago Press, 2017).

159 ¿Es la fontanería una ciencia? Boudry, en su ensayo «Plus Ultra», dice que
no hay ningún problema en considerar que sí —no hay por qué imponerle
límites epistemológicos a la ciencia—. En su ensayo «In Defense of
Demarcation Projects», Pigliucci no se muestra de acuerdo, pero su razón para
ello es que los científicos tienen «un papel claramente definido». En esto estoy
plenamente de acuerdo con Boudry. Lo importante es el enfoque que uno
adopte en la búsqueda del «conocimiento cotidiano», no un hecho sociológico
acerca de los fontaneros.

160 Un demarcacionista solo puede evitar el problema de la «búsqueda de las


llaves» negándose a adoptar un estándar de suficiencia en primer lugar (en
cuyo caso puede que no sea un demarcacionista) o proponiendo más criterios
necesarios. Pero una vez que nos adentramos por este camino, no parece tener
fin, lo cual es otra razón por la que prefiero no postular la actitud científica
como estándar de suficiencia.

161 Por supuesto, también está ausente en disciplinas como las matemáticas o
la lógica, a las que no les concierne la evidencia empírica.

162 Emile Durkheim, Las reglas del método sociológico (París, 1895; prefacio
del autor a la segunda edición).

163 Una de las propuestas más esclarecedoras que he leído en los últimos
tiempos corre a cargo de Tom Nickles («The Problem of Demarcation», en
Philosophy of Pseudoscience, 116-117), que examina críticamente la
«productividad» como un criterio posible de demarcación. Quizá lo erróneo del
creacionismo, por ejemplo, no es que sea falso, finja tener o no tenga la actitud
científica, sino, sencillamente, que no está muy interesado en proporcionarnos
futuros rompecabezas científicos que resolver.

164 Quizás el instinto de Popper apuntaba originalmente en la buena dirección


y la condición de necesidad es todo lo que se necesita para un criterio de
demarcación.

165 Hansson, «Defining Pseudoscience and Science», en Philosophy of


Pseudoscience, 61.
166 Véase una vez más mi discusión en torno al «meta-argumento» de Laudan
(capítulo 1, n. 27), en la que afirma que para resolver el problema de la
demarcación, uno tiene que encontrar las condiciones necesarias y suficientes
para la ciencia.

167 Véase Pigliucci, «The Demarcation Problem», 21. Pero ¿lo hace por si una
vez más es ambiguo en torno a si el objetivo debe ser la pseudociencia o la no-
ciencia?

168 Esto aparece en M. Boudry y M. Pigliucci (eds.), Science Unlimited


(Chicago, University of Chicago Press, 2017). En este volumen, Boudry y
Pigliucci dicen que se ocupan en la actualidad de una disputa diferente en
torno a la demarcación, esta vez más bien en la línea de lo que Boudry llamaba
en otro momento «problema territorial». En su libro anterior, Pigliucci y Boudry
se preocupaban de evitar que la pseudociencia infectara la ciencia. Ahora
parecen más bien preocuparse del problema del cientificismo, de si otras áreas
de investigación deben ser protegidas de la ciencia.

169 Pigliucci, Science Unlimited, 197.

170 Kitcher dice lo mismo acerca de la pseudociencia: «La pseudociencia es


solo lo que [los pseudicientíficos] hacen». Citado en Boudry, «Loki’s Wager»,
91.

171 McIntyre, Respecting Truth: Willful Ignorance in the Internet Age (Nueva
York, Routledge, 2015), 107-109.

172 Pigliucci lo reconoce en su ensayo «The Demarcation Problem», donde


parece mostrarse de acuerdo con Boudry en que la tarea de la demarcación es
describir la diferencia entre la ciencia y la pseudociencia, no entre la ciencia y
la no-ciencia.

173 Véase a este respecto la discusión del capítulo 8 en torno a si es el


contenido de una teoría o el comportamiento de las personas que la promueven
lo que marca las diferencias.

174 Como hemos podido comprobar con los ejemplos de Galileo y Semmelweis,
la comunidad científica es a veces aterradoramente irracional.

175 Pigliucci, Science Unlimited, 197.

176 Para más datos en torno a la interesante cuestión de la clasificación de las


diferentes áreas de investigación desde el punto de vista de sus relaciones
familiares una vez comparadas con la ciencia, véanse Tom Nickles, «Problem of
Demarcation», y James Ladyman, «Toward a Demarcation of Science from
Pseudoscience», 45-59, en Philosophy of Pseudoscience.
CAPÍTULO 5

Procedimientos prácticos en los que los


científicos adoptan la actitud científica

Para que una ciencia funcione, tiene que depender de


algo más que de la honestidad de los científicos
individuales. Aunque el fraude absoluto es raro, los
científicos pueden hacer trampas, mentir, manipular,
cometer errores o ser víctimas del tipo de sesgos cognitivos
que todos padecemos de muchas maneras y que —si no
suscitan resistencias— pueden socavar la credibilidad de la
ciencia.
Afortunadamente, no faltan los medios de defensa contra
esto, puesto que la ciencia no solo es una búsqueda
individual del conocimiento, sino también una actividad
colectiva en la que los estándares ampliamente aceptados
de la comunidad permiten valorar las afirmaciones
científicas. La ciencia se lleva a cabo en un foro público, y
uno de sus rasgos más distintivos es que hay un conjunto
ideal de reglas consensuadas de antemano para erradicar
el error y los sesgos. Así, la actitud científica acontece no
solo en los corazones y mentes de los científicos
individuales, sino en la comunidad científica como un todo.
Decir que la ciencia de hoy en día es diferente de la de
hace dos siglos es, por supuesto, un cliché —los científicos
actuales tienden en mucha mayor medida a trabajar en
equipo, colaborar y buscar la opinión de sus pares mientras
formulan sus teorías—. Hay quien parte de esto para
establecer una diferencia crucial entre la ciencia y la
pseudociencia 177 . Hay una gran diferencia entre buscar la
aprobación de aquellos con quienes ya se está de acuerdo y
«lanzarle» una idea» a un colega profesional de quien se
espera que la critique 178 . Pero más allá de esto, uno
también espera hoy en día que cualquier teoría reciba el
escrutinio de la comunidad científica en toda su extensión
—más allá de los colaboradores o colegas— en su
evaluación y crítica antes de que pueda ser compartida a
una escala más amplia.
Las prácticas de la ciencia —el cuidadoso método
estadístico, la revisión por pares previa a la publicación, la
puesta en común de los datos y la réplica— son bien
conocidas y serán discutidas más adelante en este capítulo.
En primer lugar, sin embargo, es importante identificar y
explorar los tipos de error contra los que la actitud
científica tiene que prevenirse. A escala individual, al
menos, los problemas pueden proceder de diversas fuentes
posibles: errores deliberados, procedimientos descuidados
o negligentes y errores involuntarios que pueden resultar
de sesgos cognitivos inconscientes.

TRES FUENTES DEL ERROR CIENTÍFICO

El primero y más indignante de todos los errores que


pueden darse en la práctica científica es el deliberado. Uno
piensa aquí en los poco comunes pero problemáticos casos
de fraude científico. En el capítulo 7 examinaré algunos de
los casos recientes más conocidos de fraude científico —el
trabajo de Mark Hauser sobre cognición animal y el de
Andrew Wakefield sobre las vacunas—, pero por ahora es
importante señalar que el término «fraude» se usa a veces
para abarcar multitud de pecados. La presentación de
resultados que no son reproducibles no es necesariamente
indicativa de fraude, aunque puede ser el primer signo de
que algo va mal. La fabricación de datos o la tergiversación
de la evidencia son prácticas más características de quien
busca engañar. A pesar de la transparencia de los
estándares científicos, a veces es difícil pronunciarse en
torno a si un caso concreto debe clasificarse como fraude o
meramente como un procedimiento descuidado. Aunque no
haya una línea nítida entre el engaño intencionado y la
ignorancia contumaz, la buena noticia es que los
estándares de la ciencia son lo bastante exigentes como
para que pocas veces ocurra que una teoría fabricada —
independientemente de cuál sea la fuente del error— se
abra camino hasta ser publicada 179 . La extensión de la
actitud científica a escala del grupo ejerce un potente
control (aunque no absoluto) contra el engaño deliberado.
El segundo tipo de error que tiene lugar en la ciencia es
resultado de negligencias o descuidos —aunque a veces
incluso esto puede estar motivado por factores ideológicos
o psicológicos, ya sean conscientes o inconscientes—. Uno
quiere que su teoría sea cierta. Los incentivos a la
publicación son grandes. A veces el entorno presiona en
favor de un resultado particular o simplemente para
encontrar algo que valga la pena publicar. Una vez más,
esto puede conducir a una serie de pecados:

1. Selección parcial de los datos (elegir los resultados


más favorables a la tesis que se pretende defender).
2. Ajuste de curvas (manipular un conjunto de variables
hasta que describan la curva deseada).
3. No dar por concluido un experimento mientras no se
obtenga el resultado que se pretende.
4. Excluir los datos desfavorables (el reverso de la
selección parcial).
5. Usar un conjunto de datos pequeño.
6. [P-hacking]: filtrar una montaña de datos quedándose
únicamente con los que trazan una correlación
estadísticamente significativa, tenga o no sentido 180 .

Cada una de estas técnicas es un ultraje reconocible


contra el correcto método estadístico, pero sería
precipitado concluir que todas ellas constituyen fraude.
Esto no quiere decir que no deban ser criticadas
severamente, pero siempre cabe la pregunta de cuáles
pudieron ser las motivaciones de un científico en un caso
determinado. La ignorancia contumaz parece peor que la
negligencia, pero la diferencia entre el error deliberado y el
involuntario puede ser pequeña.
En su obra sobre el autoengaño, el biólogo evolucionista
Robert Trivers ha investigado el tipo de excusas que los
científicos dan —a sí mismos y a otros— por haber
realizado un trabajo deficiente 181 . En una interesante
continuación de ese libro, Trivers se sumerge en la
cuestión de por qué tantos psicólogos no comparten datos,
en contra del mandato de las revistas académicas
patrocinadas por la APA en las que publican sus
trabajos 182 . El mero hecho de que estos científicos
rechacen compartir sus datos es por sí mismo
desconcertante. La investigación de Trivers cita informes
según los cuales el 67 % de los psicólogos a los que se les
pidió que compartieran sus datos rechazaron atender la
petición 183 . El siguiente paso interesante llegó cuando se
formuló la hipótesis de que el hecho de no compartir datos
podría estar correlacionado con una tasa más alta de
errores estadísticos en los artículos publicados. Cuando los
resultados se analizaron, no solo se encontró que había una
tasa de errores más alta en aquellos artículos cuyos autores
había rehusado compartir sus conjuntos de datos —en
comparación con los artículos de quienes sí los habían
compartido—, ¡sino también que el 96 % de esos errores
eran a favor de los científicos! (Es importante tener en
cuenta que no se acusó a los autores de fraude; de hecho,
sin los datos originales, ¿cómo podría haberse hecho la
comprobación?). En vez de eso, las comprobaciones se
centraron en errores estadísticos en los propios estudios
notificados, en los que Wicherts et al. meramente
repitieron los números.
Trivers afirma que en otro estudio los autores hallaron
más problemas en la investigación psicológica, como
correlaciones espurias o la persistencia de un experimento
mientras no se alcanzó un resultado significativo 184 . La
atención de los investigadores se centra aquí en la cuestión
de los «grados de libertad» en la recolección y análisis de
datos en concordancia con los problemas 3, 4 y 5 señalados
más arriba. ¿Deberían recolectarse más datos? ¿Deberían
excluirse algunas observaciones? ¿Qué condiciones
deberían ser combinadas y cuáles comparadas? ¿Qué
variables de control deberían tomarse en consideración?
¿Deberían las medidas especificadas combinarse,
transformarse o ambas cosas? Como los autores apuntan,
«es raro, y a veces inviable, que los investigadores tomen
todas esas decisiones de antemano» 185 . Pero esto puede
llevar a «una interpretación interesada de la ambigüedad»
en la evidencia. Simmons et al. ponen esto de manifiesto
ajustando intencionadamente los «grados de libertad» en
dos estudios paralelos para «probar» un resultado
obviamente falso (que escuchar una canción determinada
puede modificar la fecha de nacimiento del oyente) 186 .
Supongo que la actitud que uno puede adoptar aquí es la
de encontrarse sorprendido —sorprendido de que se
apueste en Casablanca—. Otros pueden afirmar que la
psicología no es una ciencia. Sin embargo, como apunta
Trivers, estos hallazgos invitan al menos a plantear la
cuestión de si esas técnicas estadísticas y metodológicas
dudosas pueden encontrarse también en otras ciencias. Si
los psicólogos —que se dedican al estudio de la naturaleza
humana para ganarse la vida— no son inmunes a los cantos
de sirena de la interpretación interesada de los datos, ¿por
qué deberían serlo otros?
Un tercer tipo de error en el razonamiento científico es
consecuencia del tipo de sesgo cognitivo involuntario que
todos compartimos como seres humanos, al cual los
científicos no son inmunes. La preferencia por la teoría
propia es quizás el más fácil de entender. Pero hay
literalmente otros cientos de errores —como el sesgo de
representatividad, el sesgo de anclaje o el sesgo heurístico,
y la lista podría ampliarse— que han sido identificados y
explicados en el brillante libro de Daniel Kahneman
Thinking Fast and Slow, así como en la obra de otros
investigadores en el ámbito en rápido desarrollo de la
economía conductual 187 . En el capítulo 8 exploraremos el
vínculo entre estos sesgos cognitivos y el auge del
negacionismo científico en los últimos años. Que estos
sesgos puedan recibir también el respaldo de aquellos que
creen realmente en la ciencia es, por supuesto,
preocupante.
Cabría esperar que este tipo de sesgos desaparecieran
del trabajo de los científicos profesionalmente entrenados
para detectar errores en el razonamiento empírico.
Añadamos a esto el hecho de que ningún científico desearía
quedar en evidencia por no haber sabido evitar un error
que otros sí han sido capaces de detectar, y que es de
suponer que la adopción de un juicio objetivo en torno al
propio trabajo y la comprobación de las propias teorías
antes de someterlas al escrutinio público cuentan con
grandes incentivos. La verdad, sin embargo, es que a veces
a los individuos les cuesta trabajo reconocer este tipo de
defectos en los razonamientos que ellos mismos elaboran.
Todos, doctores o no, somos vulnerables al sesgo cognitivo.
Tal vez el ejemplo más virulento del poder de destrucción
del sesgo cognitivo sea el sesgo de confirmación. Esto se
produce cuando nuestro sesgo nos lleva a tener en cuenta
la evidencia que confirma nuestras creencias previas y a
desechar la que no encaja con ellas. Se diría que este es el
tipo de error que los científicos probablemente nunca
cometerían, puesto que va directamente en contra de la
actitud científica, que supuestamente nos embarca en la
búsqueda de evidencia que pueda forzarnos a cambiar
nuestras creencias antes que ratificarlas. Sin embargo, una
vez más, no importa cuántos científicos individuales puedan
tratar de inmunizarse a sí mismos para prevenir este tipo
de error: a veces no se repara en que se ha cometido hasta
la revisión por pares o incluso hasta después de la
publicación 188 . Vemos así que la actitud científica
manifiesta su mayor poder cuando es toda la comunidad
científica la que la adopta. La actitud científica no es un
asunto que ataña meramente a la conciencia o a la
habilidad en el razonamiento de los científicos individuales,
sino la piedra angular de las prácticas que conforman la
ciencia como institución. Como tal, es útil en tanto que
ejerce como guardiana frente a toda suerte de errores, sea
cual sea su fuente.

LAS COMUNIDADES CRÍTICAS Y LA SABIDURÍA DE LAS MULTITUDES

En el caso ideal, la actitud científica estaría tan


fuertemente arraigada a escala individual que un científico
podría neutralizar en su labor cotidiana todas las fuentes
posibles de error. Seguramente algunos traten de hacerlo,
y da lustre a la investigación científica el hecho de que sea
una de las pocas áreas de la actividad humana cuyos
artífices alberguen la motivación de encontrar y corregir
los errores que hayan podido cometer a la luz de la
evidencia real. Pero es demasiado generoso pensar que así
ocurre en todos los casos. En primer lugar, esto solo
ocurriría si todos los errores fueran involuntarios y el
investigador deseara encontrarlos (y fuera capaz de ello).
Pero en casos de fraude o de ignorancia contumaz,
seríamos estúpidos si pensáramos que los científicos
pueden corregir y que corregirán todos los errores que
hayan cometido. Por eso la pertenencia a una comunidad
más amplia es fundamental.
Investigaciones recientes en economía conductual han
puesto de manifiesto que los grupos son frecuentemente
mejores que los individuos encontrando errores de
razonamiento. La mayoría de estos experimentos ha
abordado la cuestión del sesgo cognitivo inconsciente, pero
no hace falta decir que los grupos disponen de una
motivación mayor para encontrar errores debidos a sesgos
conscientes que las personas que los han cometido.
Algunos de los mejores trabajos experimentales sobre esta
cuestión se han realizado con rompecabezas lógicos. Uno
de los resultados más importantes es la tarea de selección
de Wason 189 . El experimento consistía en mostrarles a los
sujetos cuatro cartas sobre una mesa con la información
adicional de que —aunque no podían tocar las cartas—
cada carta tenía un número en uno de los lados y una letra
del alfabeto en el otro. Supongamos que en las cartas se
leía 4, E, 7 y K. Los sujetos recibían entonces la regla de
que «si hay una vocal en un lado de una carta, entonces
hay un número par en el otro». Su tarea consistía en
determinar a qué (y solo a qué) cartas debían dar la vuelta
para comprobar la regla.
Los investigadores informaron de que a los sujetos la
tarea les pareció increíblemente difícil. De hecho, solo el 10
% fue capaz de dar la respuesta correcta, que era que
bastaba con darles la vuelta a las cartas E y 7. A la carta E
había que darle la vuelta porque podía tener un número
impar en el otro lado, lo que habría refutado la regla. A la
carta 7 había que darle la vuelta porque, si en el otro lado
resultaba haber una vocal, la regla también habría quedado
refutada. Los sujetos quedaban perplejos ante el hecho de
que no fuera necesario darle la vuelta a la carta 4. Para
quienes hayan estudiado lógica, puede parecer obvio que 4
es irrelevante para la verdad de la regla porque no importa
lo que haya al otro lado de la carta. La regla solo dice que
un número par puede aparecer solo si hay una vocal del
otro lado. Incluso si el otro lado de la carta tuviera una
consonante, no refutaría la regla que un 4 apareciera en su
anverso. De la misma manera, no es necesario comprobar
la carta con K. Una vez más la regla dice lo que debe
seguirse si hay una vocal en el otro lado de la carta; no dice
nada acerca de lo que debe ser el caso si no la hay.
Ahora bien, lo realmente emocionante del experimento
es lo que ocurre cuando uno les pide a los sujetos que
resuelvan este problema en grupo. Entonces el 80 % da la
respuesta correcta. Téngase en cuenta que esto no ocurre
porque los integrantes del grupo meramente le hagan caso
a la «persona más inteligente». Los investigadores lo
comprobaron y descubrieron que incluso grupos en los que
ningún individuo había sido capaz de resolver la tarea por
sí solo lograban alcanzar la solución. Lo que esto sugiere es
que cuando nos disponemos en grupo, nuestras habilidades
relacionadas con el razonamiento mejoran. Escudriñamos
las hipótesis de los demás y criticamos su lógica. Al
mezclarnos, erradicamos las respuestas erróneas. En grupo
nos dejamos persuadir más fácilmente, pero también nos
cuesta menos persuadir a los demás. Como individuos,
puede faltarnos la motivación necesaria para criticar
nuestros propios argumentos. Una vez que hemos llegado a
la respuesta que «parece correcta», ¿por qué deberíamos
molestarnos en replanteárnosla? En grupo, sin embargo,
hay un escrutinio mucho mayor, y, como resultado de ello,
es mucho más probable que demos con la respuesta
correcta. Esto no se debe a que alguien en la parte de atrás
de la sala ya la sepa, sino a que las habilidades
relacionadas con el razonamiento humano mejoran cuando
constituimos un grupo 190 .
En su libro Infotopia: How Many Minds Produce
Knowledge 191 , Cass Sunstein explora la idea —basada en
evidencia empírica como la citada más arriba— de que el
razonamiento colectivo trae consigo múltiples beneficios.
Esto se conoce a veces como como el efecto «sabiduría de
las multitudes» [wisdom of crowds], pero este apodo
populista no le hace justicia al caso de la ciencia, en la que
valoramos la opinión de los expertos. En cualquier caso,
como veremos, Sunstein describe bien la práctica científica
y reconoce el poder de los expertos. Y hay también otros
efectos. En su obra, Sunstein explora tres hallazgos
principales, respaldado cada uno de ellos por la evidencia
experimental. En líneas generales, en el razonamiento
humano:

(1) los grupos proceden mejor que los individuos,


(2) los grupos interactivos proceden mejor que los
grupos agregativos,
(3) los expertos proceden mejor que los profanos 192 .

Como vimos al hilo de la tarea de selección de Wason, los


resultados (1) y (2) están claros. Los grupos proceden
mejor que los individuos no solo porque alguien en la
habitación pueda tener la respuesta correcta (la cual
presumiblemente sería reconocida una vez que se haya
llegado a ella), sino porque incluso en aquellas situaciones
en las que nadie sabe la respuesta correcta, el grupo puede
interactuar y hacer preguntas fundamentales, de tal
manera que llegue a descubrir algo que ninguno de sus
miembros sabía aisladamente. En este caso, el resultado
colectivo puede ser mejor que el que habría alcanzado
cualquiera de los individuos por separado (o que una mera
agregación de las opiniones dentro del grupo).
Por supuesto, este argumento tiene sus matices, y hay
que establecer las condiciones limitantes, puesto que hay
algunas circunstancias que socavan el resultado general.
Por ejemplo, en grupos en los que existe un fuerte respeto
a la autoridad o una estricta jerarquía, puede ocurrir que
se sucumba a «el grupo piensa». En esos casos, los
beneficios del razonamiento en grupo pueden perderse en
un «efecto cascada» a partir de quien habla en primer
lugar, o a un «efecto autoridad» cuando las opiniones
individuales se subordinan al integrante que se sitúa en el
escalafón más alto de la jerarquía. De hecho, en esos casos,
el efecto de agregación de los grupos puede convertirse
incluso en una desventaja si todo el mundo expresa la
misma opinión —la crean o no— y el razonamiento
converge en la falsedad en vez de en la verdad. Para
remediar esto, Sunstein propone un conjunto de principios
para que los grupos sean lo más productivos que puedan.
Entre ellos se encuentran:

(1) los grupos tienen que considerar el disentimiento


como una obligación,
(2) el pensamiento crítico debe ser premiado, y
(3) el abogado del diablo debe recibir apoyo 193 .

Esto suena muy parecido a la ciencia. Especialmente en


entornos públicos, los científicos son bastante competitivos
entre ellos. Todo el mundo quiere tener la razón. Hay una
pequeña deferencia a la autoridad. De hecho, las mayores
alabanzas se reciben no por propiciar el consenso, sino por
encontrar debilidades en los razonamientos del otro. En ese
entorno interactivo sobrealimentado, los tres hallazgos
anteriores de Sunstein pueden combinarse razonablemente
en uno de acuerdo con el cual deberíamos esperar que los
grupos de expertos que interactúan los unos con los otros
encuentren más probablemente la respuesta correcta a una
pregunta fáctica. Una vez más, esto suena mucho a ciencia.
Creo que es importante, sin embargo, no aventurar
demasiado la idea de que el aspecto grupal de la ciencia
marca las diferencias en la misma medida que el hecho de
que la ciencia es un proceso público y abierto. Aunque es
verdad que los científicos frecuentemente trabajan en
equipo y participan en grandes conferencias y reuniones,
hasta cuando un científico particular, en la intimidad de su
despacho, critica el trabajo de un colega, está participando
en un proceso de comunidad. También es importante tener
en cuenta que aunque hoy en día sea más común que los
científicos colaboren en proyectos de gran envergadura,
como el colisionador de hadrones, difícilmente puede ser
ese el rasgo distintivo que hace a la ciencia especial,
puesto que si lo fuera, entonces ¿qué habría que decir
acerca del valor de aquellas teorías científicas formuladas
en el pasado por sabios como Newton o Einstein? Trabajar
en grupo es una manera de someter ideas científicas al
escrutinio público. Pero hay otras. Incluso cuando trabaja
solo, uno sabe que antes de que una teoría científica pueda
ser aceptada, tiene que ser examinada por la comunidad
científica. Esto es lo que hace peculiar a la ciencia: el
hecho de que sus valores son adoptados por una
comunidad más amplia, no necesariamente que la práctica
científica se lleva a cabo en grupos.
¿Es el sello distintivo de la ciencia que las ideas
individuales —incluso aquellas planteadas por expertos—
estén sujetas al escrutinio más exigente por parte de otros
expertos para corregir y descubrir cualquier error o sesgo,
intencionado o no? Si hay un error en un razonamiento o
procedimiento, o un desacuerdo con la evidencia, cabe
esperar que otros científicos estén motivados para
detectarlo. La comunidad adopta la actitud científica como
encarnada en un conjunto de prácticas. Por supuesto, es
alentador aprender de Sunstein y otros que el trabajo
experimental en psicología ha vindicado un método de
investigación tan claramente en concordancia con los
valores y prácticas de la ciencia. Pero la importancia de
estas ideas ha sido reconocida desde hace mucho tiempo
también por los filósofos de la ciencia.
En un brillante artículo titulado «The Rationality of
Science versus the Rationality of Magic» 194 , Tom Settle
examina lo que significa decir que la creencia científica es
racional, mientras que la creencia en la magia no lo es. La
conclusión a la que llega es que uno no tiene por qué
denigrar la racionalidad individual de los miembros de
aquellas comunidades que creen en la magia en mayor
medida de lo que debería intentar explicar el carácter
distintivo de la ciencia apelando a la racionalidad de los
científicos individuales. En cambio, encuentra la diferencia
entre la ciencia y la magia en la «mentalidad crítica
corporativa» de la ciencia, es decir, en la existencia de una
tradición de crítica de grupo a las ideas individuales que no
se encuentra en la magia 195 . Como explica Hansson en su
artículo «Science and Pseudo-Science»:

[De acuerdo con Settle] son la racionalidad y la


actitud crítica incorporada a las instituciones en
lugar de los rasgos personales intelectuales de los
individuos lo que distingue la ciencia de prácticas no
científicas como la magia. El usuario individual de la
magia en una sociedad prealfabetizada no es
necesariamente menos racional que el científico
individual en la moderna sociedad occidental. De lo
que carece es de un entorno intelectual de
racionalidad colectiva y crítica mutua 196 .

Como Settle explica más adelante:

Quiero subrayar el papel institucional de la crítica


en la tradición científica. Es un requisito demasiado
fuerte que cada individuo dentro de la comunidad
científica sea un buen crítico, especialmente de sus
propias ideas. En la ciencia, la crítica parece ser
predominantemente una cuestión comunitaria 197 .

Noretta Koertge también encuentra mucho que alabar en


las «comunidades críticas» que forman parte de la ciencia.
En su artículo «Belief Buddies versus Critical
Communities», escribe:

He argumentado que una característica que


diferencia la ciencia típica de la típica pseudociencia
es la presencia de comunidades críticas, instituciones
que fomentan la comunicación y la crítica por medio
de conferencias, revistas y revisión por pares. [...]
Tenemos una imagen romántica del científico solitario
que trabaja aislado y que, después de muchos años,
produce un nuevo sistema que subvierte las viejas
concepciones erróneas. Olvidamos que incluso el
científico más apartado hoy en día está rodeado de
revistas con revisión por pares; y si nuestro supuesto
genio hace un descubrimiento aparentemente
brillante, no le basta con convocar una conferencia
de prensa o anunciarlo en una página web. En
cambio, tiene que superar el escrutinio y las
enmiendas propuestas por la comunidad relevante de
crítica científica 198 .

Finalmente, en el trabajo de Helen Longino, se aprecia el


respeto a la idea de que, aunque uno vea la ciencia como
una tarea irreductiblemente social —en la que los valores
de los científicos individuales no pueden dejar de colorear
su trabajo científico—, es la naturaleza colectiva de la
práctica científica como un todo lo que contribuye a apoyar
su objetividad. En su obra pionera Science as Social
Knowledge 199 , Longino adopta una perspectiva que cabría
considerar inicialmente hostil a la afirmación del carácter
privilegiado del razonamiento científico. Su temática
general parece concordar con la respuesta
socioconstructivista a Kuhn: que la investigación científica,
como toda empresa humana, está cargada de valores, y
que, como consecuencia de ello, no puede hablarse
estrictamente de objetividad; es un mito que elijamos
nuestras creencias y teorías sobre la base únicamente de la
evidencia.
De hecho, en el prefacio de su libro, Longino escribe que
su plan inicial consistía en redactar «una crítica filosófica a
la idea de la ciencia desprovista de valores». Continúa
explicando, sin embargo, que su texto se convirtió en un
relato que «reconcilia la objetividad de la ciencia con su
construcción social y cultural». Uno entiende que su
defensa no se basará en la distinción empirista estándar
entre «hechos y valores». Tampoco pretende Longino situar
su defensa de la ciencia en la lógica de su método. En lugar
de eso, aboga por dos cambios en nuestra manera de
pensar acerca de la ciencia: (1) deberíamos adoptar la idea
de ver la ciencia como una práctica, y (2) deberíamos
reconocer la ciencia como llevada a cabo no primariamente
por individuos, sino por grupos sociales 200 . Pero una vez
que hemos hecho estos cambios, una percepción notable se
produce, puesto que es capaz de concluir de esto que «la
objetividad de la investigación científica es una
consecuencia de su carácter de empresa social y no
individual».
¿Cómo ocurre esto? En primer lugar, por medio del
reconocimiento de que la diversidad de intereses de los
individuos que se consagran a la práctica científica puede
transformarse en un sistema de controles y equilibrios que
permite que la revisión por pares previa a la publicación y
otras formas de escrutinio de los planteamientos
individuales actúen como bálsamo frente a los sesgos
individuales. Así, el conocimiento científico se convierte en
una «posesión pública».

Lo que se denomina conocimiento científico,


entonces, es el producto de una comunidad (en
último término la comunidad de todos los científicos
individuales) y trasciende las contribuciones de
cualquier individuo e incluso de cualquier colectivo
integrado en la comunidad. Una vez que las
proposiciones, tesis e hipótesis se desarrollan, lo que
se convierte en conocimiento científico se produce
colectivamente por medio de la confrontación y
mezcla de una variedad de puntos de vista. [...]
La objetividad, por tanto, es una característica de
la práctica comunitaria de la ciencia en vez de la
individual, y la práctica de la ciencia se entiende en
un sentido mucho más amplio de lo que muchas
discusiones en torno a la lógica del método científico
sugieren 201 .

Concluye: «Los valores no son incompatibles con la


objetividad, pero la objetividad se analiza como una función
de prácticas comunitarias en vez de como una actitud de
los investigadores individuales hacia su propio
material» 202 . Uno no puede imaginar una formulación
mejor de la idea de que la actitud científica debe ser
adoptada no solo por los investigadores individuales, sino
por toda la comunidad científica.
Debería estar claro a estas alturas cómo las conclusiones
de Settle, Koertge y Longino encajan perfectamente con el
trabajo de Sunstein. No es solo la honestidad o la «buena
fe» del científico individual, sino la fidelidad a la actitud
científica como práctica comunitaria lo que hace a la
ciencia especial como institución. No importan los sesgos,
creencias ni agendas mezquinas que puedan presentar los
científicos individuales: la ciencia es más objetiva que la
suma de las personalidades individuales de quienes se
dedican a ella. Como afirma el filósofo Kevin deLaplante,
«la ciencia como institución social se distingue por su
compromiso con la reducción de sesgos que pueden
conducir a errores» 203 . ¿Cómo hace esto exactamente la
ciencia? Es el momento de dirigir la mirada más
atentamente a algunas de las técnicas institucionales que
los científicos han desarrollado para garantizar la mutua
honestidad.

MÉTODOS PARA APLICAR LA ACTITUD CIENTÍFICA Y MITIGAR EL ERROR

Sería fácil quedarse colgado en la cuestión de las fuentes


del error científico. Cuando uno se percata de un defecto
en un trabajo científico —sea intencionado o de cualquier
otra naturaleza—, es natural querer culpar a alguien y
examinar los motivos. ¿Por qué algunos estudios no son
reproducibles? Seguramente no todos ellos puedan ser
relacionados con el engaño y el fraude. Como hemos visto,
también existe la posibilidad del sesgo cognitivo
inconsciente, que es un peligro para la ciencia. Es un error
pensar que todo caso de estudio defectuoso se debe a la
corrupción 204 . Aun así, hay que resolver los problemas; el
error tiene que ser descubierto. El punto importante en
este momento no es de dónde viene el error, sino que la
ciencia tenga una manera de lidiar con él.
Hemos visto ya que los grupos son mejores que los
individuos detectando errores científicos. Incluso cuando se
dispone a ello, un individuo no puede competir
normalmente con el efecto «sabiduría de las multitudes»
entre los expertos. Por fortuna, la ciencia está preparada
para llevar precisamente esta clase de escrutinio de grupo
a las hipótesis científicas. La ciencia ha institucionalizado
una plétora de técnicas que lo permiten. Tres de ellas son
los métodos cuantitativos, la revisión por pares y la puesta
en común y replicación de datos.

Métodos cuantitativos

Hay libros enteros sobre la buena técnica científica. Es


importante apuntar que no solo existen para la
investigación cuantitativa, sino también para la
cualitativa 205 . Hay tropos de larga tradición en el
razonamiento estadístico que merecen confianza y que
cualquier científico conocerá. Algunos de ellos —como la
diferencia entre la causación y la correlación— se les
inculcan a los estudiantes de Estadística 101. Otros —por
ejemplo, que se deben usar conjuntos de datos diferentes
para crear una hipótesis y para ponerla a prueba— son un
poco más sutiles. Con todo el rigor propio de este tipo de
razonamientos, a los científicos no les quedan demasiadas
excusas para cometer errores cuantitativos. Y, sin embargo,
los cometen. Como hemos visto, la tendencia a retener
conjuntos de datos se asocia con errores matemáticos en
trabajos publicados. Dado que todo el mundo busca el
santo grial del umbral de confianza del 95 % que indica
significación estadística, hay también algunos amaños 206 .
Pero la publicidad sobre cualquier malversación —se deba
al fraude o a la mera negligencia— es una de las
manifestaciones de la actitud científica. Unos científicos
comprueban que los cálculos de los otros son correctos. No
esperan encontrar un error; solo salen a buscarlo. Si no en
la revisión por pares, algunos errores se detectan pocas
horas antes de la publicación. Supongo que se podría
considerar un punto negro de la ciencia el que se
produzcan a veces errores cuantitativos o analíticos. Pero
es mejor, creo, ver una virtud de la ciencia en que tenga
una cultura de detectar esos errores —en la que uno no
solo confía en la autoridad y da por supuesto que todo es
como se ha dicho—. Sin embargo, hay algunos errores
metodológicos que son tan endémicos —y tan insidiosos—
que apenas están empezando a salir a la luz 207 .
Las estadísticas proporcionan muchas pruebas a
propósito de las relaciones basadas en la evidencia. Por
supuesto, ninguna de ellas será lo mismo que la causación,
sino que la correlación es la moneda de curso legal en el
reino de las estadísticas, puesto que dondequiera que se
halle podremos inferir una relación de causalidad. Uno de
los cálculos más populares consiste en determinar el valor
p de una hipótesis, que es la probabilidad de encontrar un
resultado particular si la hipótesis nula fuera verdadera (es
decir, si no hubiera ninguna correlación en el mundo real
entre las variables). La hipótesis nula es el supuesto de
trabajo contra el cual se mide la significación estadística.
Es la hipótesis «abogado del diablo» de que no hay ninguna
relación real de causalidad entre dos variables, lo que
quiere decir que en caso de que se encuentre correlación,
no será más que el resultado de una casualidad. Por
convención, los científicos han elegido 0,05 como nivel de
significación estadística o probabilidad de que una
correlación no se haya producido por pura casualidad.
Cuando hemos alcanzado este umbral, se sugiere una
mayor probabilidad de correlación en el mundo real 208 . El
valor p es entonces la probabilidad de que se obtuvieran los
datos dados si la hipótesis nula fuera verdadera. Un valor p
pequeño indica que es muy improbable que una correlación
se deba a la casualidad; la hipótesis nula es probablemente
falsa. Esto es lo que buscan los científicos. Un valor p
elevado es simplemente lo opuesto, la indicación de una
evidencia débil; la hipótesis nula es probablemente
verdadera. Un valor p por debajo de 0,05 es, por tanto, muy
buscado, puesto que es el umbral habitual para la
publicación científica.
El p-hacking (también conocido como dragado de datos)
es cuando los investigadores reúnen una gran cantidad de
datos y los criban para comprobar si puede establecerse
alguna correlación positiva 209 . Como se entenderá, dado
que la probabilidad de que dos cosas estén correlacionadas
por casualidad es distinta de cero, si un conjunto de datos
es lo bastante grande y se dispone de un poder de
computación suficiente, cabe tener casi la certeza de que
se encontrará alguna correlación positiva que alcance el
umbral del 0,05, sea reflejo de una conexión del mundo real
o no. Este problema se acentúan debido a los grados de
libertad de los que hablamos anteriormente, de acuerdo
con los cuales los investigadores toman decisiones acerca
de cuándo dejar de recoger datos, de qué datos excluir, de
si dejar un estudio abierto a la espera de más datos,
etcétera. Si uno mira los resultados a medio camino de un
estudio para decidir si sigue recogiendo datos, eso es p-
hacking 210 . La explotación egoísta de los grados de libertad
puede usarse para manipular casi cualquier conjunto de
datos en algún tipo de correlación positiva. Y hoy en día es
mucho más fácil que antes 211 . Ahora uno solo tiene que
ejecutar un programa y los resultados significativos
aparecen. Basta con esto para que se incremente la
probabilidad de que algunos resultados descubiertos sean
espurios. Ni siquiera necesitamos ya una hipótesis previa
acerca de que dos cosas están relacionadas. Todo lo que
necesitamos son datos sin procesar y un ordenador
potente. Un problema adicional surge cuando los
investigadores eligen informar selectivamente de sus
resultados, excluyendo todos aquellos que caen por debajo
de la significación estadística. Si uno entiende estas
decisiones en torno a de qué informar y a qué dejar fuera
como el grado final de libertad, pueden surgir dificultades.
Como Simmons et al. han escrito en su artículo original,
«es inaceptablemente fácil publicar evidencia
“estadísticamente significativa” consistente con cualquier
hipótesis» 212 .
Los ejemplos nos rodean. Estudios no reproducibles
típicos de los programas de televisión matinales que
establecen correlaciones entre comer toronja y tener el
ombligo para adentro o entre el café y el cáncer nos hacen
sospechar acertadamente. El ejemplo definitivo, no
obstante, nos lo proporciona el artículo original de
Simmons, en el que los investigadores fueron capaces —
mediante cuidadosas manipulaciones en sus grados de
libertad— de probar que escuchar la canción de los Beatles
When I’m 64 tenía un efecto en la edad del oyente. Nótese
que los investigadores no probaron que al escuchar la
canción, uno se sintiera más joven; mostraron que en
realidad se hacía más joven 213 . Demostrar algo que es
causalmente imposible es la última acusación que puede
recibir un análisis. Sin embargo, el p-hacking no suele
considerarse fraude:
En la mayoría de los casos los investigadores
podrían estar haciendo honestamente elecciones
necesarias acerca de colecciones de datos y análisis,
y realmente podrían estar creyendo que las
elecciones que hacen son correctas o al menos
razonables. Pero sus sesgos influirán en estas
elecciones en formas de las que los investigadores
pueden no darse cuenta. Más aún, los investigadores
pueden estar usando simplemente las técnicas que
«funcionan» —en el sentido de que proporcionan los
resultados que el investigador busca 214 .

Añadamos a esto las presiones derivadas de la carrera


profesional, la competencia por los fondos dedicados a la
investigación y la cultura del «publica o perece» para
obtener el rango de profesor titular y otros avances
académicos en la mayoría de los colleges y universidades, y
se habrá creado un entorno idealmente propicio para
«tomar las decisiones correctas» en torno al propio trabajo.
Como Uri Simonsohn, uno de los coautores del estudio
original, se ha encargado de subrayar, «todo el mundo hace
un poco de p-hacking» 215 . Otro comentarista en este
debate, sin embargo, hizo una advertencia de peor agüero
en el título de su artículo: «Por qué la mayoría de los
hallazgos publicados son falsos» 216 .
Ahora bien, ¿es todo esto realmente tan malo? Por
supuesto, los científicos solo quieren informar de
resultados positivos. ¿Quién querría leer acerca de
hipótesis fallidas o ver datos acerca de cosas que no
funcionaron? Sin embargo, este tipo de publicación
selectiva —algunos podrían llamarlo «enterramiento»— es
precisamente lo que algunos pseudocientíficos hacen para
aparentar que son más científicos. En el excelente libro de
Ron Giere Understanding Scientific Reasoning, resume un
ejemplo de esto en el que Jeane Dixon y otros «futuristas»
se jactan con frecuencia de ser capaces de predecir el
futuro, cosa que hacen lanzando miles de predicciones
acerca de lo que ocurrirá el año siguiente e informando
después únicamente de las que se habían hecho realidad al
acabar el año 217 .
Para muchos, todo esto se asemejará a una adulteración
de la actitud científica, puesto que, aunque se mira a la
evidencia, el uso que se hace de ella es inapropiado. Sin
hipótesis previas en mente que poner a prueba, la
evidencia solo se reúne con el fin de obtener «datos» que
explotar. Si uno está embarcado simplemente en una
búsqueda del tesoro para «p» —para algo que parece
significativo, pero que probablemente no lo sea—, ¿dónde
está la fundamentación de sus creencias? Uno no puede
evitar pensar aquí en Popper y su admonición en torno a los
casos positivos. Si uno busca casos positivos, ¡son fáciles de
encontrar! Además, sin ninguna hipótesis que poner a
prueba, se le ha hecho más daño al espíritu de la
investigación científica. Ya no estamos construyendo una
teoría —ni posiblemente cambiándola en función de lo que
dice la evidencia—, sino informando de correlaciones,
aunque no sepamos por qué se producen o podamos incluso
sospechar que son espurias.
Claramente, el p-hacking es un desafío a la tesis de que
los científicos adoptan la actitud científica. Pero salvo que
uno esté dispuesto a descartar una gran proporción de
estudios no reproducibles como acientíficos, ¿qué otra
elección tenemos? Ahora bien, recordemos mi afirmación
de que lo que hace especial a la ciencia no es que nunca
cometa errores, sino que responde por ellos de manera
rigurosa. Y aquí la respuesta de la comunidad científica a la
crisis del p-hacking apoya sólidamente nuestra confianza
en la actitud científica.
En primer lugar, es importante entender el alcance del
valor p y el trabajo que la ciencia le ha encomendado.
Nunca se trató de que fuera la única medida de la
significación.

[Cuando] Roland Fisher introdujo el valor p en la


década de 1920, no pretendió que fuera una
comprobación definitiva. Lo consideró simplemente
una manera informal de enjuiciar si la evidencia era
significativa en un sentido desfasado: digna de un
segundo vistazo. La idea era hacer un experimento y
luego ver si los resultados eran consistentes con lo
que la probabilidad aleatoria podía producir. [...] A
pesar de toda la aparente precisión del valor p,
Fisher lo proyectó para que fuera solo una parte de
un proceso fluido, no numérico que combinaba datos
y conocimientos previos para llegar a una conclusión
científica. Pero pronto fue barrido en un movimiento
para volver la toma de decisiones basada en la
evidencia tan rigurosa y objetiva como fuera posible.
[...] «El valor p nunca se concibió para ser usado
como es usado hoy en día» 218 .

Otro problema con el valor p es que no es raro que se


entienda mal, incluso por personas que trabajan con él
como parte de su rutina:

El valor p es fácil de interpretar erróneamente. Por


ejemplo, muchas veces se entiende como equivalente
a la fuerza de una relación, pero un tamaño del efecto
pequeño puede tener valores p muy bajos con un
tamaño de muestra lo suficientemente grande. De la
misma manera, un valor p bajo no significa que un
hallazgo sea de gran... interés 219 .
En otras palabras, los valores p no pueden medir el
tamaño de un efecto, sino solo la probabilidad de que el
efecto se produzca por casualidad. Hay otras concepciones
erróneas en torno a cómo interpretar las probabilidades
expresadas por un valor p. ¿Significa un estudio con un
valor p de 0,01 que solo hay una probabilidad del 1 % de
que el resultado sea espurio? 220 . En realidad, no. Esto no
puede determinarse sin un conocimiento previo de la
probabilidad del efecto. De hecho, de acuerdo con un
cálculo, «un valor p de 0,01 corresponde a una
probabilidad de falsa alarma de al menos el 11 %,
dependiendo de la probabilidad subyacente de que sea un
efecto verdadero» 221 .
Todo esto puede llevar a alguien a preguntarse si el valor
p es tan importante como algunos han dicho. ¿Debería ser
la referencia de la significación estadística y la publicación?
Ahora que los problemas con el p-hacking están empezando
a difundirse públicamente, algunas revistas han dejado de
pedirlo 222 . Otros críticos han propuesto diversas pruebas
estadísticas para detectar el p-hacking y arrojar luz sobre
él. Megan Head et al. han propuesto un método de minería
de texto [text mining] para medir la extensión del p-
hacking. La idea básica es que si alguien recurre al p-
hacking, entonces los valores p de sus estudios se
agruparán en torno al nivel 0,05, lo que resultará en una
forma extraña si se curvan los resultados 223 .
El siguiente paso puede ser modificar los requisitos de
publicación de las revistas, de tal manera que los autores
deban calcular sus propias curvas p, lo que les permitiría a
otros científicos averiguar de un vistazo si se ha usado el p-
hacking. Otras ideas han incluido la divulgación obligatoria
de todos los grados de libertad que se toman en la
producción de los resultados del artículo, junto con el
tamaño del efecto y cualquier información sobre
probabilidades previas 224 . Esto puede ser en parte
controvertido, puesto que los investigadores pueden no
estar de acuerdo con la utilidad de lo que se reporta 225 .
Como señala Head:

Muchos investigadores han pedido abolir la prueba


de significación de la hipótesis nula [NHST, por sus
siglas en inglés]. Sin embargo, otros observan que
muchos de los problemas que trae aparejado el sesgo
de publicación vuelven a presentarse con otros
enfoques, como el informe del tamaño de los efectos
y su intervalo de confianza o los intervalos de
credibilidad bayesianos. Los sesgos de publicación no
son un problema de los valores p per se. Simplemente
reflejan los incentivos para informar de hechos
sólidos (es decir, significativos) 226 .

Así pues, ¿quizá la solución sean la total divulgación y la


transparencia? Tal vez los investigadores deberían ser
capaces de usar los valores p y la comunidad científica
encargada de enjuiciar su trabajo —los revisores y los
editores de revistas— estar atenta. En su artículo, Simmons
et al. proponen diversas pautas:

Requisitos para los autores:


1. Los autores deben determinar la regla para
concluir la recolección de datos antes de que
comience la recolección de datos.
2. Los autores deben reunir al menos veinte
observaciones por celda o proporcionar una
justificación convincente del coste de la recogida de
datos.
3. Los autores deben hacer una lista de todas las
variables tenidas en cuenta en un estudio.
4. Las autores deben informar de todas las
condiciones experimentales, incluyendo las
manipulaciones fallidas.
5. Si alguna observación es eliminada, los autores
también deben informar de cuáles habrían sido los
resultados estadísticos si esas observaciones
hubieran sido incluidas.
6. Si un análisis incluye una covariante, los autores
deben informar de los resultados estadísticos del
análisis sin la covariante.

Pautas para los revisores:


1. Los revisores deben asegurarse de que los
autores siguen los requisitos.
2. Los revisores deben ser más tolerantes con la
imperfección en los resultados.
3. Los revisores deben requerir a los autores que
demuestren que sus resultados no dependen de
decisiones analíticas arbitrarias.
4. Si las justificaciones de la recogida de datos o
del análisis no son convincentes, los revisores deben
requerir a los autores que lleven a cabo una
reproducción exacta 227 .

Y luego, en una notable demostración de la eficacia de


estas reglas, Simmons et al. vuelven a su hipótesis falaz —
acerca de la canción de los Beatles que «modifica» la edad
del oyente—, la rehacen de acuerdo con las pautas
expuestas y... el efecto desaparece. ¿Puede uno imaginar
semejante procedimiento riguroso en una pseudociencia
encaminado a sacar a la luz el error?
Lo asombroso del p-hacking es que, aunque refleje una
crisis actual en la ciencia, todavía constituye un argumento
a favor de la actitud científica. Habría sido fácil para mí
elegir un ejemplo menos controvertido y bochornoso para
demostrar que la comunidad de científicos ha adoptado la
actitud científica por medio de su insistencia en mejores
métodos cuantitativos. Pero no lo hice así. Fui a por el peor
ejemplo que pude encontrar. Sin embargo, aun así se supo
que los científicos le estaban prestando mucha atención al
problema y tratando de solucionarlo. Aunque uno de los
procedimientos de la ciencia sea defectuoso, la respuesta
de la comunidad científica ha sido receptiva: Lo hemos
captado. Puede que todavía no lo hayamos resuelto y puede
que cometamos más errores, pero estamos investigando el
problema y tratando de resolverlo. Aunque algún científico
individual pueda tener incentivos para comportarse de
manera negligente o descuidada (o algo peor) y darle su
confianza al p-hacking, la vergüenza la padecerá la
comunidad científica en su conjunto. Nosotros no somos así
y lo corregiremos.
Al final del artículo, Simmons afirma lo siguiente:

Nuestro objetivo como científicos no es publicar


tantos artículos como podamos, sino descubrir y
diseminar la verdad. Muchos de nosotros —y esto
incluye a los tres autores de este artículo— perdemos
de vista con frecuencia ese objetivo y cedemos a la
presión de hacer todo lo justificable con el fin de
compilar un conjunto de estudios que podamos
publicar. Esto no obedece a una voluntad de mentir,
sino a una interpretación interesada de la
ambigüedad, lo que nos permite convencernos a
nosotros mismos de que cualquier decisión que
produzca la mayor cantidad de resultados publicables
ha debido ser también la más adecuada. Este artículo
defiende un conjunto de requisitos de divulgación que
suponen un coste mínimo para los autores, lectores y
revisores. Estas propuestas no librarán a los
investigadores de las presiones por publicar, pero
limitarán lo que los autores son capaces de justificar
como aceptable ante otros y ante sí mismos.
Deberíamos adoptar estos requisitos de divulgación
como si la credibilidad de nuestra profesión
dependiera de ellos. Porque depende de ellos 228 .

Esta advertencia no les pasa desapercibida a otros. Al


final de su propio artículo «P-Hacking and Other Statistical
Sins», Steven Novella introduce una lista de principios
generales para la conducta científica y luego realiza una
comparación odiosa que debería hacer que todos los
filósofos de la ciencia se sentaran y tomaran nota:

La investigación en homeopatía, acupuntura y


percepción extrasensorial (ESP) está plagada de...
deficiencias. En ningún lugar ha producido resultados
que se acerquen al umbral de aceptación. Los
estudios hieden a p-hacking, generalmente con
pequeños tamaños de efecto, y no hay patrones
consistentes de replicación. [...] Pero no hay una
dicotomía clara entre la ciencia y la pseudociencia.
Sí, están aquellas afirmaciones que se hallan muy
lejos del extremo pseudocientífico del espectro. Todos
estos problemas, sin embargo, asolan también a la
corriente principal de la ciencia. Los problemas están
bastante claros, al igual que las soluciones
necesarias. Todo lo que hace falta es comprensión y
la voluntad de cambiar una cultura arraigada 229 .

Uno no puede imaginar una formulación mejor —o


llamamiento a las armas— de la actitud científica que el de
que aspira a cambiar esa cultura 230 .

Revisión por pares


Hemos visto ya algunas de las ventajas de la revisión por
pares en la sección anterior. Allá donde los individuos
tengan la tentación de tomar atajos a la hora de hacer su
trabajo, serán rápidamente atrapados por representantes
de la comunidad científica: los lectores expertos que se
avengan a aportar su opinión y comentarios en un
manuscrito anónimo sin más expectativa de compensación
que la conciencia de que están contribuyendo a su
profesión y de que su identidad será protegida 231 .
(También está la ventaja de poder ver anticipadamente los
trabajos, lo que les permitirá influir en ellos con sus
apreciaciones.) Pero eso es todo. Suele sorprender a los
profanos el que la mayor parte del trabajo científico de
revisión se haga gratuitamente o por una compensación
mínima como puedan ser el regalo de una suscripción a la
revista o un libro.
El proceso de revisión por pares es de rigueur en la
mayoría de las revistas científicas, cuyos editores
temblarían si tuvieran que poner en común trabajos que no
hubieran sido debidamente examinados. En la mayor parte
de los casos, esto significa que cada artículo es sometido al
criterio no de uno, sino de dos revisores con el fin de
obtener un grado adicional de garantía. Una comprobación
sobre otra. Para consternación de muchos autores, lo
habitual es que un trabajo no se publique si no cuenta con
el visto bueno de ambos revisores. Y si se propone algún
cambio, la práctica habitual es enviarles el artículo de
vuelta a los revisores originales una vez que las
modificaciones se han realizado. A veces se cuela algún
trabajo de categoría inferior, pero lo importante es que este
sistema pone de manifiesto la actitud científica por medio
de los principios de juego limpio y objetividad. No es
perfecto, pero es al menos un mecanismo que permite que
la comunidad científica en su conjunto se involucre en los
resultados de la investigación individual antes de que se
difundan públicamente.
Y hay también otro grado de escrutinio, puesto que si se
ha cometido un error, todavía existe la posibilidad de la
retractación. Si un error no se descubre hasta después de
que al artículo se haya publicado, puede señalizarse, o el
artículo entero puede ser retirado con la debida publicidad
para los futuros lectores. De hecho, en 2010, dos
investigadores, Ivan Oransky y Adam Markus, fundaron
una página web, RetractionWatch.com, en la que era
posible encontrar una lista actualizada de artículos
científicos sobre los que se habían realizado retractaciones.
La creación de la página web se debió a los temores de que
las retractaciones en artículos no recibieran la suficiente
publicidad, lo que podía llevar a otros científicos a partir de
bases equivocadas. Una vez más, uno puede lamentar el
hecho de que aproximadamente seiscientos artículos
científicos sufran retractaciones en un año o puede
aplaudir que la comunidad científica tome medidas para
que el problema no se vuelva más grave. Al hacer públicas
las retractaciones, los científicos puede tener incluso un
incentivo para no terminar en ese «muro de la vergüenza».
En su blog, Oransky y Markus argumentan que
RetractionWatch contribuye parcialmente a la naturaleza
autocorrectora de la ciencia.
Aunque muchos perciben la retractación como algo de lo
que avergonzarse (y seguramente lo sea para las partes
interesadas), constituye todavía otro ejemplo de actitud
científica en acción. No es que en la ciencia nunca se
produzcan errores, sino que cuando se cometen, hay
procedimientos ampliamente difundidos que permiten
rectificarlos. Pero es importante tener en cuenta, aunque
esto a veces no está claro fuera de la comunidad científica,
que la retractación de un artículo no es necesariamente
indicativa de fraude. Basta con que haya un error lo
suficientemente grande para que el hallazgo original quede
socavado. (En algunos casos esto se descubre cuando otros
científicos tratan de reproducir el trabajo, cuestión que
será abordada en la siguiente sección.) El ejemplo del p-
hacking por sí solo indica seguramente que hay suficiente
como para mantener ocupados a los perros guardianes.
Pero el fraude es la traición última a la actitud científica (y,
como tal, será abordado en el próximo capítulo). Por ahora,
basta con observar que la retractación de un artículo puede
producirse por muchas razones, y todas ellas acreditan la
vigilancia que ejerce la comunidad científica.
Así pues, la revisión por pares es una parte esencial de la
práctica de la ciencia. No hay mucho que los científicos
puedan hacer para detectar sus propios errores. Quizá se
les pase algo. Quizá quieran que se les pase algo. Tener a
alguien revisando los trabajos antes de que sean publicados
es la mejor manera posible de detectar errores y evitar que
infecten la labor de los demás. La revisión por pares
garantiza la honestidad, incluso si uno es honesto desde el
principio. Recordemos que los grupos proceden mejor que
los individuos. Y los grupos de expertos proceden mejor
que los expertos individuales. Incluso antes de que estos
principios se pusieran experimentalmente a prueba, fueron
incorporados a la norma de la revisión por pares. ¿Qué
ocurre cuando una idea o teoría no pasa por la revisión por
pares? Tal vez nada. Entonces, volviendo sobre el tema de
que quizá como mejor podamos aprender de la ciencia sea
atendiendo a sus fallos, propongo aquí considerar los
detalles de un ejemplo que introduje en el capítulo 3 como
demostración de los inconvenientes de sortear el escrutinio
de la comunidad antes de la publicación: la fusión fría.
Para quienes solo conozcan la versión de «titulares» de
la fusión fría, puede ser tentador tachar el episodio en su
conjunto de fraude o al menos de intento frustrado. Con
títulos como los de los libros previamente mencionados,
Bad Science y Cold Fusion: The Scientific Fiasco of the
Century [«Fusión fría: el fiasco científico del siglo»], es fácil
entender por qué la gente quiere difamar a los dos
investigadores originales, guardar todo el asunto en un
archivo y asegurarse de que nada de eso ocurrirá de nuevo.
Lo que es fascinante, sin embargo, es hasta qué punto todo
este episodio ilumina los procesos de la ciencia. Sea cual
sea la conclusión última que se extraiga —y hubo muchos
juicios de sillón después de que se gastaran más de
cincuenta millones de dólares para refutar los resultados
originales y se designara un comité gubernamental de
investigación 232 —, todo el fiasco de la fusión fría
proporciona un relato admonitorio sobre lo que puede
ocurrir cuando se eluden las prácticas consuetudinarias de
la ciencia.
Los problemas en este caso son de tal envergadura que
uno puede usar el ejemplo de la fusión fría para ilustrar un
buen número de cuestiones acerca de la ciencia: la
debilidad de los métodos analíticos, la importancia de la
puesta en común de datos y la reproducibilidad, los
desafíos de la subjetividad y el sesgo cognitivo, el papel de
la evidencia empírica y los peligros de la interferencia
política y mediática. De hecho, uno de los libros escritos
sobre la fusión fría tiene un último capítulo que detalla las
numerosas lecciones que podemos extraer de los procesos
científicos sobre la base de los fallos que se produjeron en
este caso 233 . Me centraré aquí solo en uno de ellos: la
revisión por pares.
Como se adelantó antes, el 23 de marzo de 1989, dos
químicos, B. Stanley Pons y Martin Fleischmann,
celebraron una conferencia de prensa en la Universidad de
Utah para anunciar un descubrimiento científico de
campanillas: tenían evidencia experimental de la
posibilidad de obtener una reacción de fusión nuclear a
temperatura ambiente usando materiales disponibles en la
mayoría de los laboratorios de química. El anuncio era
sorprendente. Si era cierto, permitía vislumbrar la
posibilidad de que se encontraran adaptaciones
comerciales para producir un suministro prácticamente
ilimitado de energía. Los políticos y los periodistas
quedaron hipnotizados, y el anuncio obtuvo una cobertura
de primera plana en varios medios de comunicación,
incluyendo el Wall Street Journal. Pero la conferencia de
prensa fue sorprendente por otra razón: Pons y
Fleischmann no habían producido todavía ningún artículo
que detallara su experimento, impidiendo que otros
científicos tuvieran la posibilidad de revisar su trabajo.
Decir que esto es algo inusual en la ciencia es quedarse
corto. La revisión por pares es un principio fundamental de
la actividad científica porque es la mejor manera posible de
detectar errores —y de plantear las cuestiones críticas
adecuadas— antes de que un hallazgo se difunda. Un
interviniente en este debate, John Huizenga, reconoce que
«las prisas por publicar se remontan al siglo XVII», cuando
la Royal Society de Londres empezó a dar prioridad a los
primeros en publicar en vez de a los primeros en hacer
descubrimientos 234 . Las presiones competitivas en la
ciencia son intensas, y las disputas de prioridad sobre
hallazgos importantes, comunes. Así pues, en su afán por
publicar cuanto antes, los científicos prescinden de
importantes comprobaciones experimentales y los editores
ponen en peligro la revisión por pares, lo que conduce a
resultados incompletos e incluso incorrectos 235 . Y esto
parece ser lo que ocurrió con la fusión fría.
En el momento de la conferencia de prensa, Pons y
Fleischmann trataban de batir en una carrera a otro
investigador de una universidad cercana, a quien acusaban
de haber pirateado su descubrimiento tras haber leído
sobre él al valorar una solicitud de subvención que habían
cursado. El investigador, Steven Jones, de la Universidad
Brigham Young, afirmó por su parte que llevaba mucho
tiempo trabajando en la fusión fría y que la propuesta de
subvención de Pons y Fleischmann había supuesto un
«ímpetu» para volver al trabajo y no demorar más la
publicación de sus propios resultados. Una vez que la
administración de sus respectivas universidades (Utah y
BYU) se involucraron y el asunto empezó a apuntar a la
posibilidad de patentes y gloria para la institución, las
responsabilidades recayeron sobre otras manos y pocos se
comportaron admirablemente. Como ya se ha hecho notar,
los científicos son seres humanos y experimentan las
mismas presiones competitivas que cualquiera de nosotros.
Pero Pons y Fleischmann iban a vivir para arrepentirse de
su precipitación.
Como terminó demostrándose, la evidencia experimental
de su investigación era débil. Afirmaban haber encontrado
una enorme cantidad de exceso de calor al realizar un
experimento electroquímico con paladio, platino y una
mezcla de agua pesada y litio, y algo de corriente eléctrica.
Pero si esta era una reacción nuclear y no química, tenían
un problema: ¿dónde estaba la radiación? En la fusión de
dos núcleos de deuterio se espera que se desprenda no solo
calor, sino también neutrones (y rayos gamma). Sin
embargo, repetidamente, Pons y Fleischmann no
encontraron ningún neutrón (o tan pocos como para
sugerir que había tenido que haber algún tipo de error) con
el detector que habían tomado del Departamento de Física.
¿Podía haber alguna otra explicación?
Se diría que tenía que haber un proceso bastante sencillo
que permitiera poner orden en todo esto, pero en los
primeros días después de la conferencia de prensa, Pons y
Fleischmann rechazaron compartir sus datos con otros
experimentadores, que no tuvieron más remedio que
«[extraer] los datos experimentales del Wall Street Journal
y otras publicaciones de noticias» 236 . No hace falta decir
que así no es como debería funcionar la ciencia. Las
réplicas no se suponen basadas en conjeturas sobre la
técnica experimental ni en llamadas de teléfono para pedir
más información. En cualquier caso, en lo que Gary Taubes
llama «desequlibrio colectivo de mentes» [collective
derangement of minds], un buen número de personas de la
cominidad científica se vieron atrapadas en medio del
alboroto, y muchas confirmaciones «parciales» empezaron
a menudear por todo el mundo 237 . Varios grupos de
investigación informaron de que ellos también habían
encontrado excesos de calor en el experimento con paladio
(pero todavía no radiación). En el Instituto Tecnológico de
Georgia se pretendió haber logrado explicar la ausencia de
átomos de deuterio por la presencia de boro como
ingrediente de la cristalería Pyrex que Pons y Fleischmann
habían usado; cuando se comprobaron los resultados con
una cristalería sin boro, se encontró algo de radiación que
desapareció cuando el detector quedó protegido detrás de
un escudo de boro. Otro grupo pretendió tener una
explicación teórica para la ausencia de radiación, con el
helio y el calor como único producto de la reacción de
electrolisis de Pons y Fleischmann 238 .
Por supuesto, también hubo críticos. Algunos físicos
nucleares en particular eran especialmente escépticos en
torno a cómo un proceso como la fusión —que se produce a
enormes temperatura y presión en el centro del Sol— podía
ocurrir a temperatura ambiente. Muchos rechazaron esas
críticas, sin embargo, como representación de la «vieja»
manera de pensar en torno a la fusión. Un psicólogo
disfrutaría de un día de excursión con todo el tribalismo,
subido al carro ganador y respuestas tipo «el emperador
está desnudo» que hubo a continuación. De hecho, algunos
han sostenido que buena parte de las respuestas positivas a
la fusión fría puede explicarse sobre la base del trabajo
experimental de Solomon Asch sobre la conformidad, en el
que encontró que un número relevante de sujetos negaría
hechos evidentes por sí mismos si ello fuera necesario para
estar de acuerdo con el grupo de referencia 239 . No
obstante, es importante señalar que aunque todos estos
efectos psicológicos puedan ocurrir en la ciencia, se supone
que son depurados mediante el tipo de escrutinio crítico
que realiza la comunidad de científicos. ¿Dónde se hizo
esto? A pesar de que sea fácil lanzar vituperios sobre lo
lentamente que se desarrollan las cosas, es importante
tener en cuenta que la investigación crítica se estaba
llevando a cabo en otros lugares, con otros investigadores
que trabajaban con la desventaja de contar con unos datos
inadecuados y demasiadas preguntas sin respuesta. Y, a
medida que fueron difundiéndose algunos detalles acerca
del trabajo de Pons y Fleischmann, los problemas para la
fusión fría empezaron a multiplicarse.
Para empezar, ¿dónde estaba la radiación? Como ya se
ha dicho, hubo quien consideró que su ausencia era
explicable, pero la mayoría permaneció escéptica. Otro
problema surgió cuando algunos se preguntaron si el
exceso de calor podía explicarse como mero artefacto de
algún proceso químico desconocido. El 10 de abril de 1989,
un artículo precipitado y penosamente incompleto de Pons
y Fleischmann apareció en Journal of Electroanalytical
Chemistry. Estaba plagado de errores. ¿Por qué no salieron
a la luz en la revisión por pares? Porque no hubo revisión
por pares 240 . La única evaluación fue la del director de la
revista (que era amigo de Stanley Pons), y de ahí fue
directo a la imprenta debido al «gran interés» de la
comunidad científica 241 . En las numerosas conferencias
científicas que siguieron, Pons se mostró reacio a dar
respuesta a preguntas concretas de colegas acerca de
problemas con su trabajo y rechazó compartir los datos
brutos. A su favor cabe señalar que en ese momento se
habían recibido múltiples confirmaciones «parciales» y que
otros también estaban defendiendo su trabajo asegurando
que tenían resultados similares. Aunque Pons era
consciente de que su trabajo presentaba algunas
deficiencias, todavía podía creer en él.
Y, sin embargo, como ya vimos anteriormente en este
mismo capítulo, hay una alta correlación entre no
compartir los propios datos y el error analítico 242 . No se
sabe si Pons trató de evitar deliberadamente que otros
descubrieran alguna debilidad de la que él ya era
consciente o si se vio meramente atrapado en el alboroto
que se desató en torno a su propia teoría. Aunque algunos
se han referido a esto como fraude —y bien pudo haberlo
sido—, no hace falta ir tan lejos para considerarlo un
ejemplo deplorable. Se espera de los científicos que
participen en la crítica a sus propias teorías —o que al
menos cooperen con ella— y ¡ay de aquellos que se
resisten! Pons es culpable al menos de obstruir el trabajo
de los demás, lo que es un ataque al espíritu de la actitud
científica, de acuerdo con la cual deberíamos estar
dispuestos a comparar nuestras ideas con los datos, sean
nuestros o de otros investigadores 243 .
El asunto no tardó en desenmarañarse a partir de
entonces. Una versión más extensa y cuidadosamente
escrita del experimento de Pons y Fleischmann fue enviada
a la revista Nature. Mientras esperaba a que el artículo
superara la revisión por pares, el editor de la revista, John
Maddox, publicó un editorial en el que afirmaba:
Es rara aquella investigación que va en contra del
sentido común aceptado y al mismo tiempo es tan
convincentemente correcta que su relevancia es
reconocida al instante. Los autores con una
concepción única o estrafalaria de los problemas
pueden sentir que no cuentan con verdaderos colegas
capaces de evaluar su trabajo y que los revisores de
temperamento tradicional tienen ya en la boca la
palabra «no» antes de haberle prestado demasiada
atención al artículo. Pero también hay que decir que
la mayoría de las afirmaciones difíciles de creer
terminan siendo precisamente eso, así que los
revisores pueden ser perdonados por darse cuenta de
ello rápidamente 244 .

Unas pocas semanas después, el 20 de abril, Maddox


anunció que no publicaría el artículo de Pons y
Fleischmann porque los tres encargados de la revisión por
pares habían encontrado graves problemas y críticas que
hacerle al artículo. El más grave de ellos era que Pons y
Fleischmann ¡no habían hecho aparentemente control
alguno! Esto de hecho no era cierto. Además del
experimento de la fusión con agua pesada, Pons y
Fleischmann habían hecho una versión anterior del mismo
experimento con agua ligera y habían obtenido resultados
similares 245 . Sin embargo, Pons no dijo nada de esto y solo
lo compartió con Chuck Martin, de la Universidad de Texas
A&M, que había alcanzado el mismo resultado. Cuando
hablaron, Pons le dijo que en aquel momento estaba en la
parte «más emocionante» de su investigación, pero que no
podía decir más por cuestiones de seguridad nacional 246 .
De la misma manera, otros investigadores que habían
«confirmado» el resultado original fueron comprobando
que también se producía con carbono, tungsteno y oro 247 .
Pero si todos los controles «funcionaron», ¿no quedaba el
resultado original ensombrecido por la sospecha? ¿O
significaba esto que el hallazgo original de Pons y
Fleischmann era incluso mayor —y más emocionante— de
lo que se pensaba en un principio?
No pasó mucho tiempo hasta que el castillo de cartas se
vino definitivamente abajo. El 1 de mayo —en una reunión
de la American Physical Society que tuvo lugar en
Baltimore—, Nate Lewis (un electroquímico de Caltech) dio
una charla en la que casi acusó a Pons y Fleischmann de
fraude por sus chapuceros resultados experimentales;
recibió una larga ovación de los dos mil físicos del
auditorio. El 18 de mayo de 1989 (menos de dos meses
después de la conferencia de prensa en Utah con la que
empezó todo), Richard Petrasso y otros (del MIT)
publicaron un artículo en Nature que mostraba que los
resultados originales de Pons y Fleischmann eran
artificiales y no se debían a ninguna reacción de fusión
nuclear. Parece que el gráfico completo del espectro de
rayos gamma que Pons había mantenido tan en secreto (a
pesar de que se suponía que era su principal evidencia)
había sido interpretado erróneamente. Desde entonces
arreciaron las críticas al resultado original, a la
«configuración» de los hallazgos y al comité del Gobierno
de Estados Unidos, que recibió el encargo de investigar el
asunto. Pons, finalmente, desapareció y luego dimitió.
La revisión por pares es uno de los medios más
importantes de los que dispone la comunidad científica
para vigilar los errores y negligencias de los individuos que
—ya sea consciente o inconscientemente— pueden dejarse
afectar por el tipo de presiones que pueden llevarles a
reducir el tiempo y el esfuerzo que le dedican a su trabajo.
Aun cuando sufre bloqueos u obstáculos, este escrutinio es,
en último término, imparable. La ciencia es una tarea
pública y debemos estar preparados para presentar la
evidencia con la que contamos o afrontar las
consecuencias. En cualquier caso, los hechos finalmente
saldrán a la luz. Algunos, por supuesto, lamentarán el
hecho de que toda la debacle de la fusión fría ocurriera y lo
verán como un cargo que presentar contra el proceso de la
ciencia. Seguramente haya muchos críticos de la ciencia
dispuestos a ello, sin nada mejor que ofrecer en su lugar
que la pseudociencia. Pero creo que es importante que
recordemos —como vimos a propósito del p-hacking— que
el carácter distintivo de la ciencia no reside en que
pretenda ser perfecta. De hecho, el error y su
descubrimiento son parte fundamental de lo que hace
avanzar la ciencia. Más de un comentarista de cuantos han
intervenido en este debate ha señalado que la ciencia se
corrige a sí misma. Cuando se produce un error, no es
normal que se extienda. Si Pons y Fleischmann hubieran
estado dispuestos a compartir sus datos y hubieran
adoptado la actitud científica, todo el asunto habría podido
concluir en unos pocos días si hubiera llegado a surgir.
Pero incluso cuando los egos, el dinero y otras formas de
presión entran en juego, la naturaleza crítica y competitiva
de la investigación científica casi llega al punto de
garantizar que cualquier error será finalmente descubierto.
Así, una vez más, en lugar de culpar a la ciencia de que un
error se haya producido, quizá debamos celebrar el hecho
de que uno de los mayores fallos científicos del siglo XX
fuera descubierto y enterrado menos de dos meses después
de que se anunciara, contando para ello únicamente con la
ausencia de concordancia con la evidencia empírica. A
pesar de todos los factores superfluos que complicaron las
cosas y las retrasaron, he aquí una elocuente muestra de la
actitud científica en lo mejor de su desempeño. Como
afirma John Huizenga:
El fiasco de la fusión fría sirve para ilustrar cómo
funciona el proceso científico. [...] Los científicos son
personas normales y en la ciencia se producen
errores y equivocaciones. Esto se detecta ya sea en
discusiones tempranas de los investigadores con sus
colegas, ya sea en el proceso de revisión por pares. Si
algún error escapa a su notificación previa a la
publicación, el trabajo publicado será examinado por
otros científicos, especialmente si está en desacuerdo
con un conjunto de datos establecidos. [...] El proceso
científico se corrige a sí mismo 248 .

PUESTA EN COMÚN DE DATOS Y REPLICACIÓN

Como acabamos de ver, no compartir los datos está mal.


Cuando firmamos como científicos, estamos aceptando
implícitamente un grado de honestidad intelectual que nos
obliga a cooperar con otros que buscan comprobar la
adecuación de nuestros resultados. En algunos casos (como
los de las revistas patrocinadas por la American
Psychological Association) se exige realmente que el autor
se comprometa por escrito a compartir datos con otros
investigadores que se lo soliciten. Más allá de la revisión
por pares, esto introduce como estándar la expectativa de
que los hallazgos científicos sean replicables.
Como indica Trivers en su reseña de los hallazgos de
Witchers, esto no quiere decir que la puesta en común de
datos ocurra necesariamente. Como seres humanos, a
veces no hacemos lo que se espera de nosotros. Como
comunidad, sin embargo, esto no afecta a las
expectativas 249 . La actitud científica exige de nosotros que
respetemos el poder de refutación de la evidencia; en
parte, esto consiste en estar dispuesto a cooperar con otros
que buscan someter a escrutinio o incluso refutar las
teorías que tanto esfuerzo nos ha costado formular. Por eso
es tan importante que este estándar sea aplicado por la
comunidad científica (y que se incorpore una advertencia
pública cuando no se aplique).
Debería tenerse en cuenta, en cualquier caso, que hay
una distinción entre el rechazo a poner en común los datos
y la realización de trabajos no reproducibles. Es de suponer
que uno de los motivos por los que alguien podría negarse
a poner en común sus datos sea el miedo a que otra
persona no sea capaz de confirmarlos. A pesar de que esto
no significa que nuestro trabajo sea fraudulento,
ciertamente sería algo de lo que avergonzarse. Indica que
algo tiene que estar mal. Como hemos visto, puede tratarse
de un error cuantitativo, un análisis defectuoso, una mala
recogida de datos o una serie de traspiés que pueden ser
descritos como producto de la negligencia o la pereza. O
puede revelar fraude. En cualquier caso, nada de esto sería
una buena noticia para el investigador, así que elige ocultar
sus datos. Trivers critica atinadamente esta práctica,
afirmando que esos investigadores son «una parodia de
académicos». Y, como Witchers demuestra, hay una
correlación problemática entre no poner en común los
datos y una mayor probabilidad de error cuantitativo en un
estudio publicado 250 . Uno se imagina que si los datos
reales estuvieran disponibles, otros problemas asomarían
también.
Y eso pasa a veces. El primer corte es cuando un
segundo investigador usa los mismos datos y sigue el
mismo método que el investigador original, pero los
resultados no son los mismos. Entonces se dice que un
estudio no es reproducible. El segundo paso es cuando se
hace patente —si se llega a esto— por qué el trabajo
original no es reproducible. Si es porque los datos están
inventados, probablemente una carrera haya llegado a su
fin. Si es por una mala técnica, es una reputación lo que
está en juego. Sin embargo, es importante entender aquí
que la imposibilidad de replicar un estudio no es
necesariamente algo malo para la profesión en general. Así
es como aprende la ciencia 251 . Esto es probablemente en
parte lo que se quiere decir con que la ciencia se corrige a
sí misma. Un científico comete un error, otro científico se
da cuenta de ello y se aprende una lección. Si la lección es
acerca del objeto de investigación —en vez de acerca de la
ética del investigador original—, es posible que haya más
trabajo que hacer. Quizá se den incluso nuevos avances.
Cuando pensamos que sabemos algo, pero en realidad no
es así, hay una barrera que dificulta que se hagan nuevos
descubrimientos. Pero cuando nos encontramos con que
algo que considerábamos verdadero no lo es realmente,
podemos tener ante nosotros la perspectiva de un gran
avance. Tenemos la oportunidad de aprender más acerca
de cómo funcionan las cosas. El fracaso, por tanto, puede
ser valioso para la ciencia 252 .
La cosa más importante de la ciencia es que intentamos
encontrar fallos. El verdadero peligro al que se enfrenta la
ciencia no procede de los errores, sino del engaño. Los
errores pueden ser corregidos e incluso se puede aprender
de ellos; el engaño se usa frecuentemente para tapar
errores. Los datos fabricados pueden ser construidos sobre
la base de las anotaciones de otros investigadores antes de
que sean descubiertos. Cuando los investigadores
anteponen sus carreras a la producción de conocimiento,
no solo traicionan los ideales de la actitud científica, sino
también a sus propios colegas de profesión. La mentira, la
manipulación y la corrupción son la definición misma de la
actitud incorrecta con respecto a la evidencia empírica.
Una vez más, sin embargo, debemos hacer todos los
esfuerzos que estén a nuestro alcance para establecer una
distinción entre los estudios no reproducibles y el fraude.
Será de ayuda aquí recordar nuestra lógica. Los resultados
fraudulentos son casi siempre no reproducibles. Pero esto
no significa que la totalidad o ni siquiera la mayor parte de
los estudios no reproducibles sean consecuencia del fraude.
El crimen contra la actitud científica es, por supuesto,
mucho más grave que el fraude. Sin embargo, también
podemos aprender algo acerca de la actitud científica
centrándonos en las razones menos indignantes para los
estudios no reproducibles. Incluso en el caso de que la
razón para que un estudio no sea reproducido no tenga
nada que ver con el fraude, lo más probable es que el
escrutinio a gran escala llevado a cabo por la comunidad
científica lo encuentre. Meramente por el hecho de contar
con un estándar de puesta en común y reproducibilidad de
datos hemos adoptado la actitud científica 253 . Ya resulte un
estudio no reproducible de errores intencionados o no
intencionados, el mecanismo con el que podemos contar
para descubrirlos es el mismo.
Uno podría pensar, por tanto, que la mayoría de los
estudios científicos son reproducidos, que al menos la
mitad del trabajo científico ha de consistir en el esfuerzo
por reproducir los hallazgos de otros, de tal manera que
podamos asegurarnos de su corrección antes de que el
campo de investigación siga adelante. Esto sería falso. Tal
vez sea más interesante que un estudio no logre reproducir
los resultados a los que ha llegado otro investigador, pero
esto también plantea ciertos riesgos. La mayor gloria en la
investigación científica se obtiene gracias a la producción
de resultados originales, no de comprobar los de otros
investigadores, sean o no reproducibles. Quizá esta sea la
razón por lo que solo se intente reproducir un pequeño
porcentaje de los trabajos científicos 254 . Se podría
argumentar que no hay ningún problema en ello, puesto
que los estándares impuestos por la revisión por pares son
tan exigentes que no cabe esperar que haya que repetir
muchos estudios. Con tantos controles, sería
verdaderamente extraño dar con un estudio no
reproducible. Pero este supuesto también ha sido
cuestionado en los últimos años. De hecho, los medios de
comunicación llevan tiempo plagados de historias acerca
de la «crisis de reproducibilidad» en la ciencia,
especialmente en psicología, en la cual —en cuanto uno se
molesta en mirar— se ha encontrado que ¡el 64 % de los
estudios no es reproducible! 255 .
Al igual que con la «crisis» del p-hacking, uno podría ver
esto como un serio desafío a la afirmación de que la ciencia
es especial y de que los científicos se distinguen por su
compromiso con un conjunto de valores que honran el
hecho de basar las propias creencias en la evidencia
empírica. Ahora bien, una vez más, mucho puede
aprenderse del examen de cómo la comunidad científica ha
respondido a esta «crisis» de reproducibilidad.
Comencemos con una mirada más atenta a la crisis en sí.
En agosto de 2015, Brian Nosek y un grupo de colegas
publicaron un artículo titulado «Estimating the
Reproducibility of Psychological Science» en la prestigiosa
revista Science. Cayó como una bomba. Unos pocos años
antes, Nosek había participado en la fundación del Center
for Open Science (COS, por sus siglas en inglés), cuya
misión era incrementar la puesta en común de datos y la
reproducción de experimentos científicos. Su primer
proyecto recibió el nombre de «proyecto de
reproducibilidad». Nosek reclutó otros doscientos setenta
investigadores para que le ayudaran a intentar reproducir
cien estudios psicológicos. Y lo que encontraron fue
sorprendente. De los cien estudios, solo el 36 % pudieron
ser reproducidos 256 .
Es importante destacar aquí que Nosek y sus
colaboradores no afirmaron que los estudios que no
pudieron ser reproducidos fueran fraudulentos. En todos
los casos hallaron un efecto que apuntaba en la misma
dirección que los investigadores originales habían indicado.
Lo que ocurrió fue que en la mayoría de ellos el tamaño del
efecto se redujo a la mitad. La evidencia no era tan fuerte
como decían los investigadores originales, de tal manera
que las conclusiones que se extraían en los artículos no
estaban debidamente fundamentadas en más de la mitad
de los casos. ¿Por qué ocurrió esto? La imaginación se
vuelve inmediatamente a todos los «grados de libertad»
que fueron discutidos anteriormente en este capítulo.
Desde un tamaño de muestra demasiado pequeño a un
error analítico, se encontraron diversas deficiencias.
Esto llevó a que se redactaran titulares en todo el mundo
que anunciaban una crisis de reproducibilidad en la
ciencia. Y, no nos equivoquemos, los efectos secundarios no
fueron solo para la psicología. John Ioannidis (a quien
recordaremos por un artículo anteriormente mencionado,
«Most Research Results Are Wrong») afirmó que el
problema podía ser incluso más grave en otras áreas, como
la biología celular, la economía, la neurociencia o la
medicina clínica 257 . «Muchos de los sesgos encontrados en
psicología son generalizados», dijo 258 . Otros estuvieron de
acuerdo 259 . También hubo algunos escépticos. Norbert
Schwarz, un psicólogo de la Universidad del Sur de
California, afirmó: «No hay duda de que la replicación es
importante, pero con frecuencia es solo un ataque, un
ejercicio de vigilancia». Aunque no participó en ninguno de
los estudios originales, prosiguió quejándose de que los
estudios de reproducibilidad casi nunca se comprueban a
su vez en busca de errores en su propio diseño y
análisis 260 .
Sin embargo, esto es exactamente lo que ocurrió
después. En marzo de 2016, tres investigadores de la
Universidad de Harvard (Daniel Gilbert, Gary King y
Stephen Pettigrew) y uno de los colegas de Nosek en la
Universidad de Virginia (Timothy Wilson) dieron a conocer
su propio análisis de los estudios de replicación del Center
for Open Science y hallaron que «los métodos de
investigación usados para llevar a cabo la reproducción de
los estudios originales estaban pobremente diseñados,
inadecuadamente aplicados e introducían un error
estadístico en los datos» 261 . Cuando se realizó un nuevo
análisis de los estudios originales con una técnica mejor, la
tasa de reproducibilidad se acercó al 100 %. Como subrayó
Wilson, «[el estudio de Nosek] gozó de mucha difusión y se
sacaron de él conclusiones erróneas. [...] Es un error hacer
generalizaciones a partir de cosas que se han hecho mal, y
creemos que aquello se hizo mal» 262 .
Este es un momento hermoso para aquellos a quienes la
ciencia les importa. Y, me atrevería a decir, esta es una de
las mejores demostraciones de la actitud crítica detrás de
la ciencia que uno podría imaginar. Se publica un estudio
que encuentra una metodología deficiente en algunas
investigaciones y —menos de siete meses después— se
revela que había deficiencias en el estudio que había
encontrado las deficiencias. En vez de hablar de
«patochada policial», es mejor decir que en ciencia ocurre
que los guardianes también tienen guardianes —hay un
sistema de controles y controles de los controles destinado
a corregir errores y acercarse a la verdad.
¿Qué errores había en el estudio de Nosek? Eran
numerosos.

1. Nosek y sus colaboradores adoptaron un enfoque no


aleatorio a la hora de efectuar la selección de los
estudios que iban a intentar reproducir. Como explica
Gilbert, «lo que hicieron fue crear una lista
idiosincrásica y arbitraria de reglas para la muestra
que excluía la mayor parte de las subáreas de la
psicología, clases enteras de estudios cuyos métodos
se encuentran probablemente entre los mejores en
ciencia. [...] Luego procedieron a transgredir todas sus
propias reglas. [...] Así, la primera cosa de la que nos
damos cuenta es que no importa lo que encontraran —
buenas o malas noticias—: nunca tuvieron ni la menor
posibilidad de calcular la reproducibilidad de la
ciencia psicológica, que es lo que el título mismo de su
artículo anunciaba que habían hecho» 263 .
2. Algunos de sus estudios ni siquiera estaban próximos
a constituir reproducciones exactas. En uno de los
ejemplos más flagrantes, el equipo del COS estaba
intentado recrear un estudio realizado en Stanford
sobre actitudes hacia la acción afirmativa. En el
estudio original se les pedía a unos estudiantes
blancos de Stanford que vieran un vídeo en el que
otros cuatro estudiantes de la misma universidad —
tres blancos y uno negro— hablaban acerca de la raza
y durante el cual uno de los estudiantes blancos hacía
un comentario ofensivo. Se comprobó que los
observadores miraban durante un tiempo
significativamente mayor al estudiante negro cuando
pensaban que podía estar escuchando el comentario
que cuando pensaban que no podía. Sin embargo, en
su intento de reproducción, el equipo del COS mostró
el vídeo a estudiantes de... la Universidad de
Ámsterdam. Quizá no sea sorprendente que los
estudiantes holandeses, al ver a los americanos
hablando en inglés, no manifestaran la misma
reacción. Pero aquí empieza el verdadero asunto,
puesto que el equipo del COS se dio cuenta del
problema, repitió el experimento en otra universidad
estadounidense y obtuvo el mismo resultado que el
estudio original en Stanford; decidieron no hacer
mención de esta reproducción exitosa en su informe,
pero incluyeron la de Ámsterdam, que no lo había
sido 264 .
3. No había ningún protocolo acordado para el análisis
cuantitativo antes de la reproducción. En lugar de eso,
Nosek y su equipo usaron cinco medidas diferentes
(entre ellas, la fuerza del efecto) para ver todos los
resultados combinados. Habría sido mejor, tal como
sugieren Gilbert et al., centrarse en una medida 265 .
4. El equipo del COS no llegó a explicar cuántas
reproducciones se esperaba que fallaran debido a la
pura casualidad. No se puede esperar como método
estadístico una tasa de éxitos del 100 % en las
reproducciones. King explica: «Si vas a reproducir
cien estudios, algunos intentos fracasarán
simplemente por casualidad. Esto es teoría básica de
muestreo. Por tanto, hay que utilizar estadísticas para
calcular cuántos estudios se espera que fracasen solo
por casualidad porque de otra manera el número de
los que realmente fallan no tiene sentido» 266 .

El resultado de estos errores es que —si los tenemos en


cuenta y rectificamos— la tasa de reproducibilidad para los
cien estudios originales estaba «en torno a lo que cabría
esperar si todos y cada uno de los hallazgos originales
hubieran sido verdaderos» 267 . Debe tenerse en cuenta que,
también así, Gilbert, King, Pettigrew y Wilson no están
sugiriendo que Nosek y sus colegas hayan cometido fraude
o algún otro tipo de actividad ilícita. «Seamos claros»,
afirma Gilbert, «ninguno de los involucrados en este
estudio ha intentado engañar a nadie. Solo cometieron
errores, como los científicos hacen a veces» 268 .
Nosek, en cualquier caso, alegó que la crítica a su
estudio de reproducción estaba gravemente sesgada:
«Están haciendo suposiciones basadas en una
interpretación selectiva de los datos y sin tener en cuenta
aquellos que son antagónicos con respecto a su punto de
vista» 269 . En resumen, les acusó casi exactamente de lo
mismo de lo que ellos le habían acusado a él —de evidencia
incompleta [cherry picking]—, que es a su vez lo mismo de
lo que él había acusado a algunos de los investigadores
originales.
¿Quién tiene razón aquí? Quizá todos la tengan. Uri
Simonsohn (uno de los autores que colaboraron en el
estudio previamente relatado en torno al p-hacking de
Simmons et al.) —sin tener absolutamente nada que ver
con esta espiral de la crisis de reproducibidad— dijo que
tanto el artículo original como las críticas vertidas contra él
usaron técnicas estadísticas que son «previsiblemente
imperfectas». Una manera de entender esto, dice
Simonsohn, es que el artículo de Nosek afirma que el vaso
está lleno en un 40 %, mientras que Gilbert et al. dicen que
podría estarlo en un 100 % 270 . Simonsohn explica: «Las
técnicas de última generación concebidas para examinar la
reproducibilidad dicen que el vaso está lleno en un 40 %,
en un 30 % vacío, y que el restante 30 % puede estar lleno
o vacío: no lo sabremos hasta que tengamos más datos» 271 .
¿Qué implicaciones tiene esto para la actitud científica?
Están puestas de manifiesto en esta última afirmación.
Cuando no tenemos la respuesta a una cuestión empírica,
debemos seguir investigando. Los investigadores usan la
actitud científica para criticar el estudio que critica otros
estudios. Pero también aquí tiene que haber controles.
Corresponde a la comunidad científica en su totalidad
tomar una decisión —de la misma manera que hizo en el
caso de la fusión fría— en torno a cuál es la respuesta
correcta en último término.
Incluso si todos y cada uno de los cien estudios
originales examinados en el curso del proyecto de
reproducibilidad resultaran ser correctos, sería necesario
un escrutinio adicional de las cuestiones relativas a la
puesta en común de datos y la reproducción en la ciencia.
Esta polvareda —que está sin duda lejos de disiparse—
sugiere la necesidad de que seamos mucho más
transparentes en nuestros métodos de investigación y
presentación de informes, así como en el intento de
reproducir el trabajo de otros. (Miremos de lo contrario a la
importancia de la reproducibilidad en la polémica de la
fusión fría.) Y tal vez hayamos obtenido ya algo bueno de
ello. En 2015, la revista Psychological Science anunció que
a partir de entonces les pediría a los investigadores que
preinscriban los métodos de su estudio y sus modos de
análisis antes de la recolección de datos, de tal manera que
más tarde puedan componerse con lo que realmente
encuentren. Otras revistan han seguido el mismo
ejemplo 272 .
El creciente escrutinio que la «crisis de
reproducibilidad» ha propiciado es algo bueno para la
ciencia. Aunque resulte embarazoso para algunos de los
implicados, la previsión de que nada quedará barrido
debajo de la alfombra supone otra victoria para la actitud
científica. De hecho, ¿en qué otros campos podemos
imaginar semejante diligencia en la erradicación de sus
propios errores? También frente a la crítica pública, la
ciencia sigue sólidamente comprometida con los estándares
más exigentes basados en la evidencia. Puede haber
transgresiones individuales, pero la «crisis de
reproducibilidad» de la ciencia ha dejado claro su
compromiso con la actitud científica.

CONCLUSIÓN

En este capítulo he sido bastante duro con algunos de los


errores de la ciencia. No pretendía, sin embargo, mostrar
que la ciencia tiene debilidades (ni que sea perfecta),
aunque a lo largo del camino haya puesto de manifiesto que
los científicos también son humanos. Adoramos nuestras
propias teorías. Deseamos que sean correctas.
Seguramente cometamos continuos errores de juicio al
respaldar aquello en cuya verdad tenemos depositadas
nuestras esperanzas, incluso si somos estadísticos. No he
pretendido mostrar que a los científicos no les afecten
algunos de los mismos sesgos cognitivos que a todos
nosotros, como el sesgo de confirmación o el razonamiento
motivado. Podría decirse incluso que estos sesgos son la
razón subyacente al p-hacking, a la negativa a poner en
común los propios datos, a tomarse de manera laxa los
grados de libertad, a celebrar una conferencia de prensa en
lugar de someterse a la revisión por pares y a publicar
trabajos no reproducibles (incluso cuando nuestro objeto
de investigación es la reproducibilidad misma de otros
trabajos). Allá donde el lector se vea tentado a concluir en
varios casos que estos deplorables errores podrían deberse
únicamente a un déficit intencionado de supervisión —y
revelar, por tanto, fraude—, le pediré que dé un paso atrás
y tome en consideración la posibilidad de que se deban
meramente a un sesgo cognitivo inconsciente 273 .
Afortunadamente, la ciencia como institución es más
objetiva que los científicos. Los rigurosos métodos de
supervisión científica ejercen un control sobre el sesgo
individual. En los diversos ejemplos expuestos en este
capítulo hemos visto problemas creados por ambiciones
individuales y vicios mentales que pueden ser rectificados
mediante la rigurosa aplicación del escrutinio de la
comunidad. Se espera, por supuesto, que la actitud
científica sea adoptada por todos aquellos que se
consagran individualmente a la práctica de la ciencia. Pero
como hemos visto, la actitud científica es algo más que una
actitud individual; es un ethos compartido que adopta la
comunidad de académicos que deben enjuiciar mutuamente
sus teorías sobre la base de criterios públicos. De hecho,
esta puede ser la verdadera distinción entre la ciencia y la
pseudociencia. No se trata de que los pseudocientíficos
tengan más sesgos cognitivos que los científicos. Ni
siquiera se trata de que los científicos sean más racionales
(aunque espero que así sea). Ocurre en lugar de eso que la
ciencia ha hecho un gran esfuerzo comunitario por crear un
conjunto de estándares basados en la evidencia que puede
ser usado para controlar nuestros peores instintos y
realizar correcciones durante el proceso, de tal manera que
las teorías científicas están fundamentadas como objeto de
creencia más allá de los científicos individuales que las
descubren. La ciencia es la mejor manera de encontrar y
corregir los errores humanos en asuntos empíricos, no
porque los científicos sean extraordinariamente honestos ni
merced a su compromiso individual con la actitud
científica, sino porque los mecanismos para ello (el método
cuantitativo riguroso, el escrutinio por pares o la confianza
en el poder refutatorio de la evidencia) reciben el respaldo
de la actitud científica a escala de la comunidad.
Es la actitud científica —no el método científico— lo que
importa. Por tanto, ya no tenemos por qué hacer como si la
ciencia fuera plenamente «objetiva» y los «valores»,
irrelevantes. De hecho, los valores son cruciales a
propósito de lo que la ciencia tiene de especial. Kevin
deLaplante dice: «La ciencia sigue siendo una tarea
cargada de valores. La buena ciencia está tan cargada de
valores como la mala ciencia. Lo que distingue la buena
ciencia de la mala no es la ausencia de juicios de valor: es
el tipo de juicios de valor que están en juego» 274 .
Todavía hay algunos problemas que considerar. En
primer lugar, ¿qué tendríamos que hacer con aquellos que
piensan que tienen actitud científica cuando en realidad no
la tienen? Esta cuestión se abordará en el capítulo 8, donde
discutiremos los problemas de la pseudociencia y el
negacionismo científico. Confío, sin embargo, en que uno
pueda ir ya imaginando el esbozo de una respuesta: no es
solo la probidad de un individuo en la actitud científica —ni
seguramente tampoco su creencia acaso errónea en
poseerla— lo que mantiene la honestidad de la ciencia. La
comunidad juzgará qué es y qué no es ciencia. Sin
embargo, surge ahora un segundo problema, puesto que
¿es realmente tan fácil como decir que «la comunidad
decide»? ¿Qué ocurre cuando la comunidad científica se
equivoca? En el capítulo 8 también abordaré este problema
por medio de la consideración de casos en los que el
científico individual estaba en lo cierto y la comunidad
científica equivocada 275 . Como ejemplo, discutiré el
ejemplo maravilloso pero poco conocido de la teoría de
Harlen Bretz acerca de que una megainundación fue la
causa del surgimiento de los terrenos erosionados en el
este del estado de Washington. También ofreceré algunas
razones que ponen en cuestión la idea de que quienes hoy
niegan el cambio climático serán los Galileos de mañana. Y,
como prometí, examinaré la cuestión del fraude científico
en el capítulo 7.
No obstante, antes de todo esto, en el próximo capítulo,
nos tomaremos un respiro de la consideración de tantos
fracasos y errores científicos para examinar más de cerca
un ejemplo de éxito rotundo de la actitud científica y cómo
ocurrió: la medicina moderna.

177 James Ladyman, «Toward a Demarcation of Science from Pseudoscience»,


en Massimo Pigliucci y Maarten Boudry (eds.), The Philosophy of
Pseudoscience: Reconsidering the Demarcation Problem (Chicago, University
of Chicago Press, 2013), 56.

178 Véase Noretta Koertge, «Belief Buddies versus Critical Communities», en


The Philosophy of Pseudoscience, 165-180.

179 Cuando ocurre hay incluso un mecanismo que permite retractarse. Ver
infra para más información en torno a la cuestión de la retractación en la
ciencia.

180 Consultar el capítulo 5 para más información en torno al p-hacking.

181 Robert Trivers, The Folly of Fools: The Logic of Deceit and Self-Deception
in Human Life (Nueva York, Basic Books, 2011).

182 Robert Trivers, «Fraud, Disclosure, and Degrees of Freedom in Science»,


Psychology Today (entrada de blog: 10 de mayo de 2012),
<https://www.psychologytoday.com/blog/the-folly-fools/201205/frauddisclosure-
and-degrees-freedom-in-science>.

183 J. Wicherts et al., «Willingness to Share Research Data Is Related to the


Strength of the Evidence and the Quality of Reporting of Statistical Results»,
PLOS ONE 6, núm. 11 (noviembre de 2011), e26828,
<http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0026828>.

184 J. Simmons et al., «False-Positive Psychology: Undisclosed Flexibility in


Data Collection and Analysis Allows Presenting Anything as Significant»,
Psychological Science 22 (2011), 1359-1366,
<http://journals.sagepub.com/doi/pdf/10.1177/0956797611417632>.

185 Simmons et al., «False-Positive Psychology», 1359.

186 Ibíd., 1360.

187 Daniel Kahneman, Thinking Fast and Slow (Nueva York, Farrar, Straus and
Giroux, 2013). Otro clásico moderno en el campo de la economía conductual es
Richard Thaler, Nudge: Improving Decisions about Health, Wealth, and
Happiness (Nueva York, Penguin, 2009).

188 Un buen ejemplo de esto es la debacle de la fusión fría, que exploraremos


en profundidad en el capítulo 5.
189 P. Wason, «Reasoning about a Rule», Quarterly Journal of Experimental
Psychology 20, núm. 3 (1968), 273-281.

190 Lee McIntyre, Respecting Truth: Willful Ignorance in the Internet Age
(Nueva York, Routledge, 2015), 15-16.

191 Cass Sunstein, Infotopia: How Many Minds Produce Knowledge (Oxford,
Oxford University Press, 2008).

192 Para una discusión completa, véase McIntyre, Respecting Truth, 117-118.

193 Véase la discusión en Sunstein, Infotopia, 207; McIntyre, Respecting


Truth, 119.

194 Tom Settle, «The Rationality of Science versus the Rationality of Magic»,
Philosophy of the Social Sciences 1 (1971), 173-194,
<http://journals.sagepub.com/doi/pdf/10.1177/004839317100100201>.

195 Settle, «The Rationality of Science», 174.

196 Sven Hansson, «Science and Pseudo-Science», The Stanford Encyclopedia


of Philosophy.

197 Settle, «The Rationality of Science», 183.

198 Koertge, «Belief Buddies», 177-179.

199 Helen Longino, Science as Social Knowledge: Values and Objectivity in


Scientific Inquiry (Princeton, NJ, Princeton University Press, 1990).

200 Longino, Science as Social Knowledge, 66-67.

201 Longino, Science as Social Knowledge, 69, 74.

202 Ibíd., 216. Para un fascinante contraste, uno puede tomar en consideración
la obra Social Empiricism de Miriam Solomon (Cambridge, MA, MIT Press,
2001), en la que se defiende la idea de que las acciones de la «comunidad
agregada de científicos» prevalecen sobre «la razón de los científicos
individuales», (135), pero se aparta de Longino en la cuestión de si esas
interacciones sociales pueden «corregir» los sesgos individuales en el
razonamiento (139). Mientras que Solomon encuentra mucho que alabar en el
punto de vista de Longino, critica que no enraíce sus afirmaciones «ideales» en
ejemplos científicos más actuales. De hecho, Solomon mantiene que cuando
uno dirige la mirada a ejemplos científicos, se hace patente que los sesgos —
incluso los sesgos cognitivos— realizan una función positiva como facilitadores
del trabajo científico. Lejos de considerar que la ciencia debería evitar los
sesgos, Solomon hace la sorprendente afirmación de que «los científicos
acostumbrar a alcanzar sus objetivos con la ayuda de razonamientos
“sesgados”» (139).
203 Algunos de estos errores, por supuesto, son el resultado de sesgos
cognitivos que todos los seres humanos compartimos. La cuestión aquí no es
que los científicos no tengan sesgos, sino que la ciencia se compromete a
reducirlos por medio del escrutinio grupal de las ideas individuales. Para más
información, véase el podcast de la Academia de Pensamiento Crítico de Kevin
deLaplante, <https://www.youtube.com/watch?
v=hZkkY2XVzdw&index=5&list=PLCD69C3C29B645CBC>.

204 Como se ha señalado, en el capítulo 7 discutiremos en detalle la cuestión


de la mala conducta científica que equivale a un engaño total, como la
fabricación de datos o la manipulación.

205 G. King, R. Keohane y S. Verba, Designing Social Inquiry: Scientific


Inference in Qualitative Research (Princeton, NY, Princeton University Press,
1994). Allí donde sea posible, es conveniente usar la evidencia estadística en la
ciencia. Cuando no sea posible, eso no es excusa para ser menos riguroso en la
metodología.

206 Como se esperaba, los efectos significativos en la investigación publicada


tienden a agruparse en un 5 %.

207 Para una revisión comprehensiva y rigurosa de un buen número de


cuestiones fundamentales en estadística y de su relación con la filosofía de la
ciencia, no hay nada mejor que el clásico de Deborah Mayo, Error and the
Growth of Experimental Knowledge (Chicago, University of Chicago Press,
1996). Mayo no solo ofrece aquí un examen filosófico riguroso de lo que
significa aprender de la evidencia, sino que también detalla su enfoque basado
en el «error estadístico» como alternativa al método popular bayesiano. La
cuestión esencial para el razonamiento científico no es solo que uno aprenda de
la evidencia empírica, sino cómo aprende. Los argumentos de Mayo del papel
de la experimentación, las comprobaciones rigurosas y la búsqueda de errores
es una lectura esencial para quienes quieran aprender más de cómo defender
las afirmaciones de la ciencia en lo que respecta al razonamiento estadístico.

208 Es importante recordar, no obstante, que también hay una probabilidad


superior a cero de que incluso los acontecimientos más correlacionados no
estén causalmente conectados.

209 El término p-hacking fue acuñado por Simmons et al. en su artículo «False
Positive Psychology».

210 M. Head, «The Extent and Consequences of P-Hacking in Science», PLOS


Biology 13, núm. 3 (2015), e1002106,
<http://journals.plos.org/plosbiology/article?
id=10.1371/journal.pbio.1002106>.

211 Uno tenía que hacer los cálculos de las pruebas t y f a mano y después
buscar el valor p correspondiente en una tabla.
212 Simmons et al., «False Positive Psychology», 1359.

213 Simmons et al., «False Positive Psychology», 1359.

214 Steven Novella, «Publishing False Positives», Neurologica (blog), 5 de


enero de 2012, <http://theness.com/neurologicablog/index.php/publishing-
false-positives/>.

215 Christie Aschwanden, «Science Isn’t Broken: It’s Just a Hell of a Lot
Harder Than We Give it Credit For», FiveThirtyEight, 19 de agosto de 2015,
<https://fivethirtyeight.com/features/science-isnt-broken/>.

216 J. Ioannidis, «Why Most Published Research Findings Are False», PLOS
Medicine 2, núm. 8 (2005), e124,
<http://robotics.cs.tamu.edu/RSS2015NegativeResults/pmed.0020124.pdf>.

217 V. Ronald Giere, Understanding Scientific Reasoning (Nueva York, Holt,


Rinehart, and Winston, 1984), 153.

218 R. Nuzzo, «Scientific Method: Statistical Errors», Nature 506 (2014), 150-
152.

219 Head, «Extent and Consequences of P-Hacking».

220 Nuzzo, «Scientific Method».

221 Nuzzo, «Scientific Method».

222 «La excesiva dependencia de los científicos con respecto a los valores p ha
llevado al menos a nuestra revista a la conclusión de que ya ha tenido
suficiente de ellos». En febrero [2015], Basic and Applied Psychology anunció
que ya no publicará valores p: «Creemos que la p [inferior a] 0,05 es demasiado
fácil de alcanzar y que a veces sirve como excusa para una investigación de
inferior calidad», escriben los editores en su nota. En vez de valores p, la
revista pedirá «estadísticas descriptivas fuertes, incluyendo el tamaño de los
efectos», Aschwanden, «Science Isn’t Broken».

223 Head, «Extent and Consequences». Uno debería tener en cuenta, sin
embargo, que los hallazgos de Head han sido discutidos por quienes consideran
que son un artefacto de redondeo al segundo decimal. Esto no quiere decir que
el p-hacking no ocurra, sino que el bulto que Head pretende encontrar en sus
curvas p no es evidencia adecuada de que esté tan extendido. C. Hartgerink,
«Reanalyzing Head et al. (2015): No Widespread P-Hacking After All?»,
Authorea, 12 de septiembre de 2016,
<https://www.authorea.com/users/2013/articles/31568/_show_article>.

224 S. Novella, «P-Hacking and Other Statistical Sins», Neurologica (blog), 13


de febrero de 2014, <http://theness.com/neurologicablog/index.php/p-hacking-
and-other-statistical-sins/>.
225 O, en algunos casos, cómo se mide. Si uno fuera bayesiano, por ejemplo, y
pensara que es importante incluir una evaluación de la probabilidad previa de
una hipótesis, ¿cómo podría medirse esa característica subjetiva?

226 Head, «Extent and Consequences».

227 Simmons et al., «False Positive Psychology», 1362-1363.

228 Simmons et al., «False Positive Psychology», 1365.

229 Novella, «P-Hacking».

230 E, incluso si no es así, llegan los «bots». En un artículo reciente titulado


«The Prevalence of Statistical Reporting Errors in Psychology (1985-2013)», M.
Nuijten et al. anuncian los resultados de un paquete de software de nueva
creación llamado «statcheck» que se puede utilizar para comprobar si hay
errores en cualquier artículo en estilo APA. Hasta ahora han sido auditados
5000 artículos de psicología y casi la mitad han mostrado algún tipo de error
matemático (por lo general a favor del autor). Estos resultados están
publicados en la página web PubPeer (que algunos han calificado de
«terrorismo metodológico»); sin embargo, como sus responsables señalan, el
objetivo es evitar futuros errores, por lo que ahora existe una aplicación que
permite a los autores comprobar si hay errores en sus trabajos antes de
presentarlos. Esto sería un cambio cultural en la ciencia posibilitado por los
avances tecnológicos. Behavior Research Methods 48, núm. 4 (2016): 1205-
1226,
<https://mbnuijten.files.wordpress.com/2013/01/nuijtenetal_2015_reportingerr
orspsychology1.pdf>.

Véase también Brian Resnick, «A Bot Crawled Thousands of Studies Looking


for Simple Math Errors: The Results Are Concerning», Vox, 30 de septiembre
de 2016, <http://www.vox.com/science-and-
health/2016/9/30/13077658/statcheck-psychology-replication>.

231 De hecho, en algunos casos la revisión por pares está sujeta a una doble e
incluso triple comprobación ciega, puesto que además de que los autores no
saben quién es el revisor, el revisor no sabe quién es el autor, y el editor puede
no saberlo tampoco.

232 John Huizenga, Cold Fusion: The Scientific Fiasco of the Century
(Rochester, NY, University of Rochester Press, 1992), 235.

233 Huizenga, Cold Fusion, 215-236.

234 Ibíd., 218.

235 Huizenga, Cold Fusion, 218.

236 Huizenga, Cold Fusion, 57.


237 Gary Taubes, Bad Science: The Short Life and Weird Times of Cold Fusion
(Nueva York, Random House, 1993).

238 Los detalles de estas «confirmaciones» pueden encontrarse en Bad


Science de Taubes, obra en la que el autor explora los problemas de cada una
de ellas. El artículo en torno al «boro» fue retractado (debido al descubrimiento
de que el detector de neutrones utilizado era sensible al calor); el artículo
«teórico» acerca del helio era sospechoso porque había sido escrito
expresamente para apoyar los hallazgos de la fusión fría; y los resultados
relativos al «exceso de calor» en agua pesada presentaban problemas debido al
hecho de que se encontró la misma reacción en agua ligera, lo que podía
explicarse por una reacción química.

239 Solomon Asch, «Opinions and Social Pressure», Scientific American 193,
núm. 5 (noviembre de 1955), 31-35,
<https://www.panarchy.org/asch/social.pressure.1955.html>.

240 Taubes, Bad Science, 162.

241 Ibídem.

242 Wicherts et al., «Willingness to Share Research Data».

243 Fleischmann también es culpable de esto, pero fue Pons quien una vez tras
otra se resistió a poner en común los datos.

244 John Maddox, citado en Taubes, Bad Science, 240.

245 Taubes, Bad Science, 191.

246 Ibídem.

247 Ibídem.

248 Huizenga, Cold Fusion, 234.

249 Que haya algunas personas que cometen asesinatos no refuta el hecho de
que vivimos en una sociedad que tiene leyes contra el asesinato e intenta
aplicarlas.

250 Incluso aquí, sin embargo, esto no prueba necesariamente que haya
habido una mala intención. Quizá las personas que son más escrupulosas a la
hora de mantener sus datos en buen estado, de tal manera que puedan ser
puestos en común, sean también las más propensas a ser meticulosas en su
método.

251 Stuart Firestein, Failure: Why Science Is So Successful (Oxford, Oxford


University Press, 2015).

252 Ibídem.
253 Huelga decir que, al igual que existe una distinción entre no
reproducibilidad y fraude, también debería existir una entre retractación y
fraude. Uno no debería suponer que por el simple hecho de haber sido retirado,
un estudio es fraudulento. Como veremos, las razones para la retractación son
diversas.

254 Esto, sin embargo, puede estar cambiando —al menos en algunos sectores
de las ciencias sociales—, puesto que algunos nuevos investigadores parecen
ansiosos de hacerse un nombre desafiando el trabajo de sus colegas más
veteranos. Ver Susan Dominus, «When the Revolution Came for Amy Cuddy»,
New York Times, 18 de octubre de 2017,
<https://www.nytimes.com/2017/10/18/magazine/when-the-revolution-came-for-
amy-cuddy.html>.

255 Ian Sample, «Study Delivers Bleak Verdict on Validity of Psychology


Experiment Results» [«Un estudio presenta un panorama sombrío sobre la
validez de los resultados en psicología experimental»], Guardian, 27 de agosto
de 2015, <https://www.theguardian.com/science/2015/aug/27/study-delivers-
bleak-verdict-on-validity-of-psychology-experiment-results>.

256 B. Nosek et al., «Estimating the Reproducibility of Psychological Science»,


Science 349, núm. 6251 (agosto de 2015),
<http://psych.hanover.edu/classes/Cognition/Papers/Sci ence-2015--.pdf>.
Nótese que de los cien estudios considerados tres fueron excluidos por razones
estadísticas, sesenta y dos se encontraron no reproducibles y solo treinta y
cinco reproducibles.

257 B. Carey, «Many Psychology Findings Not as Strong as Claimed, Study


Says», New York Times, 27 de agosto de 2015.

258 B. Carey, «Psychologists Welcome Analysis Casting Doubt on Their Work»,


New York Times, 28 de agosto de 2015.

259 Joel Achenbach, «No, Science’s Reproducibility Problem Is Not Limited to


Psychology, Washington Post, 28 de agosto de 2015.

260 Carey, «Many Psychology Findings».

261 A. Nutt, «Errors Riddled 2015 Study Showing Replication Crisis in


Psychology Research, Scientists Say», Washington Post, 3 de marzo de 2016.

262 B. Carey, «New Critique Sees Flaws in Landmark Analysis of Psychology


Studies, New York Times, 3 de marzo de 2016.

263 Nutt, «Errors Riddled 2015 Study».

264 P. Reuell, «Study That Undercut Psych Research Got It Wrong: Widely
Reported Analysis That Said Much Research Couldn’t Be Reproduced Is
Riddled with Its Own Replication Errors, Researchers Say», Harvard Gazette, 3
de marzo de 2016.

265 Carey, «New Critique Sees Flaws».

266 Reuell, «Study That Undercut Research».

267 Nutt, «Errors Riddled 2015 Study».

268 Reuell, «Study That Undercut Research».

269 Carey, «New Critique Sees Flaws».

270 Carey, «New Critique Sees Flaws».

271 Simonsohn, citado en Carey, «New Critique Sees Flaws».

272 Véase
<http://www.psychologicalscience.org/publications/psychological_science/prere
gistration>.

273 Con el p-hacking, por ejemplo, ¿no podemos imaginar la decisión de un


científico de mantener un estudio abierto, para obtener más datos, como
evidencia de un sesgo de confirmación? Inconscientemente, está apoyando su
propia teoría. ¿Es necesariamente malo querer obtener más datos para ver si la
teoría funciona? Aquí lo prudente parece ser emplear la navaja de Hanlon, que
nos dice que debemos ser reacios a atribuir a la malicia lo que puede explicarse
adecuadamente apelando a la incompetencia.

274 Kevin deLaplante, The Critical Thinker (podcast), «Cognitive Biases and
the Authority of Science», <https://www.youtube.com/watch?
v=hZkkY2XVzdw&index=5&list=PLCD69C3C29B645CBC>.

275 La tarea es formidable, puesto que hay dos errores posibles: uno puede
esperar demasiado para abrazar la verdad (como con la reacción a
Semmelweis) o puede precipitarse y dar el salto a una conclusión que va más
allá de la evidencia (como con la fusión fría).
CAPÍTULO 6

Cómo la actitud científica transformó la


medicina moderna

Es fácil apreciar la diferencia que la actitud científica


puede suponer en la transformación de un campo de
estudio no sometido a disciplina alguna en otro dotado de
rigor científico, puesto que contamos con el ejemplo de la
medicina moderna. Antes del siglo XX, la práctica de la
medicina se basaba en gran medida en corazonadas,
sabiduría popular y pruebas y errores. No se conocían los
experimentos a gran escala y los datos eran difíciles de
reunir. De hecho, incluso la idea de que fuera necesario
poner a prueba las propias hipótesis sobre la base de su
contraste con la evidencia empírica resultaba extraña. Todo
esto cambió en un período relativamente corto de tiempo
después de la teoría germinal de la enfermedad en la
década de 1860 y su traducción en una práctica clínica a
comienzos del siglo XX 276 .
Ya vimos en el capítulo 1 cómo el descubrimiento de
Ignaz Semmelweis acerca de la causa de la fiebre
puerperal en 1846 proporciona un ejemplo excelente de
qué significa tener actitud científica. También vimos lo
adelantado que estaba a su tiempo y que sus ideas fueron
recibidas con una hostilidad instintiva. Sin embargo, la
actitud científica que Semmelweis adoptó dio frutos de los
que se benefició toda la medicina. Casi a la vez que
Semmelweis desarrollaba su trabajo, la medicina asistió a
la primera demostración pública de anestesia. Por primera
vez, los cirujanos pudieron tomarse su tiempo para realizar
una operación, puesto que ya no tenían que luchar contra
pacientes plenamente conscientes que lanzaban alaridos de
dolor. Esto no bastó en sí mismo ni por sí mismo para
reducir las tasas de mortalidad, puesto que un factor
complicado que alargaba las intervenciones quirúrgicas era
que los pacientes también pasaban más tiempo con las
heridas abiertas al aire, lo que propiciaba infecciones 277 .
Solo después de que Pasteur descubriera las bacterias y
Koch detallara el proceso de esterilización pudo la teoría
germinal de la enfermedad empezar a asentarse. Cuando
Lister introdujo las técnicas antisépticas (que mataban los
gérmenes) y la cirugía aséptica (que evitaba antes que
nada los gérmenes) en 1867, fue al fin posible hacer que la
cura no fuera peor que la enfermedad 278 .
Desde el punto de vista de hoy en día, es fácil pasar por
alto la importancia de estos avances y subestimar su
contribución a la mejora de las técnicas cuantitativas, los
análisis de laboratorio, la experimentación controlada, y la
idea de que el diagnóstico y el tratamiento deben basarse
en la evidencia en lugar de en la intuición. Pero uno no
debería olvidar que la medicina occidental siempre se ha
imaginado a sí misma como científica; lo único que ocurre
es que el significado del término ha cambiado 279 . La
medicina astrológica y las sangrías fueron una vez
consideradas vanguardistas sobre la base de los principios
de la racionalidad y la experiencia. No sin dificultades sería
alguien capaz de encontrar a un médico del siglo XVIII —e
imagino que tampoco de los primeros tiempos de la
civilización griega— que no considerara su conocimiento
como «científico» 280 . ¿Cómo se puede afirmar, entonces,
que estos primeros médicos y practicantes eran tan
lamentablemente ignorantes? Según hemos visto, estos
juicios corresponden a los individuos que integran la
profesión y, por tanto, son relativos a los estándares de la
época —pero de acuerdo con los estándares de principios
del siglo XIX las sangrías parecían un procedimiento
correcto.
Mi objetivo en este capítulo no es desacreditar las
creencias dominantes en algún período concreto, incluso
mientras pasaban de no probadas a hipótesis escandalosas
con el resultado de que muchos pacientes morían en lo que
hoy consideraríamos negligencia criminal. En lugar de eso,
me gustaría arrojar luz sobre cómo la medicina dio con el
camino que le permitió dejar atrás esos tiempos oscuros y
entrar en una época en la que su práctica podía basarse en
una cuidadosa observación, cálculos, experimentos y una
mentalidad lo suficientemente flexible como para aceptar
una idea cuando (y solo cuando) haya sido empíricamente
demostrada. Recordemos que la actitud científica no solo
requiere que nos preocupemos por la evidencia (puesto que
lo que se entienda por evidencia puede variar de una época
a otra), sino que estemos dispuestos a cambiar nuestra
teoría sobre la base de nueva evidencia. Es esto último lo
crucial en el caso de una área de investigación que esté
tratando de dar el salto de la pseudociencia a la ciencia, de
la mera opinión a la creencia fundamentada. Solo cuando
esta mentalidad fue finalmente adoptada —cuando los
físicos dejaron de pensar que ya tenían todas las respuestas
gracias a la autoridad de la tradición y empezaron a darse
cuenta de que podían aprender de la experimentación
propia y de otros—, fue capaz la medicina de asentarse
como ciencia.

EL PASADO DE BARBARIE

En su excelente libro The History of Medicine: A Very


Short Introduction, William Bynum nos recuerda que —a
pesar de las sangrías, los brebajes ponzoñosos, las
trepanaciones y una serie de «curas» frecuentemente
peores que la enfermedad—, la medicina occidental
siempre se ha considerado a sí misma moderna 281 .
Uno de los grandes sistemas de medicina de la
Antigüedad vino de la mano de Hipócrates, cuya visión
fundamental (aparte del juramento hipocrático que le ha
hecho célebre) contiene su teoría de cómo los «cuatro
humores» pueden aplicarse a la medicina. Según señala
Roy Porter en su magistral obra The Greatest Benefit to
Mankind:

De Hipócrates en el siglo V a.C. hasta Galeno en el


siglo II d.C., la «medicina humoral» enfatizó las
analogías entre los cuatro elementos de la naturaleza
externa (fuego, agua, aire y tierra) y los cuatro
humores o fluidos corporales (sangre, flema, bilis
amarilla y bilis negra), cuyo equilibrio determinaba la
salud 282 .

La teoría era impresionante y su potencial explicativo


interesante. Como se pensaba que la enfermedad se debía
a un desequilibrio entre los humores —los resfriados se
debían a la flema, el vómito a la bilis, etcétera—, gozar de
buena salud requería mantenerlos en equilibrio, por
ejemplo, mediante la práctica de las sangrías 283 .
Aunque el inventor de las sangrías fue Hipócrates,
Galeno las desarrolló hasta su punto culminante, y a lo
largo de más de mil años desde entonces (hasta el siglo XIX)
fueron consideradas un tratamiento terapéutico. Tras
escribir cuatro libros sobre el pulso, Galeno pensaba que
las sangrías permitían que el sanador capitalizara el
ejemplo de la naturaleza, donde la eliminación del exceso
de un fluido —como durante la menstruación— prevenía la
enfermedad 284 . Como afirma Porter, «fuera cual fuera el
problema —incluso la pérdida de sangre—, Galeno
consideraba que sangrar era lo apropiado» 285 . Como
consecuencia de ello, hacía que sus pacientes sangraran
hasta perder la consciencia (lo que en alguna ocasión les
llevó a la muerte).
Esta no es la única práctica médica antigua que desde
nuestra perspectiva actual juzgaríamos bárbara; también
estaban las trepanaciones en el cráneo, las sanguijuelas, la
ingesta de mercurio, la aplicación de estiércol animal y
otras muchas. Lo asombroso, sin embargo, es que esa
ignorancia no fuera cuestionada durante siglos, con el
resultado de que hasta tiempos recientes en la historia de
la medicina, los pacientes le tenían tanto miedo al médico
como a cualquier enfermedad de la que quisieran curarse.
No es solo que las teorías en circulación en ese momento
fueran erróneas —puesto que, como hemos visto, muchas
teorías científicas terminarán siendo erróneas—, sino que
la mayoría de estas ideas ni siquiera contaban a su favor
con algún tipo de evidencia o prueba experimental. La
medicina aún no tenía la actitud científica.

LOS ALBORES DE LA MEDICINA CIENTÍFICA

La transición fuera de esta fase no empírica de la


medicina fue considerablemente lenta. La tradición
escolástica persistió en la medicina hasta mucho tiempo
después que en la astronomía y la física, con el resultado
de que aún doscientos años después de que la revolución
científica diera comienzo en el siglo XVII, las cuestiones
médicas se abordaban habitualmente de manera teórica y
mediante argumentos —como si estuvieran resueltas— en
vez de mediante la experimentación controlada 286 . Tanto la
práctica clínica como la empírica de la medicina se
mantuvieron bastante atrasadas hasta mediados del siglo
XIX. De hecho, la incipiente ciencia médica que da sus
primeros pasos en el Renacimiento tuvo un efecto en el
conocimiento más que en la salud 287 . A pesar de los
grandes avances en anatomía y fisiología a principios de la
Edad Moderna (por ejemplo, el trabajo de Harvey en el
siglo XVII en torno a la circulación de la sangre), «los logros
[de la medicina] se mostraron más impresionantes en el
papel que en la práctica de cabecera» 288 . Incluso la única
mejora inequívoca en la atención médica durante el siglo
XVIII —la vacuna contra la viruela— es vista por algunos no
como el resultado de la ciencia, sino más bien de abrazar la
sabiduría popular 289 . Este punto de vista «no científico» se
mantuvo en medicina a lo largo de todo el siglo XVIII (que ha
sido llamado «era de la charlatanería»); no es hasta
mediados del siglo XIX cuando la medina moderna empezó a
despegar verdaderamente 290 .
En sus formidables memorias, The Youngest Science,
Lewis Thomas compara el tipo de medicina científica que
se practica hoy en día con

el tipo de medicina que se enseñaba y practicaba en


la primera parte del siglo XIX, cuando cualquier cosa
que se le pasara al médico por la cabeza se ponía a
prueba para el tratamiento de enfermedades. Revisar
la literatura médica de aquellos años es
espeluznante: un texto tras otro relatan los beneficios
de hacer sangrar a los enfermos, de las ventosas, de
las purgas violentas, de la elevación de ampollas con
ungüentos vesicantes, de la inmersión del cuerpo en
agua ora fría ora intolerablemente caliente, de la
mezcla y cocción de interminables listas de extractos
botánicos según meros caprichos [...]. La mayoría de
los remedios de uso común eran más propensos a
hacer daño que algún bien 291 .

La sangría en particular parecía popular, debido en parte


al entusiasta apoyo que recibía del prominente médico
Benjamin Rush. Se pensaba que un vestigio de tiempos
premedievales, la sangradura, tenía enormes beneficios
para la salud y constituía una de las «intervenciones
extremas» necesarias para mejorar el estado de un
paciente. En su importante libro Seeking the Cure, el
doctor Ira Rutkow escribe que

los ciudadanos sufrían innecesariamente como


consecuencia del egotismo y la ausencia de
metodologías científicas de Rush. En una época en la
que nadie entendía el significado de medir la presión
sanguínea y la temperatura corporal, y los médicos
estaban empezando a hacerse una idea de la
importancia del corazón y la frecuencia respiratoria,
los médicos en América no disponían de parámetros
para evitar hacer daño a los pacientes 292 .

Y les hacían daño:

Los médicos hacían sangrar a los pacientes


dieciséis onzas líquidas al día durante un período de
catorce días. Los donantes de sangre en la
actualidad, por comparación, tienen permitido
entregar una pinta (dieciséis onzas) por sesión con un
mínimo de dos meses entre cada extracción. Los
médicos del siglo XIX se jactaban de la totalidad de
sus sangrantes triunfos como si se tratara de una
estadística definitoria de su carrera. [...] Las sangrías
gozaban de una consideración tan profundamente
arraigada que ni siquiera las frecuentes
complicaciones ni los abiertos fracasos acabaron con
la influencia del trabajo de Rush 293 .

No es extraño que Rush muriera, en 1813, como


consecuencia de las sangrías a las que se sometió aquejado
de tifus 294 .
Esta no era, sin embargo, la única práctica espeluznante
de la época.

La medicina se practicaba literalmente en la


oscuridad. La electricidad era una modernez
impopular. Casi todos los actos que realizaba un
médico —exámenes invasivos, cirugías complejas,
partos complicados— debían desarrollarse con luz
natural o con una lámpara. Los fundamentos de la
medicina moderna, como el carácter infeccioso de las
enfermedades, seguían siendo objeto de disputas. Las
causas de las enfermedades comunes eran difíciles de
precisar para los médicos. Benjamin Rush pensó que
la fiebre amarilla venía del café en mal estado. Se
creía que el tétanos era una irritación refleja. La
apendicitis se denominaba peritonitis, y quienes la
padecían eran abandonados a la muerte. No se
entendía el papel de los médicos —y de sus manos e
instrumentos sin lavar— en la propagación de la
enfermedad. «El sombrío espectro de la sepsis»
siempre estuvo presente. Se daba siempre por
supuesto que las heridas iban a supurar pus, hasta el
punto de que se establecieron clasificaciones de los
tipos de pus. [...] La medicina no estaba normalizada,
por lo que los envenenamientos accidentales eran
comunes. Incluso las sustancias producidas
«profesionalmente» solían ser pesadas y
nauseabundas. Sangrar a los enfermos era todavía
una práctica común y hasta los hombres más
prudentes suministraban cantidades aterradoramente
grandes de purgantes. Tratar la fiebre con un baño
frío se habría «considerado un asesinato». No había
anestesia —ni general ni local—. Se recurría
frecuentemente al alcohol para hacer más
soportables los tratamientos dolorosos [...] y el opio
puro [estaba] a veces disponible también. Si uno iba
al médico con una fractura expuesta, no tenía más
que un 50 % de probabilidades de sobrevivir. La
cirugía en el cerebro y los pulmones solo se intentó
en casos de accidentes. El sangrado durante las
intervenciones era con frecuencia escandalosamente
desmesurado, pero como confortadoramente
describía un médico, «no rara vez mortal» 295 .

Es importante contrastar lo que estaba ocurriendo en


Estados Unidos (que se unió bastante tarde a la parte
científica de la medicina) con los progresos que ya estaban
en marcha en Europa. A principios del siglo XIX, París en
particular fue el centro de muchos avances en la
comprensión y práctica de la medicina, debido quizás a la
visión revolucionaria que llevó a sacar los hospitales de
manos de la Iglesia y nacionalizarlos 296 . En París
prevalecía una perspectiva más científica. Las autopsias se
utilizaron para corroborar los diagnósticos de cabecera.
Los médicos apreciaron los beneficios de la palpación, la
percusión y la auscultación (escuchar), y René Laennec
inventó el estetoscopio. Una actitud más naturalista llevó a
los estudiantes de Medicina a aprender junto a las camas
de sus pacientes en hospitales. A raíz de estos desarrollos,
el surgimiento de laboratorios científicos en Alemania y el
aprecio al microscopio de Rudolf Virchow y otros condujo a
más avances en la ciencia básica 297 . Toda esta actividad
propició que estudiantes de Medicina de todas partes del
mundo —especialmente de Estados Unidos— fueran a
Francia y Alemania para obtener una formación médica
más fundamentada científicamente. Aun así, los beneficios
que esto trajo consigo para la práctica médica directa
tardaron en manifestarse a ambos lados del Atlántico.
Como hemos visto, Semmelweis fue uno de los primeros
médicos en tratar de aportar una actitud más científica a la
atención a los pacientes en Europa más o menos al mismo
tiempo que en Boston se demostraba el milagro de la
anestesia. Sin embargo, incluso esos avances tropezaron
con resistencias 298 .
El verdadero avance llegó en la década de 1860 con el
descubrimiento de la teoría germinal de la enfermedad. El
trabajo inicial de Pasteur versaba sobre la fermentación y
el controvertido problema de la «generación espontánea».
En sus experimentos, Pasteur trataba de mostrar que la
vida no podía originarse a partir de la mera materia. Ahora
bien, ¿cómo era posible, entonces, que un frasco de caldo
abierto al aire libre «se estropee» y produzca organismos?
299 .

Pasteur ideó una elegante secuencia de


experimentos. Hizo pasar aire a través de un tapón
de algodón pólvora inserto en un tubo de vidrio
abierto a la atmósfera fuera del laboratorio. El
algodón pólvora se disolvió entonces y organismos
microscópicos idénticos a los presentes en los
líquidos en fermentación fueron hallados en el
sedimento. Evidentemente, el aire contenía los
organismos en cuestión 300 .

En experimentos posteriores, Pasteur demostró que esos


organismos podían ser aniquilados por el calor. Pasteur
necesitó unos años más para completar más experimentos
con recipientes diferentes situados en otros lugares, pero
hacia febrero de 1878 estaba en condiciones de presentar
la formulación definitiva de la teoría germinal de la
infección ante la Academia Francesa de Medicina, seguida
de un artículo que defendía la tesis de que los
microorganismos eran los responsables de la
enfermedad 301 . Había nacido la ciencia de la bacteriología.
El trabajo de Lister sobre la antisepsia —que tenía como
objetivo impedir que estos microorganismos infectaran las
heridas causadas durante la cirugía— se desarrolló
directamente a partir del éxito de Pasteur 302 . Lister había
sido un pionero en la adopción de las ideas de Pasteur, que
todavía encontraban resistencias y eran deficientemente
comprendidas durante la década de 1870 303 . De hecho,
cuando el presidente de Estados Unidos James Garfield
recibió un disparo en 1871, murió muchos meses más
tarde, no, como muchos piensan, por culpa de la bala que
todavía se alojaba en su cuerpo, sino porque algunos de los
médicos más prominentes de la época exploraron su herida
con los dedos y el instrumental sucios. En el juicio, el
asesino de Garfield trató de defenderse alegando que el
presidente no había muerto del disparo, sino por una mala
práctica médica 304 .
El trabajo de laboratorio de Robert Koch en Alemania
durante la década de 1880 llevó las cosas un paso más
adelante. Los escépticos siempre habían preguntado por
los gérmenes: «¿Dónde están esas pequeñas bestias?» —no
aceptaban la realidad de algo que no podían ver— 305 . Koch
finalmente logró una respuesta con su trabajo
microscópico, con el que fue capaz no solo de establecer la
base física de la teoría germinal de la enfermedad, sino
también de identificar los microorganismos responsables
de enfermedades concretas 306 . Esto llevó a los «años
dorados» de la bacteriología (1879-1900), cuando «los
microorganismos responsables de las principales
enfermedades fueron descubiertos al fenomenal ritmo de
uno al año» 307 .
Todo este éxito, sin embargo, puede obligarnos ahora a
plantear una pregunta escéptica. Si esta fue una edad de
oro de descubrimientos en bacteriología —que proporcionó
una demostración tan asombrosa del poder del trabajo
empírico cuidadoso y de la experimentación en medicina—,
¿por qué no tuvo un efecto inmediato en los cuidados que
recibían los pacientes? Seguramente hubiera algunos
beneficios tempranos (por ejemplo, el trabajo de Pasteur
sobre la rabia y el ántrax), pero parece en todo caso que
hay falta de proporción entre la buena ciencia que se está
haciendo y su efecto sobre el tratamiento. Si asistimos aquí
al comienzo del atenerse a la evidencia empírica en la
investigación médica, ¿a qué se debía el retraso en la
aplicación de sus frutos a la ciencia clínica?

A finales del siglo XIX, entre los pocos


medicamentos que eran eficaces se incluían el
mercurio para la sífilis y la tiña, la digitalina para
fortalecer el corazón, el nitrato de amilo para dilatar
las arterias en la angina, la quinina para la malaria, el
cólquico para la gota —y poco más—. [...] Las
sangraduras, el sudor, las purgas, los vómitos y otras
formas de expeler los malos humores se apoderaron
de la imaginación popular y reflejaron la confianza
médica en esas cuestiones. Las sangraduras fueron
poco a poco perdiendo apoyo, pero difícilmente podía
encontrarse algo mejor que las sustituyera 308 .

Quizá la razón era en parte que durante esta época la


experimentación y la práctica solían ser realizadas por
diferentes personas. La bifurcación social dentro de la
comunidad médica tendía a poner en práctica la regla no
escrita de que los investigadores no se dedicaban a lo
práctico, mientras que los practicantes no hacían
investigación. Como dice Bynum en The Western Medical
Tradition:

«Ciencia» tenía diferentes significados para las


diversas facciones de la comunidad científica en
general. [...] «Ciencia clínica» y «medicina
experimental» tenían a veces poco que decirse la una
a la otra. [...] Estas dos actividades correspondían
cada vez más a grupos profesionales separados. [...]
Quienes producían conocimiento no eran
necesariamente los mismos que lo usaban 309 .

Así, la revolución científica que se había producido en


otros ámbitos (física, química, astronomía) doscientos años
antes —junto con los consecuentes debates acerca de la
metodología y la relación adecuada entre la teoría y la
práctica— no tuvo apenas efecto en medicina 310 . Incluso
después de la «revolución bacteriológica», cuando la base
de conocimientos en medicina empezó a mejorar, el retraso
de la práctica clínica era profundo.

Los debates sobre la metodología de la filosofía


natural [la ciencia] tocaban la medicina solo de
manera oblicua. La medicina seguía depositando su
confianza en sus textos canónicos, y contaba con sus
propios procedimientos y lugares para la búsqueda
del conocimiento: la cabecera de la cama y el teatro
de anatomía. La mayoría de los médicos juraban por
el conocimiento tácito en las yemas de sus dedos 311 .

A pesar de todo su progreso, la medicina no era todavía


una ciencia. Incluso si todo este nuevo conocimiento
arduamente alcanzado estaba ahora a disposición de
cualquiera que se interesara por él, un problema sistémico
persistía: cómo cerrar la brecha entre el conocimiento y la
curación en aquellos que practicaban la medicina, y cómo
asegurarse de que los estudiantes que son el futuro de la
profesión pudieran familiarizarse con estos nuevos
hallazgos 312 .
La medicina en este momento afronta un problema
organizativo no solo para la creación, sino para la
transmisión de nuevos conocimientos. En vez una máquina
bien engrasada para la obtención de avances científicos en
manos de quienes mejor uso pueden hacer de ellos, la
medicina era entonces «un campo en disputa ocupado por
rivales» 313 . Aunque algunas de las cabezas más brillantes
de la medicina ya habían adoptado la actitud científica, la
disciplina en su conjunto todavía aguardaba su revolución.

LA LARGA TRANSICIÓN A LA PRÁCTICA CLÍNICA

Por la razón que fuera —resistencia ideológica,


ignorancia, formación pobre, ausencia de estándares
profesionales, distancia entre quienes realizaban los
experimentos y los practicantes de la medicina—, hubo una
larga transición hasta el uso de la ciencia médica en la
práctica clínica. De hecho, algunas de las historias de
terror en torno a tratamientos médicos no comprobados
van desde el siglo XIX hasta la primera parte del XX. En
Estados Unidos la formación médica siguió siendo pobre y
faltaban estándares profesionales que permitieran
responsabilizar a los practicantes de la medicina de sus a
veces chapuceras ocurrencias.
En los albores del siglo XX, los médicos todavía no sabían
lo suficiente acerca de cómo curar la mayoría de las
enfermedades, aunque en aquel momento supieran
identificarlas mejor. Gracias a la aceptación de la teoría
germinal de la enfermedad, quizá no fuera tan probable
como en los siglos anteriores que los médicos y cirujanos
mataran a sus pacientes en intervenciones mal orientadas;
pero los avances científicos de las décadas de 1860 y 1870
no servían aún de gran cosa en la atención directa a los
pacientes. Lewis Thomas escribe que

la explicación es el verdadero interés de la medicina.


Lo que el paciente enfermo y su familia deseaban en
mayor medida era saber el nombre de la enfermedad,
luego, si es posible, lo que la había causado, y,
finalmente, lo más importante, en qué podía resultar.
[...] A pesar de toda su fachada de profesión erudita,
[la medicina] era en la vida real una profesión
profundamente ignorante. [...] Solo puedo recordar a
tres o cuatro pacientes para quienes el diagnóstico
resultó en la posibilidad de hacer algo para cambiar
el curso de la enfermedad. [...] Para la mayoría de las
enfermedades infecciosas en los pabellones del
hospital de la ciudad de Boston en 1937, no había
nada que hacer más allá de reposar en la cama y
recibir una buena atención de enfermería 314 .

James Gleick pinta un retrato igualmente sombrío de la


práctica médica de su época:

La medicina del siglo XX estuvo luchando por un


asidero científico como el que la física empezó a
conseguir en el siglo XVII. Sus representantes ejercían
la autoridad otorgada a los curanderos a lo largo de
la historia humana; hablaban un lenguaje
especializado y llevaban la toga de las escuelas y
sociedades profesionales; pero su conocimiento era
un pastiche de sabiduría popular y modas
cuasicientíficas. Pocos investigadores médicos
entendían los rudimentos de la experimentación
estadística controlada. Las autoridades
argumentaban a favor o en contra de determinadas
terapias de manera más o menos semejante a como
los teólogos lo hacían a favor o en contra de sus
teorías, según una combinación de experiencia
personal, razón abstracta y juicio estético 315 .

Pero el cambio estaba llegando y en gran parte era de


carácter social. Gracias a los avances en antisepsia y
anestesia unidos a los descubrimientos bacteriológicos de
Pasteur y Koch, sobre principios del siglo XX la medicina
clínica estaba madura para dejar atrás su pasado de
tinieblas. A medida que la noticia de esos descubrimientos
iba propagándose, la disparidad de tratamientos y
prácticas en medicina clínica se convirtió súbitamente en
una vergüenza. Por supuesto, como con cualquier cambio
de paradigma, Kuhn nos ha enseñado que una de las
fuerzas más poderosas en funcionamiento es que las
resistencias van feneciendo y se llevan las viejas ideas
consigo, mientras que los jóvenes ejercientes adoptan las
nuevas. Seguramente algo de esto ocurriera (Charles
Meigs, uno de los más acérrimos adversarios de la teoría
de Semmelweis acerca de la fiebre puerperal y la anestesia,
murió en 1869), pero las fuerzas sociales tuvieron
probablemente una influencia mayor.
La medicina moderna no es solo una ciencia, sino
también una institución social. Y es importante darse
cuenta de que incluso antes de que fuera verdaderamente
científica, las fuerzas sociales conformaban cómo era
percibida y practicada, y algo tuvieron que ver en el giro
que experimentó hasta convertirse en la ciencia que es hoy.
Libros enteros se han escrito sobre la historia social de la
medicina; aquí tendré ocasión de contar solo una parte de
la historia.
En The Social Transformation of American Medicine,
Paul Starr sostiene que los principios democráticos de la
primera época de Estados Unidos entraban en conflicto con
la idea de que el conocimiento médico gozaba de un
estatuto de alguna manera privilegiado y de que la práctica
de la medicina debía estar reservada a una élite 316 . En los
primeros días, «todo tipo de gente se dedicó a la medicina
en las colonias y se arrogó el título de médico» 317 . Cuando
las escuelas de Medicina empezaron a abrir y quienes
habían recibido una formación médica reglada trataron de
distanciarse de los «matasanos» mediante la fundación de
sociedades profesionales y la exigencia de autorizaciones,
cabría pensar que la reacción fue favorable por parte de
una población deseosa de recibir una atención médica
mejor. Pero no fue eso lo que ocurrió. La medicina popular
y la curación por profanos continuaron teniendo adeptos,
mientras muchos veían el movimiento de profesionalización
en la medicina estadounidense como un intento de obtener
poder y autoridad. Como apunta Starr:

La resistencia popular a la medicina profesional ha


sido descrita a veces como hostilidad a la ciencia y la
modernidad. Pero dado lo que sabemos ahora acerca
de la objetiva ineficacia de la terapéutica de
principios del siglo XIX, el escepticismo popular no
estaba exento de razones. Además, en el siglo XIX en
Estados Unidos, la creencia popular reflejaba una
forma de racionalismo extremo que exigía que la
ciencia fuera democrática 318 .

De hecho, a medida que los estándares para la concesión


de licencias médicas habían ido estableciéndose en los
primeros tiempos de Estados Unidos, durante la
presidencia de Andrew Jackson en la década de 1830, fue
desarrollándose un esfuerzo organizado para disolverlos
por considerarlos «monopolios de autorización» 319 . Aunque
parezca increíble, esto llevó al abandono de los estándares
de licencias médicas en Estados Unidos durante los
siguientes cincuenta años 320 . Para cualquiera a quien le
importe la ciencia de la medicina —por no mencionar el
efecto que todo esto puede tener sobre la atención a los
pacientes—, he aquí un resultado lamentable. Por supuesto,
uno entiende que, dadas las prácticas médicas chapuceras
de la época, hubiera una honda sospecha en torno a si los
médicos «profesionales» contaban con una competencia
superior o sabían algo más de los cuidados médicos que los
practicantes profanos 321 . Sin embargo, la exigencia de que
el conocimiento científico fuera «democrático» difícilmente
podía considerarse un desarrollo prometedor para una
mejor atención a los pacientes, cuando los descubrimientos
médicos de base científica en Europa aún no habían
arraigado en la práctica clínica. El resultado fue que a
finales del siglo XIX —justo cuando se estaba produciendo
una revolución en los conocimientos médicos básicos en
Europa— la situación de la formación y la práctica médicas
en Estados Unidos era bochornosa.
Proliferaban sin control las «fábricas de diplomas»
médicos administradas con ánimo de lucro por médicos
locales sin ofrecer formación alguna en ciencias básicas ni
adiestramiento en lo concerniente a los cuidados que
debían recibir los pacientes 322 . La restauración de las
licencias médicas en las décadas de 1870 y 1880 llevó a
una rendición de cuentas un poco más profesional, a la vez
que la idea de que el diploma era la única licencia que
había que obtener para ejercer la medicina fue sometida a
escrutinio. Finalmente, los requisitos se endurecieron.

Un importante hito fue la ley de 1877 promulgada


por Illinois que dio poderes a una junta estatal de
examinadores médicos para rechazar diplomas
otorgados por escuelas de reputación dudosa. De
acuerdo con la ley, todos los médicos tenían que estar
registrados. Aquellos con títulos de escuelas
autorizadas tenían licencia, mientras que otros tenían
que examinarse. De los tres mil seiscientos no
graduados que ejercían en Illinois en 1877, mil
cuatrocientos abandonaron el estado en un año,
según se informó. En una década, se dijo que tres mil
practicantes habían ido a la quiebra 323 .

En Europa, los estándares de la formación médica eran


más exigentes. Las facultades de Medicina alemanas, en
particular, ofrecían formación en centros que estaban
afiliados a universidades (pocas hacían lo mismo en
Estados Unidos). Con el paso del tiempo, esto condujo a la
adopción de un modelo más riguroso de formación médica
en Estados Unidos con la fundación del hospital Johns
Hopkins en 1889 y de su escuela de Medicina cuatro años
más tarde, que proporcionaba una instrucción integral,
incluyendo prácticas y residencia 324 . Las escuelas de
Medicina de Harvard, Hopkins, Pensilvania, Michigan,
Chicago y algunas otras a lo largo de Estados Unidos que
estaban afiliadas a universidades gozaban de respeto
general 325 . Pero esto era solo una parte de la formación
médica que podía recibirse en Estados Unidos a finales del
siglo XIX.
En 1908, un médico profano llamado Abraham Flexner
se embarcó en una empresa —bajo los auspicios de la
Fundación Carnegie y el Consejo de Educación Médica de
la AMA— que consistía en visitar las ciento cuarenta y ocho
escuelas de Medicina de Estados Unidos que existían en
aquel momento. Lo que encontró era pavoroso.
Los laboratorios de los que tanto se habla no se
encontraron por ninguna parte o consistían en unos
cuantos tubos de ensayo que se almacenaban
caóticamente en cajas de puros; los cadáveres
apestaban porque no se utilizaba desinfectante en las
salas de disección. Las bibliotecas no tenían libros;
supuestos miembros de la facultad estaban ocupados
en la práctica privada. Los supuestos criterios de
admisión no se le aplicaban a quien estuviera
dispuesto a hacer un desembolso 326 .

En un caso particularmente elocuente, Flexner se acercó


a una escuela de Medicina en Des Moines, Iowa, donde el
decano estuvo metiéndole prisa durante su visita. Flexner
había visto las palabras «anatomía» y «fisiología»
estarcidas en unas puertas, pero todas estaban cerradas y
el decano le dijo que no tenía las llaves. Flexner concluyó
su visita, luego volvió y sobornó a un conserje para que le
permitiera entrar en las salas, donde se encontró con que
todas eran idénticas y no tenían más mobiliario que
escritorios, sillas y una pequeña pizarra 327 .
Cuando el famoso informe de Flexner fue publicado en
1910, se convirtió en una denuncia de la mayor parte de la
formación médica que se impartía en Estados Unidos. La
Johns Hopkins fue considerada el patrón de referencia e
incluso se animó a otras escuelas que gozaban de buena
reputación a que siguieran su modelo, pero prácticamente
todas las escuelas comerciales se juzgaron inadecuadas.
Flexner defendió, entre otras reformas, que las escuelas de
Medicina debían basar la formación que proporcionaban en
las ciencias naturales y que para ser respetables debían
estar afiliadas a una universidad. También necesitaban
contar con medios científicos adecuados. Además, les
recomendaba a los estudiantes que cursaran al menos dos
años de estudios universitarios antes de comenzar la
práctica médica, que se dedicaran al estudio a tiempo
completo y que se redujera el número de escuelas de
Medicina 328 .
El efecto fue inmediato y profundo:

Hacia 1915 el número de escuelas [médicas] se


había reducido de 131 a 95, y el número de
graduados de 5440 a 3536. [...] En cinco años, las
escuelas que exigían por lo menos un año de estudio
universitario se incrementaron de 35 a 83. [...] Las
juntas de licencias que exigían trabajo universitario
aumentaron de 8 a 18. En 1912, varias juntas
formaron una asociación voluntaria, la Federación de
Juntas Médicas Estatales, que aceptó la clasificación
de las escuelas de Medicina autorizadas por la AMA.
El Consejo de la AMA se convirtió efectivamente en
una agencia nacional de acreditación para las
escuelas de Medicina, mientras un creciente número
de Estados reconocían sus dictámenes sobre
instituciones inaceptables. [...] [Hacia 1922] el
número de escuelas de Medicina se había reducido a
81, y los graduados a 2529. A pesar de que ningún
órgano legislativo estableció nunca una federación de
médicos del Estado ni un consejo de formación
médica de la AMA, sus decisiones llegaron a tener la
fuerza de ley. Este fue un logro extraordinario para la
profesión organizada 329 .

A medida que fueron haciéndose cargo de la concesión


de licencias, las juntas médicas estatales empezaron a
tener mucho más poder, no solo en la supervisión de la
formación médica, sino también en la adopción de
sanciones a quienes ya ejercían la medicina. Con la
creación de la FSMB había ya un mecanismo establecido no
solo para incrementar la formación médica basada en la
evidencia que recibían los nuevos egresados, sino para
asegurarse de que los ejercientes eran responsables de su
desempeño, prácticas a veces poco fiables. En 1921, el
Colegio de Cirujanos de Estados Unidos publicó sus normas
mínimas de atención y empezó a haber presiones para que
los hospitales se acreditaran 330 . Esto no significó que todos
los estados tuvieran los medios legales para erradicar las
prácticas cuestionables (como ocurrió en Illinois ya en
1877), pero al menos las más atroces (y las personas que
las llevaban a cabo) estaban ahora controladas. Aunque
muchos médicos todavía no pudieran hacer gran cosa para
curar a sus pacientes, podían ser condenados al ostracismo
si realizaban prácticas que les perjudicaran. En algunos
estados se llegó al punto de que los nombres de los malos
médicos aparecieron en los boletines oficiales.
En pocos años tras el Informe Flexner, la revolución
científica en la medicina que se había iniciado en Europa
en la década de 1860, por fin había llegado a Estados
Unidos. Aunque en su mayor parte este cambio fue social y
profesional más que metodológico o empírico, su efecto
general fue que, al excluir a los médicos sin la formación
adecuada y tomar medidas enérgicas contra las prácticas
que ya no eran aceptables, se desató un conjunto de
cambios sociales que pudieron estar relacionados con el
interés de los médicos y la protección de su posición
profesional, lo que dio lugar a un mayor control en grupo
de las prácticas individuales, que es el sello de la actitud
científica.
Por supuesto, puede que todavía fuera cierto, tal como
deja claro la descripción de Lewis Thomas antes referida,
que incluso en los mejores hospitales de Boston durante la
década de 1920, había poco que la mayoría de los médicos
pudiera hacer por sus pacientes más allá de administrarles
sustancias homeopáticas (que eran placebos), recurrir a la
cirugía o dejar que la enfermedad siguiera su curso
natural. Aunque ya no se realizaban sangrías ni purgas, ni
se aplicaban ventosas (matando) a los pacientes —tampoco
exploraciones con los dedos o instrumentos sucios—, había
todavía pocas intervenciones médicas directas que se
pudieran ofrecer para lograr una cura. Esto representó, en
cualquier caso, un progreso sustancial con respecto a la
etapa anterior. La medicina finalmente abrazó el comienzo
de la supervisión profesional de las prácticas individuales
imprescindible para que pudiera presentarse como una
ciencia. El conocimiento médico estaba empezando a
basarse en evidencia empírica, y la introducción de
estándares de atención prometía al menos que la ciencia
clínica haría un esfuerzo de buena fe para estar a la altura
de esto (o al menos no atentar en su contra). La medicina
ya no se basaba en meras corazonadas y anécdotas. Las
malas prácticas y los tratamientos ineficaces podían ser
examinados y descartados. Incrementando los estándares
profesionales, la medicina al menos se ponía a la altura de
su promesa científica.
Este es el inicio de la actitud científica en medicina. Se
podría defender que la confianza en la evidencia empírica y
su influencia en la teoría se remontan a Semmelweis e
incluso Galeno 331 . Y lo mismo podría encontrarse
probablemente mejor en Pasteur. Como cualquier campo, la
medicina tiene gigantes en su historia temprana, y fueron
quienes abrazaron la idea de aprender de la evidencia
empírica. Pero la cuestión de la importancia del ethos de la
comunidad sigue presente, puesto que para que una área
de estudio se convierta en ciencia, la actitud científica tiene
que ser adoptada por algo más que por unos pocos
individuos aislados, no importa lo geniales que sean.
Pueden encontrarse algunos ejemplos de ciencia en los
primeros tiempos de la medicina, pero mientras esos
valores no estuvieron generalizados a toda la profesión —al
menos en parte debido a cambios sociales en la profesión
médica misma—, no fue posible decir que la medicina se
había convertido verdaderamente en ciencia.

LOS FRUTOS DE LA CIENCIA

Tras las reformas profesionales de principios del siglo XX,


la medicina maduró. Con el descubrimiento de la penicilina
en 1928, los médicos finalmente pudieron hacer un
progreso clínico real, sobre la base de los frutos de la
investigación científica 332 .

Entonces [en 1937] llegaron las explosivas noticias


de la sulfanilamida y el comienzo de la verdadera
revolución en la medicina. [...] Sabemos que otras
variaciones moleculares de la sulfanilamida estaban
camino de la industria y oímos hablar de la
posibilidad de la penicilina y otros antibióticos; de la
noche a la mañana nos convencimos de que en el
futuro no habría nada que no estuviera a nuestro
alcance 333 .

Alexander Fleming era un bacteriólogo escocés que


trabajaba en Londres justo tras el final de la Primera
Guerra Mundial. Durante la guerra había trabajado
tratando las heridas y su resistencia a la infección, y una
noche, accidentalmente, dejó una placa de Petri llena de
estafilococos olvidada sobre un banco mientras se iba de
vacaciones. Cuando volvió se dio cuenta de que el moho
que había crecido en la placa parecía haber matado todo el
estafilococo a su alrededor 334 . Después de unos cuantos
experimentos, los resultados no le parecieron clínicamente
prometedores, pero en cualquier caso publicó un artículo
con sus hallazgos. Diez años después, Howard Florey y
Ernst Chain redescubrieron los resultados de Fleming, y
tras encontrar su artículo original y realizar los mismos
experimentos con ratones, aislaron la penicilina, que tuvo
su primer uso clínico en 1941 335 .
En su obra The Rise and Fall of Modern Medicine, James
Le Fanu detalla la cornucopia de descubrimientos médicos
y novedades que siguieron: la cortisona (1949), la
estreptomicina (1950), la cirugía a corazón abierto (1955),
la vacuna contra la polio (también 1955), el trasplante de
riñón (1963) y la lista continúa 336 . Con el desarrollo de la
quimioterapia (1971), la fecundación in vitro (1978) y la
angioplastia (1979), nos hemos alejado de la época de
Lewis Thomas, cuando el trabajo principal del médico era
diagnosticar y simplemente atender al paciente, porque no
había mucho más que hacer mientras la enfermedad seguía
su curso. La medicina clínica podría finalmente disfrutar
del beneficio de toda esa ciencia básica.
Pero es el momento de volver a tomar en consideración
una cuestión escéptica: ¿hasta qué punto pueden ser
atribuidos a la ciencia todos esos descubrimientos clínicos
(por no hablar de la actitud científica)? Le Fanu plantea
esta provocativa cuestión haciendo notar que un buen
número de los momentos «definitivos» de la historia de la
medicina durante el siglo XX tienen poco en común. Como
señala, «el descubrimiento de la medicina no fue el
producto del razonamiento científico, sino de un
accidente» 337 . Sin embargo, aunque esto sea verdad,
todavía es necesario convencerse de que otros
descubrimientos no son directamente atribuibles a la
investigación científica.
Le Fanu escribe: «Los caminos que llevan a un
descubrimiento científico son tan diversos y dependen en
tan gran medida de la suerte y la serendipia que cualquier
generalización se antoja necesariamente sospechosa» 338 .
Le Fanu explora aquí, aunque no la inventó él, la idea de
que algunos avances médicos del siglo XX pueden
considerarse no como el fruto directo de la investigación
científica, sino más bien como «regalos de la naturaleza».
Selman Waksman, ganador del Premio Nobel de Medicina
por su descubrimiento de la estreptomicina (y la persona
que acuñó el término antibiótico) 339 sostuvo —después de
recibir su premio— que los antibióticos fueron un
«fenómeno puramente fortuito». Y no solo estaba siendo
humilde. Sin embargo, como señala Le Fanu, este punto de
vista era tan herético que la mayoría pensaba que debía ser
erróneo 340 .
¿Se puede defender la idea de que los avances de la
medicina moderna no se debieron a la «buena ciencia»,
sino a la «buena fortuna»? Resulta difícil de aceptar y, en
cualquier caso, está basada en una visión errónea de la
ciencia. Si uno ve la ciencia como una empresa
metodológica, en la que hay que seguir un cierto número
de pasos de una determinada manera que conduce al
descubrimiento científico en el otro extremo, entonces
quizás sea discutible que los descubrimientos de la
medicina clínica se deban a la ciencia. Fleming, al menos,
no siguió un método discernible. Sin embargo, partiendo de
la base de la concepción de la ciencia que estoy
defendiendo en este libro, creo que está claro que tanto la
serie de avances del último tercio del siglo XIX como la
transición de los frutos que propició a la ciencia clínica que
empezó en el XX se deben a la actitud científica.
Por un lado, es simplemente demasiado obvio que la
penicilina fue descubierta por accidente. Si bien es cierto
que se produjo un buen número de acontecimientos
fortuitos (nueve días de frío seguidos en el verano de
Londres, el hecho de que el laboratorio de Fleming
estuviera justo encima de otro en el que otro investigador
trabajaba con hongos, que Fleming dejara una placa de
Petri olvidada mientras se iba de vacaciones), eso no quiere
decir que cualquier persona que viera lo que Fleming vio
en la placa de Petri hubiera hecho el mismo
descubrimiento. Quizá no sea necesario que le atribuyamos
el descubrimiento al genio personal de Fleming, pero
tampoco tenemos por qué atribuírselo a un accidente. Nada
menos que un gigante de la medicina como Louis Pasteur
observó en una ocasión que «la casualidad favorece a la
mente preparada». Los accidentes y los sucesos aleatorios
ocurren en el laboratorio, pero uno tiene que encontrarse
en el estado mental apropiado en el momento de recibirlos
y a continuación sondear las cosas un poco más
profundamente, o el beneficio se pierde. Tener la
curiosidad científica de aprender de la evidencia empírica
(incluso como resultado de un accidente), y luego modificar
las propias creencias sobre la base de lo que se ha
aprendido, es lo que significa tener una actitud científica.
La naturaleza puede proporcionar los «frutos», pero es
nuestra actitud la que nos permite reconocerlos y
entenderlos.
Cuando Fleming se percató de que había ciertas áreas de
la placa de Petri en las que el estafilococo no había crecido
—debido (al parecer) a la contaminación causada por
esporas del exterior—, no la tiró simplemente a la basura y
empezó de nuevo. Trató de llegar al fondo de las cosas.
Aunque, como se ha visto, no tenía en mente la idea de las
aplicaciones clínicas (por miedo a que algo lo
suficientemente fuerte como para matar al estafilococo
pudiera matar también al paciente), escribió un artículo
sobre su descubrimiento que fue más tarde recuperado por
Florey y Chain, quienes a su vez empezaron a trabajar para
identificar los mecanismos bioquímicos que actuaban en el
proceso 341 . El escrutinio de grupo de las ideas individuales
llevó al descubrimiento.

Finalmente, en un experimento clásico Chain y


Florey demostraron que la penicilina podía curar
infecciones en ratones: diez ratones infectados con
estreptococos bacterianos fueron divididos en dos
grupos: cinco recibieron penicilina y cinco recibieron
un placebo. Los ratones «placebo» murieron, los
ratones «penicilina» sobrevivieron 342 .

Aunque sea fácil entretener a los estudiantes con la


historia de que la penicilina fue descubierta por casualidad,
no fue un accidente que este descubrimiento se
desarrollara en una poderosa sustancia capaz de salvar
millones de vidas. Eso dependía de la tenacidad y la
apertura de mente de cientos de investigadores para hacer
todas las preguntas fundamentales correctas y proseguir
haciendo experimentos que pudieran poner a prueba sus
ideas. De hecho, uno podría considerar la expectativa
moderna de que la efectividad de todo tratamiento médico
debe medirse sobre la base de ensayos clínicos aleatorios
de doble ciego como uno de los frutos prácticos de mayor
recorrido de cuantos se deben a aquellos investigadores
médicos que adoptaron en primer lugar la actitud
científica. El descubrimiento científico no nace meramente
de la observación de accidentes, sino, también cuando los
accidentes se producen, de la realización de pruebas para
ver si se mantienen.
¿Qué cambios se produjeron en la medicina durante los
ochenta años (1860-1940) que transcurrieron entre Pasteur
y la penicilina? Como señala Porter, durante esta época,
«uno de los sueños antiguos de la medicina se hizo
realidad. Se obtuvo un conocimiento fiable de lo que causa
las principales enfermedades sobre cuya base tanto la
prevención como la cura podían desarrollarse» 343 . Esto no
ocurrió simplemente porque la investigación médica
atravesara una revolución científica. Como hemos visto, los
avances de Pasteur, Koch, Lister y otros tropezaron con
resistencias, fueron interpretados erróneamente, mal
manejados o desconocidos durante demasiado tiempo como
para darnos la confianza de que una vez que el
conocimiento estuviera disponible, los practicantes sabrían
echar mano de él. Lo que más se necesitaba eran las
fuerzas sociales que llevaran a la transformación de este
conocimiento en práctica clínica, cosa que, como he
argumentado, enlazó con un cambio de actitud acerca de
cómo deberían estar organizadas la formación médica y la
práctica de la medicina. Una vez que los médicos
empezaron a pensar en sí mismos como una profesión y no
como un grupo de médicos individuales, los cambios
empezaron a suceder. Los unos empezaron a conocer el
trabajo de los otros; los unos empezaron a examinar las
prácticas de los otros. Los avances y descubrimientos
podían tropezar con resistencias, pero por primera vez
quienes las encarnaban tenían que enfrentarse a la
desaprobación de sus colegas y, finalmente, del público a
cuyo servicio estaban. A medida que una creciente mayoría
de médicos abrazaba la actitud científica, el escrutinio de
las ideas individuales se hizo más común... Y la medicina
científica nació.

CONCLUSIÓN

Dentro de la medicina podemos asistir a cómo la


generalización de una actitud empírica hacia la evidencia,
junto con la aceptación de esta norma por parte de un
grupo que luego la utilizó para criticar el trabajo de sus
colegas, transformó un campo, que antes se basaba en la
superstición y la ideología, en una ciencia moderna. Esto
constituye un buen ejemplo para las ciencias sociales y
otros campos que ahora ansían presentarse como ciencias.
La actitud científica no solo funcionó para la física y la
astronomía (y la medicina) en el pasado. Todavía funciona.
Podremos tener una revolución científica moderna en
campos previamente acientíficos solo con que apliquemos
la actitud científica.
No obstante, todavía nos queda por afrontar el problema
de aquellos que rechazan la actitud científica abiertamente,
de aquellos que no parecen entender que las creencias
basadas en la ideología, como el diseño inteligente, no son
científicas, que caen en la negación de teorías bien
fundamentadas, como el calentamiento global, por una
comprensión deficiente de cómo funciona la ciencia. Nos
ocuparemos de estos problemas en el capítulo 8. Primero
debemos descender todavía más. En este capítulo
acabamos de ver la actitud científica en su mejor momento;
en el capítulo 7 la veremos en el peor.

276 Como veremos en este capítulo, sin embargo, el nacimiento de la medicina


moderna sufrió numerosos reveses, resistencias y fallos en la traducción de la
comprensión a la práctica hasta que la actitud científica estuvo firmemente
asentada.

277 W. Bynum, The History of Medicine: A Very Short Introduction (Oxford,


Oxford University Press, 2008), 108. Véase también W. Bynum et al., The
Western Medical Tradition 1800-2000 (Cambridge, Cambridge University
Press, 2006), 112.

278 Es importante tener en cuenta que Lister no «inventó» la antisepsia,


aunque fue la persona que en mayor medida contribuyó al hallazgo de una
técnica efectiva y a convertirla en una práctica rutinaria. V. Roy Porter, The
Greatest Benefit to Mankind: A Medical History of Humanity (Nueva York,
Norton, 1999), 370. Incluso esta técnica encontró algunas resistencias; ver
Porter, Greatest Benefit, 156.

279 Bynum, History of Medicine, 91.


280 Aunque la palabra científico no se inventó hasta 1833 (por William
Whewell), existía, por supuesto, el antiguo término latino scientia, que llevó en
el siglo XVII al uso de científico, que puede ser más o menos traducido como
«productor de conocimiento».

281 Bynum, History of Medicine, 91. Véase también Bynum et al., Western
Medical Tradition, 112.

282 Roy Porter, Greatest Benefit to Mankind, 9.

283 Ibíd., 57.

284 Ibíd., 77.

285 Ibíd., 76.

286 Aunque algunos hayan esperado aferrarse al espíritu de progreso


científico que surgió como resultado de la Ilustración, «la medicina no pudo
igualar los logros de la física o la química experimental», Porter, Greatest
Benefit to Mankind, 248.

287 Ibíd., 11.

288 Ibíd., 245. Es interesante preguntarse por qué sucedió esto. Porter
especula con que «los historiadores han explicado a veces esta aparente
paradoja de la ciencia médica de la Ilustración —grandes expectativas,
resultados decepcionantes— como consecuencia de una teorización demasiado
ambiciosa» (248).

289 Porter, Greatest Benefit to Mankind, 11, 274. Algunos, sin embargo, verán
esto como injusto. Si bien es cierto que la teoría detrás de las vacunas no se
basaba en la ciencia de laboratorio, sino en la experiencia de las lecheras y su
inmunidad contra la viruela, fue Edward Jenner quien adoptó la actitud
científica al sugerir «¿por qué pensar?, ¿por qué no intentar el experimento?»
(276). Solo entonces, cuando la observación fue corroborada por la
experimentación, se produjo el avance clínico.

290 Porter, Greatest Benefit to Mankind, 284, 305.

291 Lewis Thomas, The Youngest Science: Notes of a Medicine Watcher (Nueva
York, Viking, 1983), 19-20.

292 Ira Rutkow, Seeking the Cure: A History of Medicine in America (Nueva
York, Scribner, 2010), 37.

293 Ibíd., 37-38.

294 Ibíd., 44.


295 Cristin O’Keefe Aptowicz, Dr. Mutter’s Marvels: A True Tale of Intrigue and
Innovation at the Dawn of Modern Medicine (Nueva York, Avery, 2014), 31.

296 Porter, Greatest Benefit to Mankind, 306.

297 «La medicina, guiada por la práctica u orientada a los casos, tardó en
cambiar. El microscopio había existido durante doscientos años antes de que se
convirtiera en parte de la práctica médica diaria y transformara la manera de
entenderla», Porter, Greatest Benefit to Mankind, 525.

298 En cuanto a la anestesia, algunas de las resistencias procedían de


personas que consideraban que el uso de la anestesia en una mujer durante el
parto contradecía la Biblia, de acuerdo con la cual los niños debían nacer con
dolor como castigo por el pecado original. Creían que estaba mal impedir que
la gente «pasara por lo que Dios quería que pasara», Rutkow, Seeking the
Cure, 59-60.

299 Porter, Greatest Benefit to Mankind, 431-432.

300 Ibíd., 432.

301 Porter, Greatest Benefit to Mankind, 433.

302 Rutkow, Seeking the Cure, 66.

303 Nada menos que un pensador como Rudolf Virchow se resistió a la teoría
germinal de la enfermedad diciendo en un momento dado: «Si pudiera volver a
vivir mi vida, la dedicaría a probar que los gérmenes buscan su hábitat natural:
el tejido enfermo, en lugar de ser la causa del tejido enfermo».

304 Rutkow, Seeking the Cure, 79

305 Esta cita procede de John Hughes Bennett, un cirujano y profesor de


Edimburgo, y continúa: «Muéstrenoslos, y creeremos en ellos. ¿Alguien los ha
visto ya?», Porter, Greatest Benefit to Mankind, 372.

306 Porter, Greatest Benefit to Mankind, 436.

307 Ibíd., 442.

308 Porter, Greatest Benefit to Mankind, 674.

309 Bynum, Western Medical Tradition, 112.

310 Porter, Greatest Benefit to Mankind, 525.

311 Ibídem., 525.

312 Ibíd., 527.

313 Ibíd., 527.


314 Thomas, Youngest Science, 28, 35.

315 James Gleick, Genius: The Life and Science of Richard Feynman (Nueva
York, Pantheon, 1992), 132.

316 Paul Starr, The Social Transformation of American Medicine (Nueva York,
Basic Books, 1982).

317 Starr, Social Transformation of American Medicine, 39.

318 Ibíd., 56.

319 Ibíd., 57.

320 Rutkow, Seeking the Cure, 105.

321 «Lo que fundamentalmente propició la destrucción del sistema de licencias


fue la sospecha de que era una expresión del favor más que de la
competencia», Starr, Social Transformation of American Medicine, 58.
Finalmente, esta actitud fue borrada por el desarrollo de la ciencia (59).

322 Entre 1802 y 1876 (período que abarcó la era de la rebelión jacksoniana
contra las sociedades médicas), se abrieron sesenta y dos escuelas comerciales
de Medicina en Estados Unidos, Porter, Greatest Benefit to Mankind, 530.

323 Starr, Social Transformation of American Medicine, 104.

324 Rutkow, Seeking the Cure, 124.

325 Porter, Greatest Benefit to Mankind, 530

326 Ibíd., 119.

327 Rutkow, Seeking the Cure, 147-148.

328 Porter, Greatest Benefit to Mankind, 530-553.

329 Starr, Social Transformation of American Medicine, 120-121.

330 Rutkow, Seeking the Cure, 164.

331 Bynum, Western Medical Tradition, 112

332 Porter, Greatest Benefit to Mankind, 456

333 Thomas, Youngest Science, 35.

334 Porter, Greatest Benefit to Mankind, 455-456

335 Hay una excelente exposición de esta historia en James Le Fanu, The Rise
and Fall of Modern Medicine (Nueva York, Carroll and Graf, 1999), 5-15, y
también en Porter, Greatest Benefit to Mankind, 455-456.

336 Le Fanu, Rise and Fall of Modern Medicine, vii.

337 Ibíd., 5.

338 Le Fanu, Rise and Fall of Modern Medicine, 160.

339 Porter, Greatest Benefit to Mankind, 455.

340 Le Fanu, Rise and Fall of Modern Medicine, 201.

341 Le Fanu, Rise and Fall of Modern Medicine, 9.

342 Ibíd., 10.

343 Porter, Greatest Benefit to Mankind, 460.


CAPÍTULO 7

La ciencia sale mal: fraude y otros


fracasos

Para alguien a quien le importe la actitud científica, el


fraude puede parecer un tema superficial. Las personas
que cometen fraudes no son más que tramposos y
mentirosos que obviamente no aceptan los valores de la
ciencia, ¿no es cierto? ¿Por qué deberíamos molestarnos en
ir más allá examinando el problema?
Pero sugiero que adoptemos un enfoque más prudente,
puesto que el examen del fraude nos ayudará a entender no
solo lo que significa por contraste tener una buena actitud
científica, sino también a tomar la medida de todas esas
cosas que se acercan a ser fraude. Si se tiene una visión
demasiado simplista del fraude, por ejemplo, se puede
pasar por alto el hecho de que la mayoría de quienes lo
cometen no se perciben a sí mismos como intentando
falsificar intencionadamente el registro científico, sino que
se sienten con derecho a tomar un atajo porque piensan
que los datos les darán finalmente la razón. Esto es
problemático de muchas maneras, pero es una cuestión
abierta si se trata de un fracaso metodológico o de actitud.
El autoengaño conducente a pensar que está bien hacer
algunos recortes en el procedimiento: ¿allana el camino
para la posterior comisión de fraudes o es ya es un fraude
en sí mismo? Las acciones importan, pero también las
intenciones. Si uno comienza no con la intención de
falsificar nada, sino solo pretendiendo que los datos se
ajusten a lo que necesita para realizar un experimento, ¿en
qué punto se salen las cosas de control? ¿Podría haber una
conexión entre el tipo de prácticas de investigación
negligentes que examinamos anteriormente en este libro
(como el p-hacking y la evidencia parcial) y la posterior
falsificación o fabricación de datos que constituye un
fraude en sí misma? Como concepción normativa, la actitud
científica puede ayudarnos a resolver estos problemas.
Sin embargo, debemos empezar ocupándonos del
problema en su interpretación más desfavorable. Fraude es
la fabricación intencionada o falsificación del registro
científico 344 . En el caso del mero error, la fidelidad a la
ciencia no está en cuestión, puesto que uno puede
equivocarse sin tener la intención de engañar. Pero en el
caso del fraude —en el que cualquier defecto es
intencionado—, el compromiso con la actitud científica está
plenamente en cuestión. En cualquier actividad tan abierta
y dependiente del trabajo de otros como la ciencia, eso es
algo que no puede ser tolerado. Cuando uno se presenta
como científico, está adquiriendo el compromiso voluntario
de aprender franca y honestamente de la experiencia. Al
urdir un fraude, uno se sitúa a sí mismo y su afán de
medrar por delante de esto. Se supone que la ideología, el
dinero, el ego y el interés propio deben quedar relegados a
un segundo plano con respecto a la evidencia. Se dice a
veces que —debido a que las ideas científicas pueden venir
de cualquier parte— no hay herejes en la ciencia. Pero el
fraude es una forma de auténtica herejía científica; no es
que las teorías sean diferentes, sino que se basan en datos
inventados. Así, el fraude se ve mucho peor que el error,
puesto que el fraude es por definición intencionado y lo que
está en juego es nada menos que una traición a la propia
actitud científica.
El mero error no atemoriza demasiado a la ciencia.
Mientras se mantenga la actitud correcta en cuanto a
aprender de la evidencia empírica, la ciencia está
preparada para lidiar con los errores. Y esto es bueno,
porque la historia de la ciencia está llena de ellos. No estoy
hablando aquí de la afirmación pesimista-inductivista de
que a largo plazo la mayoría de nuestras creencias
científicas resultarán ser falsas 345 . Me estoy refiriendo a
los enormes errores y callejones sin salida por los que se
extravió ciencia de su camino durante siglos: el flogisto, la
teoría calórica, el éter... Es importante, sin embargo,
señalar que estos errores no fueron fraudes y que, de
hecho, en algunos casos fueron cruciales para elaborar
mejores teorías científicas. Sin el flogisto quizá no
hubiéramos descubierto el oxígeno; sin la teoría calórica
podríamos no haber llegado a entender nunca la
termodinámica. ¿Por qué ocurre esto? Ocurre porque se
espera que la ciencia aprenda de sus errores. Si uno adopta
la actitud científica y se orienta conforme a lo que le dicta
la evidencia, el error será finalmente extirpado. Supongo
que lo mismo puede hacerse a propósito de los errores
producto del fraude —puesto que si la ciencia se corrige a
sí misma, esos errores serán también detectados y
corregidos—. Pero rastrear errores intencionados supone
una enorme pérdida de tiempo y recursos, y es ahí por
donde la mayoría de los científicos trazan una línea. No se
lamenta el fraude por las consecuencias que acarrea, sino
por la quiebra de la fe en los valores científicos. La
naturaleza es lo bastante sutil; a los científicos no les
importa ocuparse de los desafíos adicionales que introduce
el engaño.
Pero es importante recordar que hay otra fuente de
deficiencias en el trabajo científico. Entre el fraude y el
error honesto, hay una categoría incierta en la que no está
claro que los motivos sean puros. Como vimos en el
capítulo 5, el error científico puede proceder del fraude,
pero también de la negligencia, el sesgo cognitivo, la
ignorancia voluntaria y la vagancia. Espero haber puesto ya
de manifiesto que la actitud científica es una herramienta
robusta para mitigar el error, al margen de cuál fuera su
fuente. Aquí, sin embargo —a punto de afirmar que el
fraude es el mayor ultraje que se le puede infligir a la
actitud científica—, deberíamos volver a examinar la
cuestión de cómo dividir estas fuentes de error entre las
motivaciones intencionadas y las no intencionadas.
La clave aquí es ser explícito en la definición de fraude.
Si definimos el fraude como la fabricación intencionada o la
falsificación de datos científicos, entonces hay dos maneras
posibles de leer esto:

(1) Si uno ha cometido un fraude, entonces ha fabricado


o falsificado datos intencionadamente.
(2) Si uno ha fabricado o falsificado datos
intencionadamente, entonces ha cometido fraude.

Como sabemos por lógica, estos dos enunciados no se


implican mutuamente, así que es posible que uno de ellos
sea verdadero, mientras que el otro no lo es. En este caso,
sin embargo, creo que los dos son verdaderos. Si uno está
cometiendo un fraude, entonces tiene que ser de manera
intencionada. Como vimos en la definición más general de
«mala conducta en la investigación» (en la nota 1 de este
capítulo), si un fallo es un «error honesto» o una
«diferencia de opinión», no se considera fraude. Para que
haya fraude, es necesario tener la intención de engañar.
Pero entonces debemos preguntar si la fabricación o
falsificación de datos es intencionada: basta con eso para
que haya fraude. La fabricación y la falsificación no son
cualquier tipo de error; por su propia definición, no pueden
hacerse por accidente. Así pues, en el momento en el que
uno se involucra en este tipo de comportamientos, parece
que, automáticamente, comete un fraude. Podemos tratar
de definir el fraude combinando (1) y (2) mediante el
siguiente enunciado bicondicional: «Uno comete fraude si,
y solo si, intencionadamente, inventa o falsifica datos
científicos» 346 . Sin embargo, esto deja aún abierta la
cuestión crucial de cómo definir la intencionalidad. ¿Hay
tal vez una manera mejor de caracterizar el fraude para
dejar esto claro?
Pasemos ahora a la actitud científica y veamos qué
ventajas puede proporcionarnos en orden a entender el
concepto de fraude científico. A lo largo de este libro, he
estado argumentando que la actitud científica es lo que
define la ciencia, que puede ayudarnos a entender lo que la
ciencia tiene de especial y por qué hay una justificación
única detrás de las creencias científicas. Puesto que he
dicho que el fraude es el peor tipo de crimen que puede
cometerse contra la ciencia, podría entenderse que tiene
que constituir un repudio total a la actitud científica. Pero
tómense en consideración ahora las siguientes dos maneras
de interpretar esta afirmación:

(3) Si uno ha cometido un fraude, entonces no tiene


actitud científica.
(4) Si uno no tiene actitud científica, entonces ha
cometido un fraude.

Aquí hay un problema obvio, puesto que considero que la


tesis (3) es verdadera y la (4) no. ¿Cómo puede ser esto? En
concordancia con la tesis (3), parece claro que si alguien ha
cometido un fraude, esa persona no tiene actitud científica.
Fabricar o falsificar datos entra en conflicto directo con la
idea de que uno se preocupa por la evidencia empírica y
está comprometido a mantener y cambiar las propias
creencias sobre la base de aquella. Entonces, ¿por qué la
tesis (4) es falsa? La cuestión es compleja, puesto que en
algunas situaciones la tesis (4) puede ser verdadera, pero
lo relevante aquí es que no es necesariamente verdadera
en todos los casos 347 . Decir que «si uno no tiene actitud
científica, entonces ha cometido un fraude» es hacer una
suposición demasiado aventurada. En primer lugar, uno
tiene que estar llevando a cabo una investigación empírica;
no hay actitud científica en la literatura, pero ¿y qué? En
segundo lugar, se supone que si uno tiene una actitud
equivocada en el curso de la investigación empírica,
definitivamente actuará sobre ella. Pero sabemos, teniendo
en cuenta el comportamiento humano, que esto no siempre
es el caso. Y, en tercer lugar, ¿qué hay de la
intencionalidad? A juzgar por la tesis (2) de más arriba,
parece que si hemos cometido un error intencionado,
entonces también hemos cometido un fraude. Pero la
cuestión aquí es que hay muchos grados de intencionalidad
y múltiples razones diferentes por las que alguien podría no
tener actitud científica.
Como vimos en el capítulo 5, podría ser que algunos
investigadores fueran víctimas de un sesgo cognitivo
inconsciente. O quizá sencillamente sean perezosos o
descuidados. ¿Son también unos impostores? Podría haber
toda una serie de razones psicológicas subyacentes por las
que no tener la actitud científica no fuera culpa de nadie.
La transgresión de la actitud científica puede no ser
intencionada. Pero he aquí la pregunta clave: ¿qué hay de
aquellos casos en los que alguien se involucra
intencionadamente en prácticas de investigación turbias?
¿Qué hay de aquellas prácticas de investigación que no
aparecen encima de la mesa, como el p-hacking o la
evidencia parcial, que ataqué en el capítulo 5? ¿Por qué no
son consideradas fraude desde el mismo momento en el
que se realizan intencionadamente? Lo relevante para
determinar el fraude no es solo si esas acciones se realizan
intencionadamente, sino si también involucran fabricación
o falsificación. Recordemos nuestra definición de fraude: la
fabricación o falsificación intencionada de datos científicos.
(Recordemos también que se trata de una relación
bicondicional.) La razón por la que el p-hacking no se
considera normalmente fraude no es que la persona que
recurre a él no lo haya hecho a propósito, sino que, por
muy asombroso que parezca, el p-hacking no llega al punto
de falsificar o fabricar datos. Uno desorienta a sus colegas
científicos, quizá, pero no fabrica evidencia. Uno puede
dejar un estudio interrumpido para obtener más datos que
poder publicar, pero eso no es del todo falsificar 348 .
Consideremos una analogía con mentir. Decir una
mentira descarada es decir algo falso sabiendo que es
falso. Pero ¿qué hay de aquellos casos en los que no hemos
mentido, pero tampoco hemos dicho exactamente toda la
verdad? Esto es claramente deshonesto, pero no es (del
todo) lo mismo que mentir. Esta es precisamente la
analogía que buscamos para arrojar luz sobre la diferencia
entre ciertas prácticas cuestionables de investigación y el
fraude. El p-hacking, la publicación selectiva de datos y
otras prácticas similares no se consideran fraude conforme
a la definición normalizada porque no implican la
fabricación o falsificación de datos. Sin embargo, tampoco
son completamente honestas 349 . Son engaños
intencionados que se acercan al fraude. Pueden ser una
ofensa a la actitud científica, pero no son un delito grave.
Si se realizan intencionadamente, podemos esperar que
sean descubiertas y desincentivadas —e incluso que la
actitud científica (que nos ayuda a entender por qué el
fraude está mal) puede proporcionarnos herramientas que
nos sirvan para ello—, pero esto no quiere decir que
debamos confundirlas con el fraude.
La actitud científica puede concebirse como un espectro
cuyos extremos corresponden a la plena integridad en un
lado y al fraude en el otro. El criterio que define el fraude
es la fabricación o falsificación intencionadas de datos. Uno
puede no llegar a esto ya sea porque ha cometido un error
no intencionado, ya sea porque no ha llegado al punto de la
fabricación o falsificación de datos. En esta segunda clase
estarían incluidos muchos de esos «delitos menores»
contra los «grados de libertad» que uno tiene como
investigador científico 350 . La actitud científica es un asunto
de grado; no es un todo o nada. Se puede pensar que el
fraude se produce cuando alguien transgrede la actitud
científica y su comportamiento se convierte en fabricación
o falsificación. Sin embargo, un investigador puede tener
un sentido mermado de la actitud científica y no llegar tan
lejos. (Así pues, traicionar la actitud científica parece
necesario, pero no suficiente, para cometer un fraude.)
Aunque parece útil trazar una línea clara que delimite lo
que es fraude, esto no quiere decir que «cualquier cosa»
sea insuficiente. El uso de la actitud científica para señalar
qué tiene la ciencia de especial debería ayudarnos a
realizar ambas tareas. En este capítulo, argumentaré que
podemos usar la actitud científica para obtener una
compresión mejor de por qué el fraude es tan dañino y para
vigilar la frontera que separa el fraude de otros fracasos de
la actitud científica. Al proceder de esta manera, espero
exponer también los muchos beneficios de una
comprensión de la actitud científica para identificar y
desincentivar las prácticas descuidadas en la investigación
que no llegan a ser fraude. Como vimos en el capítulo 5, la
actitud científica puede ayudarnos a identificar y combatir
todo tipo de errores. Pero la manera adecuada de hacer
esto es comprender cada error como lo que es. Habrá
quien considere deplorable todo lo que no sea la absoluta
honestidad en la ciencia. Este compromiso con la actitud
científica me parece elogiable. Sin embargo, la ciencia
tiene que sobrevivir incluso cuando algunos de quienes
trabajan en ella —por la razón que sea— se comportan a
veces de una manera que deja mucho que desear.

¿POR QUÉ LA GENTE COMETE FRAUDES?

La imagen estereotipada del impostor científico como


alguien que simplemente se inventa los datos no es
necesariamente adecuada. Por supuesto, eso ocurre y es
una forma particularmente odiosa de fraude, pero no es la
única ni tampoco la más común. Igual de culpables son
aquellos que piensan que ya conocen la respuesta de
algunas preguntas empíricas y que no tienen por qué
dedicarle el tiempo necesario —debido a las presiones que
reciben— a la obtención de los datos correctos.
En su excelente libro On Fact and Fraud, David
Goodstein proporciona un análisis detallado de numerosos
ejemplos de fraude científico elaborados por alguien que
tuvo la tarea de investigarlos durante años 351 . Después de
hacer la bien conocida afirmación de que la ciencia se
corrige a sí misma, y de que, en su proceso, es capaz de
detectar cualquier falsedad (al margen de si se introdujo
intencionadamente o no) 352 , Goodstein prosigue haciendo
una afirmación enormemente provocativa 353 . Dice que,
según su experiencia, la mayor parte de quienes han
incurrido en fraudes no son los que intentan introducir
deliberadamente una falsedad en el corpus de la ciencia,
sino quienes han decidido «ayudar a que las cosas sigan su
curso» tomando un atajo hacia alguna verdad que «sabían»
que iba a ser vindicada 354 . Esta valoración debería al
menos proporcionarnos una pauta para reconsiderar la
visión estereotipada del fraude científico 355 . Aunque
seguramente haya ejemplos de fraudes que hayan sido
cometidos por quienes deliberadamente introducen
falsedades en el corpus de la ciencia, ¿qué deberíamos
decir acerca de los «ayudantes»? Quizás aquí la analogía
con el mentiroso (que propone deliberadamente una
falsedad) sea menos adecuada que aquella que toma como
referente al egoísta impaciente, cuya arrogancia
cortocircuita el proceso que todos los demás tienen que
seguir.
Sin embargo, visto desde esta perspectiva, el fraude
científico no se explica meramente por motivos oscuros,
sino como producto de la arrogancia de pensar que uno es
lo suficientemente importante como para tomar un atajo en
la manera de hacer ciencia.
Es notable que la preocupación por la arrogancia en la
búsqueda del conocimiento sea anterior a la ciencia. En sus
diálogos, Platón argumenta (en la voz de Sócrates) que la
falsa creencia es una amenaza mayor para la búsqueda de
la verdad que el mero error 356 . Una y otra vez, Sócrates
expone la ignorancia de personajes como Menón o Eutifrón,
que pensaban que sabían algo, solo para encontrarse con
que no tenían ni la menor idea de lo que estaban diciendo.
¿Por qué esto es importante? No es importante porque
Sócrates piense que está en posesión de todas las
respuestas; Sócrates frecuentemente se declara ignorante.
En vez de eso, la lección parece ser que es más fácil
recuperarse del error que de la falsa creencia. Si
cometemos un error honesto, otros nos pueden corregir. Si
aceptamos que somos ignorantes, tal vez sigamos
aprendiendo. Pero cuando pensamos que ya estamos en
posesión de la verdad (lo cual es una actitud que puede
llevarnos a la tentación de tomar atajos en nuestro trabajo
empírico), podemos perder la verdad. Aunque la actitud
científica sigue siendo un arma poderosa, la arrogancia es
un enemigo que no debe subestimarse. La humildad
profunda y la conciencia de la propia ignorancia están en el
corazón de la actitud científica. Cuando transgredimos
esto, es posible que ya estemos camino del fraude 357 .
Si hubiera quien, al menos, cometiera un fraude con la
convicción de que lo único que está haciendo es acelerar la
marcha de las cosas en el camino de la verdad, ¿estaría su
actitud justificada? No. De la misma manera que no
defenderíamos al justiciero que mata en nombre de la
justicia, el «facilitador de la verdad» que toma atajos es
culpable no solo de realizar malas acciones, sino también
de tener mala intención. Incluso en el supuesto fraude
bienintencionado, el engaño sigue siendo intencionado.
Aquí la deshonestidad no se da meramente en las acciones,
sino también en la mente. El fraude es la fabricación o
falsificación intencionada de evidencia, encaminada a
convencer a alguien para que crea lo que queremos que
crea. Pero si para reunir esa evidencia no se usan los
métodos más rigurosos, no hay justificación. El mero hecho
de estar en lo cierto sin justificación para ello no es
conocimiento. Como dice Sócrates en el Menón, «la opinión
correcta es diferente del conocimiento» 358 . El
conocimiento es creencia verdadera justificada. Así pues, el
fraude cortocircuita el proceso por el cual los científicos
formulan sus creencias, incluso si aciertan.
Independientemente de cuál sea el motivo, el que comete
un fraude lo hace con pleno conocimiento de que así no es
como se supone que debe hacerse la ciencia. No importa
que pensara que estaba «introduciendo una falsedad» o
«echándole una mano a la verdad». La arrogancia de
«pensar que se está en lo cierto» es suficiente para
falsificar no solo el resultado, sino el proceso. Y en un
proceso tan marcado por la serendipia y la sorpresa como
la ciencia, el peligro de una creencia falsa siempre está
rondando.

LA DELGADA LÍNEA ROJA

Un problema a la hora de juzgar el fraude es el uso de un


lenguaje eufemístico. En atención a lo que está juego en las
carreras académicas de las personas involucradas, las
universidades se resisten a veces a emplear términos como
«fraude» o «plagio» incluso en casos que son bastante
claros 359 . Si alguien es considerado culpable (o a veces
incluso sospechoso) de fraude, queda «excomulgado» de la
comunidad científica. Su reputación se hunde. Todo lo que
haya hecho hasta ese momento —fraudulento o no— será
puesto en cuestión. Sus compañeros y colaboradores
renegarán de él. A veces, si el dinero federal ha sido mal
administrado o vive en un país con leyes especialmente
estrictas, puede incluso ir a la cárcel 360 . Sin embargo, el
juicio profesional de los pares es frecuentemente peor (o al
menos más certero) que cualquier castigo criminal. Una
vez que la mácula del fraude flota en el ambiente, es muy
difícil hacerla desaparecer 361 . Es habitual que quien haya
sido considerado culpable de fraude simplemente abandone
la profesión.
Un ejemplo reciente de equívoco en torno al fraude es el
caso de Marc Hauser, antiguo profesor de Psicología de la
Universidad de Harvard, quien fue investigado tanto por la
propia Harvard como por la Oficina de Integridad de la
Investigación de los Institutos Nacionales de Salud. En un
dictamen federal que vio la luz algún tiempo después, la
ORI encontró que la mitad de los datos de uno de los
gráficos de Hauser estaba inventada. En otro artículo,
había «falsificado la codificación» de algunos datos; en otro
«había descrito falsamente la metodología usada para
codificar los resultados de los experimentos». Y la lista
prosigue. Si esto no es fraude, ¿qué es fraude? Sin
embargo, la Universidad le permitió a Hauser decir —antes
de que los hallazgos del gobierno federal se publicaran—
que sus errores eran el resultado de una «excesiva carga
de trabajo», y que, en cualquier caso, estaba dispuesto a
aceptar su responsabilidad, «estuviera o no directamente
involucrado». Al principio Hauser solo se tomó unos días de
asuntos propios, pero después de que sus colegas de la
facultad votaran a favor de excluirle de la enseñanza,
renunció discretamente. Mauser trabajó más tarde en un
programa de asistencia a jóvenes en riesgo 362 .
Aunque podamos tener la tentación de usar el término
«mala conducta en la investigación» como expresión
comodín que incluya el fraude (o un eufemismo para el
fraude), esto difumina la línea entre el engaño intencionado
y el no intencionado. ¿Incluye la mala conducta en la
investigación las prácticas negligentes o descuidadas?
¿Están la fabricación y falsificación de datos en el mismo
barco que la custodia inadecuada de datos? He aquí un
problema real. Si una universidad está tratando de llevar a
cabo una política en torno al fraude, podría redactar algo
diferente que si se tratara de actuar sobre la mala conducta
científica. Como Goodstein demuestra en su libro, si es lo
segundo, podemos sentirnos tentados a incluir el lenguaje
acerca de prácticas de investigación no estándar como algo
que podemos querer desalentar e incluso castigar, pero no
hasta el punto de considerarlo fraude. Goodstein escribe:
«Hay muchas prácticas que no son comúnmente aceptadas
dentro de la comunidad científica, pero que no equivalen, o
no deberían equivaler, a fraude científico» 363 . ¿Qué
diferencia supone esto? Hay quien podría argumentar que
no importa en absoluto, que incluso las malas prácticas de
investigación, como «la deficiente retención o custodia de
datos», «la no comunicación de datos discrepantes» o «la
sobreinterpretación de datos», representan un fracaso de
la actitud científica. Como previamente se ha hecho notar,
la actitud científica no es un todo o nada. ¿No es también
incurrir en una «desviación con respecto a las prácticas
aceptadas» 364 una forma de disuasión? Puede que sí, pero
yo diría que no diferenciar esto del fraude tiene un gran
coste.
Sin una línea nítida, puede ser difícil a veces, incluso
para los propios investigadores, decir cuándo están al
borde del fraude. Consideremos una vez más el ejemplo de
la fusión fría. ¿Fue un engaño o un autoengaño? (¿Y pueden
el engaño y el autoengaño distinguirse claramente?) 365 . En
su libro Voodoo Science, Robert Park argumenta que el
autoengaño evoluciona imperceptiblemente hasta
convertirse en fraude 366 . La mayoría no estaría de acuerdo,
puesto que el fraude ha de ser intencionado. Como observa
Goodstein, el autoengaño y otros ejemplos de debilidades
humanas no deberían considerarse fraudes.

Las interpretaciones equivocadas de cómo se


comporta la naturaleza no constituyen ni constituirán
nunca mala conducta. Ciertamente, nos dicen algo
acerca de cómo los científicos pueden caer víctimas
del autoengaño, las percepciones erróneas, las
expectativas poco realistas y la experimentación
defectuosa, por nombrar solo unos pocos fallos. Pero
estos son ejemplos de debilidades demasiado
humanas, no de fraudes 367 .

Quizá necesitemos otra categoría. Goodstein argumenta


que aunque el caso de la fusión fría no sea un fraude, sí se
acerca a lo que Irving Langmuir llama «ciencia patológica»,
que es cuando «la persona siempre piensa que está
haciendo lo correcto, pero es llevada a la locura por el
autoengaño» 368 . Así, quizá tanto Park como Goodstein
tengan razón: incluso si el autoengaño no es fraude, puede
ser un paso en el camino que lleva a él. Creo que tenemos
que tomarnos en serio la idea de que lo que empieza como
un autoengaño puede llevarnos más tarde (como la
arrogancia) al fraude. La cuestión aquí es si tolerar o ser
indulgente con el autoengaño durante un período de
tiempo lo suficientemente amplio, erosiona nuestra actitud
hacia el aspecto que se supone que tiene que tener la
buena ciencia 369 .
Además, incluso si solo nos preocupa (como en este
momento) el engaño intencionado, puede que sea una
buena idea examinar cualquier camino que pueda conducir
a él. Es importante reconocer que tanto el autoengaño
como el sesgo cognitivo, las prácticas negligentes en la
investigación y la ciencia patológica son peligros —aunque
no pensemos que constituyen fraude— precisamente
porque, al eliminar controles, pueden socavar el respeto a
la actitud científica, lo que amenaza con llevar al fraude.
Pero esto no quiere decir que el fraude real no deba ser
considerado distinto. Tampoco debería haber ninguna
excusa para la falta de claridad en las políticas
universitarias en torno a lo que es realmente fraude frente
a las prácticas que meramente queremos desalentar. Está
bien que queramos animar a los investigadores a tener
actitudes impecables sobre aprender de la evidencia,
aunque también debamos trazar una línea entre aquellos
que se embarcan en investigaciones dudosas o fuera de lo
común y quienes han cometido un fraude.
Cualquier falta de claridad —o la falta de compromiso
para usar la palabra «fraude» en casos que no admiten
interpretación— puede ser un problema, puesto que
permite que los autores de un fraude se protejan a veces
detrás de la admisión de malas prácticas sin especificar y
del hecho de haber cometido errores sin aceptar
verdaderamente la responsabilidad por ello. Esto perjudica
no solo a los científicos honestos, que son la mayoría, sino
también a quienes no han cometido fraude (del todo),
puesto que vuelve a la comunidad científica más recelosa
con alguien que simplemente se ha equivocado (por
ejemplo, con una custodia deficiente de datos) sin que
pueda considerarse fraude en toda regla 370 . Que el fraude
se defina meramente como un tipo de mala conducta, o que
usemos la segunda expresión como eufemismo de la
primera: ¿a quién le sirve?
Si la actitud científica es nuestro criterio, cuando
encontramos un fraude, debemos llamarlo por su nombre y
exponerlo públicamente. Esto servirá como elemento
disuasorio para otros y como una señal de la integridad
para la ciencia en su conjunto.

Debemos estar atentos para encontrar y exponer a


la luz pública a esos impostores, y, al mismo tiempo,
para no culpar a nadie más allá de a quien
corresponda e involuntariamente atentar contra la
libertad de cuestionamiento y exploración que
siempre han caracterizado al progreso científico 371 .

Cuando una denuncia de fraude se hace pública, la


sanción de la comunidad puede (y debe) ser rápida y
rotunda. Pero lo primero es que no tiene que haber
encubrimiento. Cabe reconocer que hay presiones para
ello, pero eso puede mancillar la reputación de la ciencia.
Cuando las culpas no se buscan exactamente donde se
debería —y algunos sospechan que el fraude se disculpa o
encubre con demasiada frecuencia—, la consecuencia no
intencionada puede ser que se produzca una injusticia
contra aquellos que han sido meramente acusados. Cuando
el fraude se castiga selectivamente, se puede suponer que
aquellos sobre los que solo pesa una acusación son
culpables. Muestras de esto pueden apreciarse en los
escándalos previamente mencionados en torno a la
reproducibilidad y la retractación de artículos. Los errores
científicos a veces ocurren. Algunos estudios no son
reproducibles y/o pueden necesitar retractaciones por
razones que no tienen nada que ver con el fraude. Sin
embargo, si no hay una línea clara entre lo que constituye
fraude —y nos escaqueamos con fórmulas elusivas como
«mala conducta en la investigación»—, es mucho más fácil
decir «viruela en todas vuestras casas», fijarse únicamente
en sucesos externos (como la retractación de artículos) y
suponer que esto es indicador de una mala intención. El
resultado es que algunos estafadores pueden irse de
rositas, mientras que otros que no han cometido fraude
alguno reciben acusaciones falsas. Nada de esto es buena
ciencia.
Cuando el asunto depende de los científicos y no de los
gerentes, no hay por lo general ambigüedades en torno a
llamar por su nombre y sancionar debidamente los casos
reales de fraude. De hecho, me parece que una de las
ventajas de usar la actitud científica para distinguir la
ciencia de la no-ciencia es que explica por qué los
científicos son tan duros con el fraude. Si habláramos más
acerca de la actitud científica como un rasgo esencial de la
ciencia, los científicos podrían establecer más fácilmente
una línea entre la buena y la mala ciencia 372 . Algunos
podrían preguntarse por qué. Después de todo, si el
proceso de escrutinio en grupo de ideas individuales en la
ciencia es tan bueno, detectará todo tipo de errores,
intencionados o no. Pero esto no toca lo sustancial, que es
que la ciencia es justamente el tipo de empresa en la que
en mayor medida debemos confiar en el control para que se
controle a sí misma. Si la ciencia fuera una empresa
deshonesta en la que todo el mundo hiciera trampa —y el
trabajo de los revisores fuera dar caza a los tramposos—,
se derrumbaría. Así pues, el fraude se reconoce y debe
reconocerse como algo diferente de otros errores
científicos, puesto que supone una violación de la fe en los
valores que unen a los científicos.

EL DEBATE VACUNAS-AUTISMO

Estamos ahora en posición de considerar el impacto que


el fraude científico puede tener no solo sobre los
científicos, sino sobre toda la comunidad de personas que
confían en la ciencia para tomar decisiones en su vida
diaria. En 1998, el doctor Andrew Wakefield publicó un
artículo junto a doce coautores en la prestigiosa revista
médica británica The Lancet en el que aseguraba haber
encontrado un vínculo entre la vacuna triple vírica SPR y el
comienzo del autismo. Si era cierto, se trataría de un
enorme avance en la investigación sobre el autismo. Tanto
el público como la prensa pidieron más información, así
que, acompañado por algunos de los coautores, Wakefield
dio una conferencia de prensa. En aquel momento, ya
habían surgido algunos interrogantes en torno a la validez
de la investigación. Resultó que el artículo se basaba en
una muestra sumamente pequeña, de solo doce niños. No
había habido, además, control alguno; todos los niños del
estudio estaban vacunados y tenían autismo. A pesar de
que para un profano esto pueda sugerir un buen vínculo
causal, para cualquiera que tenga formación estadística las
preguntas se plantean de manera natural. Primero: ¿cómo
llegaron los pacientes al estudio? Esto es importante: lejos
de ser un estudio clínico aleatorio de doble ciego (en el que
los investigadores ponen a prueba aleatoriamente sus
hipótesis sobre solo la mitad de la población de muestra,
sin que ni el sujeto ni el investigador sepan quién está en
cada mitad) o un estudio de control de casos (en el que los
investigadores examinan un grupo que ha sido
naturalmente expuesto al fenómeno en cuestión) 373 , el
artículo de Wakefield era un simple «estudio de serie de
casos», que es quizá el equivalente a descubrir por
accidente que varias personas cumplen años el mismo día y
ponerse a excavar en busca de ulteriores correlaciones.
Obviamente, en este último caso, puede haber peligro de
incurrir en un sesgo de selección. Finalmente, buena parte
de la evidencia con la que contaba el estudio para
establecer una correlación entre las vacunas y el autismo
se asentaba en una cronología breve entre la vacunación y
la aparición de síntomas, lo cual se había medido teniendo
en cuenta el recuerdo de los padres.
Cualquiera de estos factores bastaría para levantar
sospechas en las mentes de otros investigadores, y así
ocurrió. Durante los siguientes años, investigadores
médicos de todo el mundo realizaron múltiples estudios
para ver si podían recrear el vínculo propuesto por
Wakefield entre las vacunas y el autismo. Buena parte de la
especulación se centró en la cuestión de si el timerosal de
la vacuna triple vírica podía causar envenenamiento por
mercurio. Al mismo tiempo, solo por precaución, varios
países dejaron de usar timerosal mientras la investigación
seguía su curso. Finalmente, ninguno de los estudios dio
con vínculo alguno.

Epidemiólogos en Finlandia consultaron


atentamente los historiales médicos de más de dos
millones de niños [...] sin encontrar evidencia alguna
de que la vacuna triple vírica causara autismo.
Además, varios países eliminaron el timerosal de las
vacunas antes que Estados Unidos. Los estudios en
prácticamente todos ellos —Dinamarca, Canadá,
Suecia y el Reino Unido— encontraron que el número
de niños con diagnóstico de autismo siguió
incrementándose a lo largo de la década de 1990,
después de que el timerosal hubiera sido eliminado.
En total, diez estudios separados no encontraron
vínculo alguno entre la triple vírica y el autismo;
otros seis grupos no lo encontraron entre el timerosal
y el autismo 374 .

Mientras tanto, fueron conociéndose algunos hechos


llamativos en torno al estudio original de Wakefield. En
2004 se descubrió que Wakefield había estado en nómina
de un abogado que planeaba una demanda masiva contra
los fabricantes de la vacuna triple vírica. Peor aún: resultó
que casi la mitad de los niños sobre los que informaba el
estudio habían llegado a Wakefield por mediación del
abogado. Finalmente, se supo que justo antes de que
Wakefield publicara su estudio, se había registrado la
patente de una vacuna que pretendía competir contra la
clásica triple vírica 375 . Lejos de ser un sesgo de selección,
se trataba de un conflicto de intereses a gran escala no
revelado que obligaba a plantearse numerosas preguntas
en torno a las motivaciones de Wakefield. Al cabo de unos
días, diez de los coautores de Wakefield habían retirado sus
nombres del estudio.
Pero ya era demasiado tarde. Los rumores habían
llegado al público y las tasas de vacunación habían
empezado a disminuir. En Ashland, Oregón, hubo una tasa
de exención del 30 %; en Marin County, California, la tasa
del exención fue tres veces mayor que en el resto del
estado 376 . Con tales bolsas de resistencia a la vacunación,
los médicos empezaron a preocuparse por la «inmunidad
del rebaño», que es cuando las tasas de vacunación caen
tanto que ya no se puede contar con el beneficio
«oportunista» de estar sin vacunar inmerso en una
comunidad en la que la mayoría de los individuos sí lo está.
Y los resultados fueron devastadores. Después de haber
sido frenadas y derrotados, el sarampión, la tos ferina, la
difteria y otras enfermedades empezaron a reaparecer:

[El sarampión] es el microbio más infeccioso que


haya conocido el hombre y ha matado a más niños
que cualquier otra enfermedad en la historia. Una
década después de que la Organización Mundial de la
Salud (OMS) declarara el virus definitivamente
erradicado en todo el continente americano salvo en
la República Dominicana y Haití, el descenso en las
tasas de vacunación ha producido una explosión de
casos en todo el mundo. En Gran Bretaña, los casos
de sarampión se han multiplicado por mil desde
2000. En Estados Unidos, ha habido epidemias en
muchos de los estados más poblados del país,
incluyendo Illinois, Nueva York y Wisconsin 377 .

No ayudó que muchos medios de comunicación


estuvieran fustigando con la historia, tratando de dar voz a
los «dos bandos» de la «controversia» en torno a las
vacunas 378 . Mientras tanto, a muchos padres de niños
autistas no les importaban las irregularidades que se
habían encontrado en el trabajo de Wakefield. Siguió dando
conferencias sobre el autismo en todo el mundo y era
tratado como un héroe. Cuando The Lancet finalmente
retractó su artículo (en 2010) y Wakefield fue despojado de
la licencia para ejercer la medicina en Gran Bretaña, las
teorías de la conspiración empezaron a desbocarse. ¿Por
qué se había suprimido su trabajo? Padres enfadados
(incluyendo un buen número de famosos de Hollywood)
estaban organizándose y dispuestos a reaccionar frente a lo
que veían como un encubrimiento. Si el timerosal no era
peligroso, ¿por qué lo habían eliminado?
Entonces, en 2011, llegó la palabra definitiva: el trabajo
de Wakefield era un fraude. Además del grave conflicto de
intereses mencionado más arriba, Brian Deer (un periodista
de investigación que ya había desempeñado un papel
notable en las revelaciones de 2004), tuvo al fin la ocasión
de entrevistar a los padres de los pacientes de Wakefield y
examinar sus historiales médicos. Y lo que encontró fue
asombroso. «Ningún caso estaba libre de informes
erróneos o alteraciones» 379 . Wakefield había alterado los
historiales médicos de todos y cada uno de los niños del
estudio.
— Tres de los nueve niños que supuestamente padecían autismo regresivo no
tenían autismo diagnosticado en absoluto. Solo uno de los niños era
claramente autista regresivo.
— A pesar de que el artículo afirmaba que los doce niños eran «previamente
normales», a propósito de cinco se documentaban problemas
preexistentes de desarrollo.
— Se informaba de que algunos niños habían manifestado los primeros
síntomas en su comportamiento a los pocos días de recibir la triple vírica,
pero los historiales documentaban que ya habían comenzado algunos
meses antes de la vacunación.
— Se informaba de que los padres de ocho de los niños culpaban a la triple
vírica, pero solo once familias hicieron esta acusación en el hospital. La
exclusión de tres acusaciones —todas ellas dando un tiempo suficiente de
meses para que se manifestaran los problemas— ayudó a crear la
apariencia de un vínculo temporal de catorce días.
— En la selección de los pacientes intervinieron activistas contrarios a la
triple vírica, y el estudio fue encargado y financiado con vistas a un
litigio 380 .

El British Medical Journal —quizá la segunda publicación


médica más prestigiosa del Reino Unido, después de The
Lancet— dio el paso sin precedentes de aceptar la
investigación de Deer como prueba definitiva de fraude y,
después de someterlo a la revisión por pares, publicó al
artículo junto con su propio editorial, que concluía que «la
clara evidencia de falsificación de datos debería ahora
acabar con este dañino pavor a las vacunas», y calificaba el
trabajo de Wakefield de «fraude elaborado» 381 . Concluía:

¿Quién ha perpetrado este fraude? No hay duda de


que fue Wakefield. ¿Es posible que, aunque cometiera
errores, no fuera deshonesto, que su incompetencia
fuera tal que no acertara a describir correctamente el
proyecto ni a informar adecuadamente de ninguno de
los doce casos de niños? No. Muchos pensamientos y
esfuerzos ha tenido que dedicar a esbozar un artículo
que alcanzara los resultados que quería: todas las
discrepancias iban en la misma dirección; los errores
eran flagrantes 382 .

Unos pocos meses más tarde, otro comentarista


calificaba el fraude de Wakefield como «el montaje médico
más dañino de los últimos cien años» 383 . Cuatro años
después, a comienzos de 2015, hubo un brote de sarampión
con más de un centenar de casos confirmados a lo largo de
catorce estados de Estados Unidos 384 .
Como podemos ver, el fraude científico es un asunto feo
y puede tener consecuencias a gran escala 385 . Sin
embargo, uno de los aspectos más interesantes de esta
historia es el enorme desdén de la comunidad científica
hacia el trabajo de Wakefield (yuxtapuesto,
desgraciadamente, a la confusión pública y la contumaz
ignorancia propagadas por los medios de comunicación),
antes de que se demostrara que era un fraude. ¿Por qué
ocurrió esto? Si el fraude tiene que ser intencionado,
¿cómo es que parece que la comunidad científica estaba de
acuerdo antes de haber visto las pruebas en que Wakefield
había manipulado los datos? La respuesta es que aunque
quizás el fraude sea la forma más grave de mala conducta
intencionada, no es la única fullería posible. Una vez que
salió a la luz que Wakefield tenía un enorme conflicto de
intereses no revelado, sus intenciones se volvieron
sospechosas. En cualquier caso, todavía no se había
probado que los intereses financieros de Wakefield
hubieran afectado a su trabajo científico: cuando hay
mucho humo, pocos en la comunidad científica podrían
dejar de apreciar que hay un gran fuego detrás. Dado que
Wakefield había abandonado ya un principio básico de la
práctica científica —que los posibles conflictos de intereses
deben ser comunicados de antemano—, muchos
concluyeron que no merecía el beneficio de la duda. Y
tenían razón. Sin embargo, cabe lamentar que la
autocorrección de la comunidad científica en este caso no
haya llegado aún a todos los rincones 386 .

EN UN TONO MÁS POSITIVO

Me gustaría terminar con una nota más luminosa. En


este capítulo hemos conocido el que quizá sea el rostro más
desagradable de la ciencia. Pero ¿qué debe hacer un
científico si su teoría no está funcionando, cuando las
presiones derivadas de los plazos y la promoción
profesional son acuciantes y los datos empiezan a no ser lo
que se esperaba?
Unos años antes de que Andrew Wakefield publicara su
artículo, un astrónomo británico poco conocido, Andrew
Lyne, compareció ante cientos de colegas en el Congreso
de la Sociedad Americana de Astronomía, celebrado en
Atlanta, Georgia. Le habían invitado a dar una conferencia
en torno al impresionante descubrimiento que había
realizado de un planeta que orbitaba alrededor de un
pulsar. ¿Cómo era posible aquello? Un pulsar es el
resultado de una estrella que ha explotado en una
supernova, lo que teóricamente debería haber destruido
todo cuanto se hallara incluso próximo a su órbita. Y, sin
embargo, después de comprobar nuevamente sus
resultados, Lyne comprobó que el planeta seguía allí, por lo
que publicó un artículo en la prestigiosa revista Nature.
Pero ahora se planteaba un problema. Unas pocas semanas
antes de su viaje a Atlanta, Lyne descubrió un error crucial
en uno de sus cálculos: no había tenido en cuenta el hecho
de que la órbita de la Tierra era elíptica en vez de circular.
Este era un error de estudiante de Física de primer año.
Cuando hizo la corrección, «el planeta desapareció». Pero
aquel día, de pie frente a sus colegas, Lyne no pretendió
excusarse. Le contó al auditorio lo que había encontrado y
luego explicó por qué había cometido un error, tras lo cual
sus colegas se pusieron en pie y le ovacionaron. Fue «la
cosa más honorable que haya visto en mi vida», dijo un
astrónomo que estuvo presente. «Un buen científico es
despiadadamente honesto consigo mismo, y eso era lo que
acabábamos de presenciar» 387 .
He ahí el verdadero espíritu de la actitud científica.

344 Aunque hay diferentes maneras de definirlo, el estándar federal para la


mala conducta en la investigación es la «fabricación, falsificación o plagio
intencionado en la propuesta, ejecución, o al revisar la investigación, o al
informar de los resultados de la investigación». Destaca especialmente la
declaración adicional de que «la mala conducta en la investigación no incluye
errores honestos ni diferencias de opinión». Véase:
<https://www.aps.org/policy/statements/upload/federalpolicy.pdf>. Esto se
ajusta a la política de la mayoría de las universidades. Para una historia
reflexiva del intento de una universidad de elaborar su propia definición de
acuerdo con las directrices federales, véase David Goodstein, On Fact and
Fraud: Cautionary Tales from the Front Lines of Science (Princeton, NJ,
Princeton University Press, 2010), 67. De particular importancia en el relato de
Goodstein es la sutil cuestión de por qué puede no ser bueno para una
universidad tener una definición demasiado amplia de las conductas
prohibidas, ni el agrupar el fraude con todas las demás formas de mala
conducta en la investigación. La política completa de Caltech se puede
encontrar en Goodstein, On Fact and Fraud, 136.

345 Véase el texto que acompaña al capítulo 2, n. 29.

346 Nótese que, como consecuencia de esta definición lógica muy precisa,
hemos definido no solo el fraude, sino también lo que no es fraude. Si no se han
fabricado o falsificado datos intencionadamente, entonces no se ha cometido
fraude, y si no se ha cometido fraude, entonces uno no ha fabricado o
falsificado datos intencionadamente.

347 Y, por supuesto, no se sigue de la tesis (3).

348 En algunos casos especiales probablemente se pudiera argumentar que el


p-hacking constituye fraude —por ejemplo, si se supiera de hecho que no existe
una correlación subyacente.

349 Naturalmente, podríamos cambiar la definición; ahora bien, véase


Goodstein, On Fact and Fraud en torno a los problemas de incluir «prácticas de
investigación cuestionables» en la definición de fraude.

350 Una vez más, algunos podrían ser fraude, dependiendo de las
circunstancias individuales (véase Trivers, «Fraud, Disclosure, and Degrees of
Freedom in Science», Psychology Today, 10 de mayo de 2012), y también está
la fascinante cuestión de si estas cosas pueden evolucionar hasta el fraude.

351 Goodstein fue vicerrector en Caltech y estuvo encargado de supervisar


todos los casos de mala conducta científica durante casi veinte años.

352 Goodstein, On Fact and Fraud, 2.

353 Es interesante notar que más adelante en su libro, Goodstein da cuenta de


lo que significa «autocorrección», que encaja perfectamente con mi concepción
de la actitud científica. Sostiene que la autocorrección no puede consistir en
que pretendamos que los investigadores individuales cuestionen la validez de
su propio trabajo. Más bien se trata de algo parecido a los métodos de
escrutinio empírico que son aplicados por la «comunidad científica en su
conjunto», Goodstein, On Fact and Fraud, 79.

354 «Rara vez, tal vez nunca, es el propósito de quienes cometen fraudes
inyectar falsedades en el cuerpo de la ciencia. Casi siempre se creen que lo que
están inyectando en el registro científico es una verdad [...] pero sin pasar por
todo el proceso que exige el método científico», Goodstein, On Fact and Fraud,
2.

355 Aunque algunos filósofos de la ciencia ha abordado recientemente la


cuestión del fraude, la mayoría aún no se ha graduado la visión estereotipada
de que todo fraude puede caracterizarse como «la introducción a sabiendas de
falsedades en la corriente de información de la ciencia». Véase Liam Bright,
«On Fraud», Philosophical Studies 174, núm. 2 (2017), 291-310.

356 Véase especialmente Teeteto, 200d-201c y Menón, 86b-c.

357 En su libro The Folly of Fools (Nueva York, Basic Books, 2011), Robert
Trivers ofrece una estimulante discusión sobre el autoengaño, en la que
propone que quizás aprendamos a engañarnos a nosotros mismos porque eso
nos hace más capaces de engañar a otros.

358 Menón, 98b.

359 Tal vez les preocupe el litigio o teman que empañe la reputación de la
escuela en la que trabajaba el impostor. Goodstein sostiene que una dificultad
creada por esto es que en los casos en los que alguien es exonerado reciben
mucha prensa, pero en los casos de fraude real existe una presión inapropiada
para mantener la confidencialidad y proteger a los culpables (On Fact and
Fraud, xii). (Si es cierto, uno se pregunta si esto no transgrede el espíritu de la
ciencia y hace más difícil trazar una línea entre los errores y la mala conducta.)
Goodstein aporta, sin embargo, un caso reciente en Stanford en el que los
responsables de la escuela se comprometieron a hacer públicos los resultados
de una investigación antes incluso de que estuviera acabada (99).

360 En un ejemplo remarcable, el científico Dong-Pyou Han, de la Universidad


Estatal de Iowa, fue condenado a más de cuatro años de prisión por simular
una investigación sobre el sida. Ver Tony Leys, «Ex-Scientist sentenced to
Prison for Academic Fraud» [«Excientífico condenado a prisión por fraude
académico»], USA Today, 1 de julio de 2015,
<http://www.usatoday.com/story/news/nation/2015/07/01/ex-scientist-
sentenced-prison-academic-fraud/29596271/>. Ver Choe Sang-Hun, «Disgraced
Cloning Expert Convicted in South Korea», New York Times, 26 de octubre de
2009, <https://www.nytimes.com/2009/10/27/world/asia/27clone.html >.

361 No obstante, esto puede ocurrir. Consideremos el caso de Thereza


Imanishi-Kari, que fue investigada por el gobierno federal y acusada de
falsificar datos de laboratorio; el caso se derrumbó y fue exonerada. «The
Fraud Case That Evaporated», New York Times (opinión), 25 de junio de 1996,
<http://www.nytimes.com/1996/06/25/opinion/the-fraud-case-that-
evaporated.html>.

362 Ver Carolyn e Y. Johnson, «Ex-Harvard Scientist Fabricated, Manipulated


Data, Report Says», Boston Globe, 5 de septiembre de 2012,
<https://www.bostonglobe.com/news/science/2012/09/05/harvard-professor-
who-resigned-fabricated-manipulated-data-
says/6gDVkzPNxv1ZDkh4wVnKhO/story.html>.

363 Goodstein, On Fact and Fraud, 65.

364 Ibíd., 60-61.


365 Tengamos en cuenta otra vez el trabajo de Trivers sobre la posible
conexión entre el engaño y el autoengaño.

366 Park, Voodoo Science: The Road from Foolishness to Fraud (Oxford, Oxford
University Press, 2000), 10.

367 Goodstein, On Fact and Fraud, 129.

368 Ibíd., 70.

369 ¿Hay aquí una posible analogía entre el fraude y la pseudociencia? ¿Es el
autoengaño lo que condenamos en los pseudocientíficos? Véase el texto que
acompaña al capítulo 5, n. 53, en el que afirmo que la diferencia entre las
técnicas que usan los científicos y las que usan los pseudocientíficos es solo de
grado.

370 Por supuesto, podría depender de por qué los datos no se custodiaron
correctamente. La eliminación de las series originales de datos es una práctica
nefasta, pero si se hace para encubrir una investigación en torno a
irregularidades que pudieron haberse cometido, puede ser un caso de fraude.

371 Goodstein, On Fact and Fraud, xiii-xiv.

372 Alguien podría argumentar, sin embargo, que este tipo de preocupación en
torno a la «intención» podría tener el efecto contrario y volver la distinción
entre la buena y la mala ciencia todavía más impenetrable. Ahora bien, ¿no es
eso ya lo que se hace en casos de fraude? A veces la intención tiene que
inferirse de la acción, pero eso no sirve como excusa para centrarse solo en un
indicador, como la retractación de un artículo.

373 Seth Mnookin, The Panic Virus: The True Story Behind the Vaccine-Autism
Controversy (Nueva York, Simon and Schuster, 2011), 109.

374 Michael Specter, Denialism (Nueva York, Penguin, 2009), 71.

375 Mnookin, Panic Virus, 236.

376 Ibíd., 305.

377 Ibíd., 19.

378 Algunos han hecho correr la voz: Jennifer Steinhauser, «Rising Public
Health Risk Seen as More Parents Reject Vaccines», New York Times, 21 de
marzo de 2008.

379 Brian Deer, «How the Case against the MMR Vaccine Was Fixed», British
Medical Journal 342 (2011), c5347.

380 Deer, «How the Case against the MMR Vaccine Was Fixed», c5347.
381 F. Godlee et al., «Wakefield Article Linking MMR Vaccine and Autism Was
Fraudulent», British Medical Journal 342 (2011): c7452.

382 Ibíd., 2.

383 D. K. Flaherty, «The Vaccine-Autism Connection: A Public Health Crisis


Caused by Unethical Medical Practices and Fraudulent Science», Annals of
Pharmacotherapy 45, 10 (2011): 1302-1304.

384 Mark Berman, «More Than 100 Confirmed Cases of Measles in the U.S.,
CDC Says», Washington Post, 2 de febrero de 2015.

385 Todos los coautores afirmaron no tener conocimiento del profundo


conflicto de intereses de Wakefield ni de la manipulación de datos, aunque dos
de ellos fueron posteriormente investigados por el General Medical Council
británico, y uno declarado culpable de mala conducta.

386 Esto ha sido exacerbado por la continua publicidad que ha recibido el


desacreditado trabajo de Wakefield gracias a figuras públicas como Robert F.
Kennedy Jr., Thimerosal: Let the Science Speak: The Evidence Supporting the
Immediate Removal of Mercury —a Known Neurotoxin— from Vaccines (Nueva
York, Skyhorse Publishing, 2015), y la decisión del actor Robert de Niro en
2016 de proyectar (y luego retirar) la película Vaxxed: From Cover-Up to
Conspiracy en el festival de cine de Tribeca (Nueva York). De Niro dijo más
tarde que lamentaba haber retirado la película.

387 Michael D. Lemonick, «When Scientists Screw Up», Science, 15 de octubre


de 2002.
CAPÍTULO 8

La ciencia, a un lado: negacionistas,


pseudocientíficos y otros charlatanes

Pasamos ahora del fraude —que consiste en aceptar las


normas de la ciencia y luego transgredirlas
intencionadamente— al caso de los negacionistas y
pseudocientíficos, que pueden malinterpretar o no
preocuparse en absoluto por la evidencia científica, o no lo
suficiente como para modificar o abandonar sus creencias
ideológicas.
A muchos científicos les parece inconcebible que en los
últimos años sus conclusiones en torno a asuntos empíricos
sean cuestionadas por personas que se sienten libres de no
basarse para ello más que en el instinto o la ideología. Esto
es irracional y peligroso. El negacionismo en torno a la
evolución, el cambio climático y las vacunas ha sido
estimulado sin más motivación que el interés económico,
religioso y político en contra de ciertos resultados
científicos. En vez de limitarse a desear que determinados
hallazgos científicos terminen por no ser ciertos, estos
grupos han llevado a cabo una campaña de relaciones
públicas que ha hecho grandes progresos en su intento de
socavar la compresión y el respeto a la ciencia. En parte,
esta estrategia ha consistido en tratar de «desafiar la
ciencia» mediante la financiación y promoción de
investigaciones cuestionables —casi nunca sometidas a
revisión por pares— con el fin de anegar los canales de
noticias de tal manera que se genere una apariencia de
controversia científica donde no existe ninguna. El
resultado ha sido un esfuerzo peligrosamente exitoso
encaminado a subvertir la credibilidad de la ciencia.
Como vimos en el último capítulo, a veces los propios
científicos traicionan la actitud científica. Sin embargo, una
amenaza proporcionalmente mayor puede venir de quienes
están fuera de la ciencia, de quienes ya sea de manera
culpable o no deliberada no aciertan a comprender el
proceso de la ciencia, que están dispuestos a negar
resultados científicos que no cuadran con sus creencias
ideológicas, que solo fingen investigar científicamente con
el fin de promover sus teorías preferidas, que con cinismo
explotan la ignorancia de los demás para su propio
beneficio o que se engañan a sí mismos por ser demasiado
crédulos. Es importante darse cuenta, sin embargo, de que
los errores pueden cometerlos tanto quienes mienten a los
demás (hacen ciencia mendaz o de manera mendaz
rechazan la ciencia) como quienes se creen esas mentiras
(que no se han preocupado de formarse a sí mismos en la
habilidad necesaria para adoptar creencias bien
fundamentadas). Conscientes o no de su traición a las
buenas prácticas científicas, en una época en las que los
negacionistas del cambio climático usan Facefook o Twitter
como parte de su rutina para expandir su ignara ideología y
los teóricos del diseño inteligente tienen una página web en
la que ponen en común sus dudas basadas en la evidencia
parcial en torno a la evolución, todos somos responsables
de cualquier distancia entre nuestra confianza en los frutos
de la ciencia y nuestra concepción a veces tristemente
errada de cómo se forman las creencias científicas.
Las dos formas más perniciosas que puede revestir la
traición a los principios científicos entre quienes están
fuera de la ciencia son el negacionismo y la pseudociencia.
Aunque ambas serán abordadas más detenidamente en este
capítulo, definamos ahora el negacionismo como el rechazo
a adoptar como creencias teorías científicas bien
fundamentadas, aunque la evidencia en la que se apoyan
sea abrumadora 388 . La razón más común que lleva al
negacionismo es cuando una teoría científica entra en
conflicto con las creencias ideológicas de alguien (por
ejemplo, que el cambio climático es un timo urdido por los
progres) que de esta manera rehúsa atender a la amarga
evidencia. La pseudociencia, en cambio, es cuado alguien
trata de envolverse en el manto de la ciencia para
promover una teoría alternativa en torno a una cuestión
empírica (como el diseño inteligente), pero rechaza
cambiar sus creencias incluso a la luz de una evidencia
capaz de refutarlas o de la crítica metodológica procedente
de aquellos que no creían ya en esa teoría. Como veremos,
es difícil trazar una línea clara entre estas prácticas, puesto
que sus tácticas se solapan frecuentemente, pero están
unidas en su repudio a la actitud científica.
Todo el mundo se juega algo en la justificación de la
ciencia. Si nuestras creencias son manipuladas por quienes
buscan engañarnos aprovechando que prácticamente todos
nosotros tenemos tendencia a sesgos cognitivos que
pueden llevarnos a una bola de nieve de credulidad y
autoengaño, entonces las consecuencias para la
credibilidad de la ciencia serán enormes. Podemos
sentirnos justificados al creer lo que queremos creer en
torno a cuestiones empíricas (juzgando erróneamente que
si los científicos todavía están investigando, es que no hay
consenso), pero si obramos así, entonces ¿a quién
habremos de culpar sino a nosotros mismos en caso de que
el planeta sea casi inhabitable en cincuenta años? Por
supuesto, esto es una simplificación excesiva de un
conjunto tremendamente complejo de circunstancias
psicológicas, puesto que hay múltiples matices en el
conocimiento que se tiene, el sesgo, la intención y la
motivación, matices que afectan a la naturaleza de la
creencia. Como magistralmente demuestra Robert Trivers
en su obra previamente citada The Folly of Fools, la línea
entre el engaño y el autoengaño puede ser delgada. Así, al
igual que los investigadores científicos a veces pueden caer
en la ciencia patológica debido a sus propias ilusiones,
quienes se embarcan en el negacionismo o la pseudociencia
pueden creer que en realidad están ajustándose a los
estándares más exigentes de la actitud científica.
Pero no es así 389 , y tampoco en el caso de quienes sin
crítica alguna aceptan estos dogmas sin molestarse
siquiera en mirar por encima del muro de la ignorancia
deliberada los resultados de la buena ciencia. En este
capítulo exploraré los errores tanto de los mentirosos como
de los excesivamente crédulos. Como he dicho antes, en un
día y momento en los que los resultados científicos están al
alcance de la mano, todos somos algo responsables de la
justificación detrás de nuestras creencias empíricas. Y, en
cuanto concierne a la ciencia, en cualquier caso se trata de
un problema. Haya alguien encendido el fuego del
negacionismo en torno al cambio climático o simplemente
se haya detenido a calentarse las manos, sigue siendo el
repudio a un valor fundamental de la ciencia 390 .
En el capítulo anterior, exploramos lo que ocurre cuando
un investigador científico traiciona la actitud científica. En
este capítulo, consideraremos lo que ocurre cuando
aquellos que no están haciendo ciencia —sea cual sea el
motivo— diseminan sus convicciones en una comunidad y
arrojan dudas sobre la credibilidad de creencias científicas
bien fundamentadas.

IDEOLOGÍA E IGNORANCIA DELIBERADA


Presumiblemente, los científicos tienen un compromiso
con la actitud científica, lo que les influirá en cómo
formulan y cambian sus creencias sobre la base de la
evidencia empírica. Ahora bien, ¿qué hay de los demás?
Afortunadamente, muchas personas respetan la ciencia.
Aunque no practiquen ellos mismos la ciencia, es adecuado
decir que la mayoría de la gente respeta la idea de que las
creencias científicas son especialmente fiables y útiles por
cómo han sido investigadas 391 . Para otros, su lealtad
primordial es hacia algún tipo de ideología. Sus creencias
sobre asuntos empíricos parecen basarse en su encaje no
con la evidencia, sino con sus convicciones ideológicas
políticas, religiosas o ideológicas de cualquier otro tipo.
Cuando se produce el conflicto —y las conclusiones de la
ciencia pisotean algún tema sagrado del que la gente
piensa que ya conoce la respuesta (por ejemplo, si la
oración acelera la curación o si la percepción
extrasensorial es posible)—, el resultado puede ser el
rechazo a la actitud científica.
Siempre ha habido una tendencia humana a creer lo que
queremos creer. La superstición y la ignorancia deliberada
no son novedosas en la condición humana. Lo que sí es una
novedad de los últimos años es hasta qué punto la gente
puede encontrar un repertorio a medida de «evidencias» a
favor de sus teorías de la conspiración, pseudocientíficas,
negacionistas, o de otras creencias abiertamente
irracionales en una comunidad de mentes afines en
Internet. El efecto que el apoyo del grupo puede tener en el
endurecimiento de las (falsas) convicciones de alguien es
bien conocido en psicología social desde hace más de
sesenta años 392 . En estos tiempos de coberturas mediáticas
facciosas las veinticuatro horas del día siete días a la
semana, por no mencionar los grupos de Facebook, las
salas de chat y los canales personales de noticias, es cada
vez más fácil para quienes así lo desean vivir en «silos
informativos», donde rara vez tendrán que enfrentarse a
hechos inconvenientes que entren en conflicto con sus
creencias preferidas. En esta era de «paparruchas» [fake
news], la gente puede permitirse no solo evitar los puntos
de vista que se opongan a los suyos, sino casi vivir en una
realidad alternativa en la que sus opiniones son reforzadas
y las contrarias, socavadas. Así, las ideologías políticas y
religiosas —incluso cuando pisan asuntos empíricos— están
cada vez más «libres de hechos» y reflejan el deseo
obstinado de moldear la realidad de tal manera que se
ajusten e ellas.
Decir que esto es un desarrollo peligroso para la ciencia
sería quedarse corto. De hecho, es tan peligroso que he
escrito un libro entero —Respecting Truth: Willful
Ignorance in the Internet Age— en torno a cómo estas
fuerzas han conspirado en los últimos años para crear un
clima de creciente falta de respeto al concepto de
verdad 393 . No repetiré aquí los argumentos que expresé
allí, pero me gustaría perfilar sus implicaciones para el
debate en torno a lo distintivo de la ciencia.
Un asunto importante aquí es el papel del consenso de
grupo. Ya hemos visto que en ciencia, el consenso se
alcanza únicamente al cabo de una rigurosa investigación y
comparación con la evidencia. El escrutinio de la
comunidad desempeña un papel fundamental en la
eliminación de errores individuales. En ciencia, miramos a
grupos no en busca del reforzamiento de nuestras
creencias previas, sino de crítica. Con las adhesiones
ideológicas, sin embargo, uno no tiene muchas ganas de
hacer lo mismo y la gente se vuelve hacia el grupo en busca
de respaldo 394 . Ahora bien, esto alimenta directamente el
problema del «sesgo de confirmación» (el cual, como
hemos visto, constituye una de las formas más violentas de
sesgo cognitivo, que nos lleva a seleccionar únicamente la
evidencia que confirma nuestras creencias, mientras que
dejamos de lado la que las contradice). Por tanto, en
contraste con cómo los científicos usan los grupos en tanto
forma de control de errores, los charlatanes los usan para
reforzar los prejuicios.

LA MATRIZ DE SAGAN

En su influyente obra The Demon-Haunted World:


Science as a Candle in the Dark 395 , Carl Sagan hace la
afirmación de que la ciencia puede distinguirse de la
pseudociencia y otras artimañas mediante dos sencillos
principios: la apertura y el escepticismo. Como Sagan
señala:

El corazón de la ciencia es un equilibrio esencial


entre dos actitudes aparentemente contradictorias:
una apertura a nuevas ideas, no importa cuán
extrañas o contrarias a la intuición, y el más
despiadado escrutinio escéptico de todas las ideas,
viejas y nuevas 396 .

Con «nuevas ideas», Sagan quiere decir que los


científicos no deben cerrarse al poder de los desafíos
contra su vieja manera de pensar. Si a los científicos se les
exige que basen sus creencias en la evidencia, entonces
deben estar abiertos a la posibilidad de que nueva
evidencia hasta entonces desconocida cambie su manera de
pensar. Ahora bien, prosigue, la apertura a nuevas ideas no
debe ser tal que desaparezca todo filtro. Los científicos no
pueden ser crédulos y deben reconocer que «la gran
mayoría de las ideas son simplemente erróneas» 397 . Así,
estos dos principios deben ser adoptados simultáneamente
por más que estén en tensión. Al «experimentar como
árbitro», un buen científico es tanto abierto como
escéptico. Por medio de un proceso crítico, podemos
separar el trigo de la paja. Sagan concluye: «Algunas ideas
realmente son mejores que otras» 398 .
Alguien podría quejarse de que esta explicación es
demasiado simple e, indudablemente, lo es, pero creo que
captura una idea esencial que alienta tras el éxito de la
ciencia. Quizá la medida de hasta dónde llega la
perspicacia de Sagan nos la pueda proporcionar el examen
de sus implicaciones para aquellas áreas de investigación
que no son abiertas o no son escépticas. Cavemos un poco
más hondo en el negacionismo y la pseudociencia. Aunque
no se ocupa del negacionismo como tal, Sagan se explaya
con la pseudociencia propiciando una interesante
comparación. ¿En qué se diferencian el negacionismo y la
pseudociencia?
Sagan dice que los pseudocientíficos son crédulos, y creo
que muchos científicos no tendrían más remedio que
discrepar 399 . Si alguien se dedica a la sanación con
cristales, la astrología, la levitación, la percepción
extrasensorial, la radiestesia, la telequinesia, la
quiromancia, la curación por la fe y cosas así 400 , poco
apoyo va a recibir de la mayoría de los científicos. Sin
embargo, casi todos estos sistemas de creencias pretenden
arrogarse cierta credibilidad científica mediante la
búsqueda de apoyo en la evidencia. ¿Cuál es el problema?
No es que no estén «abiertos a nuevas ideas», sino que, en
cierto sentido, están «demasiado abiertos» 401 . Uno no
debería adoptar ninguna creencia sin aplicar un estándar
consistente basado en la evidencia. Seleccionar un puñado
de hechos favorables y dejar de lado otros no es una buena
práctica científica. Aquí Sagan cita favorablemente el
trabajo del CSICOP (siglas en inglés de Comité para la
Investigación Científica de lo Paranormal, ahora Comité
para la Investigación Escéptica), la sociedad profesional
escéptica que investiga creencias «extraordinarias». Si la
ciencia es realmente abierta, esas afirmaciones merecen
ser escuchadas 402 . Pero el problema es que en casi todos
los casos en los que verdaderos escépticos han investigado
esas afirmaciones extraordinarias, la evidencia no
apareció 403 . Se revelaron como pseudocientíficas no
porque fueran novedosas o fantasiosas, sino porque son
creídas sin evidencia suficiente. Esta forma de ver la
pseudociencia permite un contraste fascinante con el
negacionismo. Si bien, como se ha hecho notar, Sagan no
hace esta comparación, cabría preguntarse si aprobaríamos
la idea de que el problema del negacionismo no es que no
sea lo suficientemente escéptico, sino que no está lo
bastante abierto a nuevas ideas 404 . Cuando se está cerrado
a nuevas ideas —especialmente a la evidencia que pueda
desafiar las creencias ideológicas—, no se está siendo
científico. Como Sagan escribe, «si solo somos escépticos,
entonces ninguna idea nueva tendrá efecto en nosotros.
Nunca aprenderemos nada» 405 . Aunque preferiríamos
entender el escepticismo científico como algo mucho más
sofisticado de lo que Sagan ofrece aquí (pronto intentaré
que así sea), su noción apunta al menos a lo que puede
estar mal en el negacionismo. La actitud científica exige
tener en cuenta la evidencia porque puede cambiar nuestra
manera de pensar. Pero para los negacionistas no hay
evidencia alguna que parezca suficiente para cambiar de
opinión. Mediante la adopción de la actitud científica, la
ciencia dispone de un mecanismo para recuperarse de sus
errores, no así el negacionismo.
Así pues, ¿tienen el negacionismo y la pseudociencia más
puntos en común que diferencias? Diría que tienen algunas
semejanzas (y que sus respectivas demografías
probablemente se solapen), pero que abordar la cuestión
de sus pretendidas diferencias es esclarecedor. Más
adelante en este capítulo exploraré estas nociones en
mayor profundidad, pero por ahora, como punto de partida,
ofrezcamos una matriz de 2 x 2 de lo que podría
considerarse un primer corte a la manera de Sagan sobre
el tema 406 .

ESCÉPTICO CRÉDULO

Abierto Ciencia Pseudociencia

Cerrado Negacionismo Teorías de la conspiración

Nótese la posición que ocupan las teorías de la


conspiración. Quienes las defienden parecen cerrados y
crédulos. ¿Cómo es eso posible? Consideremos el ejemplo
de alguien que sostiene que la llegada del hombre a la
Luna fue un montaje de la NASA. ¿Se trata de una teoría
cerrada? Parece que sí. Ninguna prueba, ya sean las rocas
lunares, las grabaciones o cualquier otra cosa, bastará para
convencer a los incrédulos. Esto, debería hacerse notar, no
es verdadero escepticismo, sino una especie de inclinación
selectiva a tomar en cuenta únicamente la evidencia que
encaja con ciertas hipótesis. La evidencia cuenta, pero solo
Con relación a creencias previas. ¿Qué hay de la afirmación
de que quienes niegan el alunizaje son crédulos? Aquí el
estándar «escéptico» no se aplica en absoluto. Quien
piense que el Gobierno de Estados Unidos es capaz de
encubrir algo tan enorme como un falso alunizaje debe ser
alguien sumamente crédulo o tener una fe en la
competencia del Gobierno que desmiente toda la
experiencia de los últimos tiempos. El problema a este
respecto es que las creencias de alguien no están sujetas a
un escrutinio suficiente. Si una idea se ajusta a nociones
preconcebidas del sujeto, se deja sin examinar.
Con las teorías de la conspiración se nos presenta una
extraña mezcla de cierre y credulidad: la plena aceptación
de cualquier idea que sea consistente con la propia
ideología al lado del rechazo sin matices de cualquier otra
que no lo sea. Las teorías de la conspiración proporcionan
habitualmente una evidencia insuficiente para sobrevivir a
las críticas de un científico, pero no hay evidencia
refutatoria alguna que parezca suficiente como para
persuadir al teórico de la conspiración de que abandone
sus teorías predilectas. Esto es charlatanería de primer
orden —en ciertos sentidos, lo opuesto a la ciencia.
Siempre es divertido tratar de establecer distinciones
tan rotundas y rápidas como las que aparecen en esta
matriz. Diría, no obstante, que hay algo mal —o al menos
incompleto— en ella. En la práctica, los negacionistas no
son tan escépticos ni los pseudocientíficos tan abiertos.
Ambos parecen guiarse por una especie de rigidez
ideológica que soslaya la verdadera apertura o
escepticismo, y en cambio, parecen tener mucho más en
común con las teorías de la conspiración. Aunque la
perspicacia de Sagan es estimulante y puede utilizarse
como pantalla, el verdadero problema tanto con el
negacionismo como con la pseudociencia es la falta de
actitud científica.

LOS NEGACIONISTAS NO SON REALMENTE ESCÉPTICOS

De entre todas las clases de charlatanes, los


negacionistas son quizá los más difíciles de tratar, puesto
que muchos de ellos se entregan a la fantasía de que en
realidad están adoptando los estándares más exigentes del
rigor científico, a pesar de que rechazan los requisitos
científicos relacionados con la evidencia. En torno a
cuestiones como el cambio climático antropogénico, si el
VIH causa sida o las vacunas autismo 407 , en su mayor parte
los negacionistas no tienen otra ciencia que ofrecer;
simplemente no les gusta la ciencia que tenemos 408 .
Creerán lo que quieran creer y aguardarán a que la
evidencia se ponga a su altura. Como sus correligionarios
birthers (que no aceptan el certificado de nacimiento de
Barack Obama) y truthers (que piensan que Geoge W. Bush
participó el una conspiración en el 11S), buscarán
cualquier excusa para mostrar que sus creencias
débilmente fundamentadas encajan realmente con los
hechos mejor que el más obvio (y plausible) consenso
racional. Si bien no se preocupan de la evidencia empírica
en un sentido tradicional (no hay evidencia que les pueda
persuadir de abandonan sus creencias), parecen estar no
obstante entusiasmados al esgrimir cualquier evidencia —
no importa lo endeble que sea— a favor de sus creencias
predilectas 409 . Pero todo esto se basa en una comprensión
radicalmente errónea o un uso incorrecto del papel de la
fundamentación en la creencia científica. Como sabemos, la
creencia científica no requiere prueba o certeza, pero tiene
que poder sobrevivir al desafío de la evidencia relevante y
al escrutinio crítico de los pares. Pero ese es el problema.
Las hipótesis negacionistas parecen basadas en la
intuición, no en los hechos. Si una creencia no se basa en la
evidencia empírica, ¿cómo podemos convencer a alguien
para que la modifique apelando a la evidencia empírica? Es
casi como si los negacionistas estuvieran haciendo
afirmaciones basadas en la fe.
Como era de esperar, en su mayoría los negacionistas no
se ven como tales, y se enfurecen cuando se les llama así;
prefieren considerarse «escépticos» defensores de los más
exigentes estándares científicos, los cuales, en su opinión,
están en peligro por culpa de aquellos que se apresuran a
llegar a conclusiones científicas antes de contar con toda la
evidencia. El cambio climático no es «ciencia asentada»,
nos dirán. Los científicos progres de todo el mundo
dedicados al estudio del clima están exagerando los datos y
rechazan tomar en consideración otras hipótesis porque
quieren crear más trabajo para sí mismos y recibir más
dinero. Los negacionistas suelen afirmar que la mejor
evidencia disponible es fraudulenta o ha sido manipulada
por los mismos que están tratando de urdir el montaje. Esto
es lo que hace que tratar con negacionistas sea tan
frustrante. No se ven como ideólogos, sino como incrédulos
que no se dejarán embaucar por los malos razonamientos
científicos de otros, cuando de hecho son los únicos que
están sucumbiendo a teorías de la conspiración muy
improbables acerca de por qué la evidencia disponible es
insuficiente, y sus propias creencias están justificadas a
pesar de su falta de apoyo empírico. De aquí procede ese
sentimiento de justificación en el rechazo a cambiar sus
creencias. Al fin y al cabo, ¿no es eso lo que se supone que
hacen los buenos escépticos? En realidad, no.
El escepticismo desempeña un importante papel en la
ciencia. Cuando uno oye la palabra «escepticismo», puede
que se le vengan enseguida a la mente las afirmaciones
filosóficas de que uno no puede saber nada, de que el
conocimiento requiere certeza y de que, cuando no hay
certeza, toda creencia debería desaparecer. Llamemos a
esto escepticismo filosófico. Cuando nos ocupamos de
creencias no empíricas —como Descartes en sus
Meditaciones, donde aborda la creencia tanto sensible
como racional—, podemos tener una agradable discusión
en torno a si el falibilismo es una respuesta epistemológica
apropiada a la búsqueda más general de la certeza. Pero
por cuanto concierne a la ciencia, no necesitamos llevar las
cosas tan lejos, puesto que aquí nos importa la obtención
de justificación para las creencias empíricas.
¿Son los científicos escépticos? Creo que la mayoría lo
es, no en el sentido de que piensen que el conocimiento es
imposible, sino en tanto que deben depositar su confianza
en la duda como un crisol para poner a prueba sus propias
creencias antes de contrastarlas con los datos. Llamemos a
esto escepticismo científico 410 . La capacidad de ejercer la
crítica sobre un trabajo propio, de tal manera que sea
posible enmendarlo antes de mostrárselo a alguien más, es
una herramienta importante de la ciencia. Como hemos
visto, cuando un científico le propone una teoría al mundo,
hay una cosa cierta: no será tratada con gran delicadeza.
Por lo general, los científicos no se dedican a recopilar
únicamente los datos que respaldan su teoría, puesto que
nadie más lo hará. Como dijo Popper, la mejor manera de
aprender si una teoría es buena es someterla al mayor
escrutinio crítico posible para ver si tiene fallos.
Hay un sentimiento de escepticismo hondamente
arraigado en el trabajo científico. Lo que distingue a los
científicos, sin embargo, es que, a diferencia de los
filósofos, no se limitan a la razón; son capaces de poner a
prueba sus teorías a la luz de la evidencia empírica 411 . Los
científicos abrazan el escepticismo tanto reteniendo la
creencia en una teoría mientras no haya sido puesta a
prueba como tratando de adelantarse a cualquier
deficiencia de su metodología. Según hemos visto, la duda
por sí sola no basta cuando se realiza una investigación
empírica; uno también tiene que permanecer abierto a
nuevas ideas. Pero la duda es un comienzo. Al dudar, uno se
asegura de que cualesquiera nuevas ideas pasen en primer
lugar la prueba de nuestras facultades críticas.
¿Qué pasa con los científicos cuyo escepticismo les lleva
a rechazar una teoría ampliamente respaldada —quizá
porque piensen (o esperan) que hay una hipótesis
alternativa que podría reemplazarla— pero sin evidencia
empírica detrás de la idea de que la teoría actual es falsa o
de que la suya es verdadera? En un sentido importante,
dejan de ser científicos. No podemos valorar la verdad o la
probabilidad de una teoría científica únicamente sobre la
base de si «parece» correcta o encaja con nuestras
intuiciones o preconcepciones ideológicas. Desear que algo
sea verdad no es aceptable en ciencia. Nuestra teoría debe
ser sometida a prueba 412 .
Y es por eso por lo que creo que los negacionistas no
pueden llamarse a sí mismos escépticos en ningún sentido
adecuado de la palabra. El escepticismo filosófico es dudar
de todo —proceda de la fe, la razón, la evidencia sensible o
la intuición— porque no podemos tener la certeza de que es
verdadero. El escepticismo científico es retener la creencia
sobre cuestiones empíricas porque la evidencia no nos
permite cumplir con los exigentes estándares de
justificación habituales en la ciencia. En contraste con esto,
el negacionismo es rechazar creer algo —incluso frente a lo
que la mayoría de los demás consideraría evidencia
convincente— porque no queremos que sea verdadero. Los
negacionistas pueden usar la duda, pero solo
selectivamente. Los negacionistas tienen bastante claro lo
que esperan que sea verdadero y pueden llegar a comprar
razones para creerlo. Cuando alguien está en la agonía de
la negación, puede asemejarse mucho a un escéptico.
Alguien puede preguntarse cómo es posible que otros sean
tan crédulos al pensar que algo como el cambio climático
es «verdadero» antes de conocer todos los datos. Pero
tanta mojigatería a propósito de una creencia particular
que va más allá de la salvaguarda de los estándares
consistentes de evidencia que son el sello distintivo de la
ciencia debería suponer una señal de alarma.
Como tan elocuentemente demuestra Daniel Kahneman
en su libro Thinking Fast and Slow, la mente humana está
conectada con todo tipo de sesgos cognitivos que pueden
ayudarnos a racionalizar nuestras creencias predilectas 413 .
¿Son estos sesgos inconscientes tal vez la base del
negacionismo incluso frente a una evidencia abrumadora?
Esta afirmación tiene a su favor un buen respaldo
empírico 414 . Además, no se puede pasar por alto que el
fenómeno de los «silos de noticias» al que nos referimos
anteriormente puede hacer que el problema se exacerbe al
proporcionarles a los negacionistas un sentimiento de
apoyo comunitario a sus creencias periféricas. No obstante,
esto abre la puerta a un tipo de credulidad que es anatema
para el verdadero pensamiento escéptico.
De hecho, el negacionismo parece tener mucho más en
común con las teorías de la conspiración que con el
escepticismo. ¿Cuántas veces hemos oído a un teórico de la
conspiración proclamar que todavía no hemos alcanzado un
grado lo bastante alto de evidencia como para creer un
hecho bien documentado (como que las vacunas no causan
autismo) y acto seguido mostrar inmediatamente una
credulidad absoluta en cuanto a que las correlaciones más
improbables son verdaderas (como que los CDC [Centros
para el Control y la Prevención de Enfermedades] pagaron
al Instituto de Medicina para suprimir los datos sobre el
timerosal)? Esto se ajusta perfectamente al patrón
negacionista: tener estándares de prueba imposibles de
cumplir para las cosas que no se quieren creer y otros de
aceptación sumamente bajos para aquello que favorece la
propia ideología. ¿Por qué ocurre esto? Ocurre porque, a
diferencia de los escépticos, las creencias de los
negacionistas no tienen en cuenta la evidencia en primer
lugar; no tienen actitud científica. El doble rasero hacia la
evidencia se consiente porque sirve al propósito de los
negacionistas. De lo que más se preocupan es de proteger
sus creencias. He ahí la razón por la que captamos el
engaño a los estándares científicos de la evidencia, incluso
cuando las cuestiones empíricas están bajo discusión.
La matriz que he elaborado a partir del trabajo de Sagan
parece, por tanto, errónea en tres importantes sentidos en
cuanto concierne al negacionismo 415 . En primer lugar,
parece erróneo clasificar a los negacionistas como
escépticos. Pueden usar la evidencia de manera selectiva y
abalanzarse sobre los agujeros más insignificantes de la
teoría de otra persona, pero esto no es porque estén siendo
rigurosos; los criterios que se usan aquí son ideológicos, no
basados en la evidencia. Ser selectivo de manera sesgada
no es lo mismo que ser escéptico. De hecho, tomando en
consideración la mayoría de las creencias que los
negacionistas anteponen a las científicas, uno se ve
arrojado a la conclusión de que son bastante crédulos 416 .
En segundo lugar, también parece erróneo decir que los
negacionistas están cerrados a nuevas ideas. Como
veremos con el ejemplo del cambio climático, los
negacionistas están plenamente receptivos a nuevas ideas
—e incluso a la evidencia empírica— cuando van a favor de
las creencias que ya han adoptado. Finalmente, puede
haber un error en el contraste de Sagan entre el
escepticismo y la apertura. Sagan argumenta que estas dos
nociones deben estar equilibradas en el razonamiento
científico, lo que implica que de alguna manera están en
conflicto. No obstante, ¿lo están? En Nonsense on Stilts,
Massimo Pigliucci observa que

ser escéptico significa albergar reservas razonables


acerca de ciertas afirmaciones. [...] Significa querer
más evidencia antes de conceder el asentimiento.
Más importante aún: significa mantener una actitud
de apertura, calibrar las propias creencias según la
evidencia disponible 417 .

Creo que esta es una explicación adecuada de la


naturaleza del escepticismo científico. ¿Cómo puede uno
ser lo bastante abierto de mente como para dejar en
suspenso las propias creencias? El escepticismo no tiene
nada que ver con la cerrazón; tiene que ver con obligarse a
uno mismo a permanecer abierto a la posibilidad de que lo
que parece verdadero no lo sea realmente. La ciencia es
implacablemente crítica, pero esto se debe a que, al
margen de lo buena que sea la evidencia de la que alguien
disponga, una teoría mejor puede estar a la espera en el
horizonte.

NEGACIONISMO EN ACCIÓN: EL CAMBIO CLIMÁTICO

Quizás el mejor ejemplo de negacionismo científico de


los últimos años lo constituya el cambio climático. La teoría
de que nuestro planeta se está calentando progresivamente
debido a la liberación de gases de efecto invernadero
causada por el consumo de combustibles fósiles está
ampliamente respaldada por la evidencia científica 418 . Sin
embargo, la confusión sigue siendo grande y han surgido
resistencias públicas, todo ello a consecuencia de diversos
intereses económicos, políticos y mediáticos que lo han
convertido en un asunto partidista. La sórdida historia de
cómo aquellos con intereses en los combustibles fósiles
fueron capaces de sacar partido de las debilidades del
razonamiento humano mediante la «fabricación de dudas»
donde no había ninguna —sustituyendo el rigor científico
por las relaciones públicas— atestigua de manera
escalofriante la vulnerabilidad de la ciencia. El mejor libro
sobre esto es The Merchants of Doubt de Naomi Oreskes y
Erik Conway 419 . En mi propio Respecting Truth, me interno
en una prolija discusión acerca de las repercusiones
epistemológicas que resultan de la confusión pública no
solo acerca de si el calentamiento global es verdadero, sino
también de si la vasta mayoría de los científicos cree que es
verdadero (como así es) 420 .
Parte de la retórica más intelectualmente irresponsable
procede de políticos que han tratado de poner en
entredicho la reputación de científicos calificando el
cambio climático de fraude 421 . A veces uno se pregunta si
realmente se lo creen o si simplemente están «pagando un
delirante impuesto» por tratar de ser elegidos en un
ambiente en el que un aterrador porcentaje del público se
toma en serio lo que dicen; pero en cualquier caso, este es
un ciclo vergonzoso de refuerzo mutuo: cuantos más
políticos mienten, más se reflejan sus mentiras en la
opinión pública.
Uno de los ejemplos más lamentables es el del senador
de Estados Unidos Ted Cruz. En un acto de campaña en
agosto de 2015 organizado por los hermanos Koch, Cruz
dijo lo siguiente:

Si miramos a los datos de los satélites obtenidos


durante los últimos dieciocho años, el calentamiento
registrado es nulo. Ahora este es un problema para
las teorías de los alarmistas del calentamiento global.
Los modelos informáticos muestran un calentamiento
masivo que, de acuerdo con los satélites, no está
ocurriendo. Hemos descubierto que la NOAA (siglas
de National Oceanic and Atmospheric Administration)
está amañando los datos 422 .

¿Cuál es el error de esta afirmación? Bien, en primer


lugar, no es cierta. La idea de un hiato en el «calentamiento
global», que ha sido tenida en cuenta durante años, pero ha
sido recientemente refutada por Thomas Karl, director de
los centros nacionales del NOAA para la información
medioambiental, en un artículo publicado en Science en
junio de 2015 423 . Para darle a Cruz el beneficio de la duda,
quizás no conocía el artículo de Karl en el momento de su
discurso. Sin embargo, Cruz no se disculpó ni se retractó
posteriormente de su afirmación una vez que el artículo de
Karl fue difundido. De hecho, en diciembre de 2015, Cruz
acudió a la NPR (siglas de National Public Radio) para
someterse a una entrevista que resultó ser tan
esclarecedora de la mentalidad negacionista que vale la
pena reproducirla en toda su extensión:

Steven Inskeep (presentador): ¿Qué opina usted


de lo que se percibe como un consenso científico
generalizado en torno a la existencia de un cambio
climático causado por el hombre?
Ted Cruz: Bien, creo que la política pública debe
basarse en la ciencia y basarse en los datos. Soy hijo
de dos matemáticos y programadores informáticos y
científicos. En el debate en torno al calentamiento
global, demasiado frecuentemente muchos políticos
de Washington —y debido a esto un buen número de
científicos recibe cuantiosas subvenciones del
Gobierno— rechazan la ciencia y los datos y en lugar
de eso impulsan una ideología política. Usted y yo
somos lo suficientemente mayores como para
recordar cómo eran las cosas hace treinta o cuarenta
años, cuando, de acuerdo con los políticos de
izquierda y algunos científicos, el problema no era el
calentamiento, sino el enfriamiento global.
Inskeep: Hubo una época en la que todo el mundo
decía eso.
Cruz: Que estábamos afrontando la amenaza de
una inminente edad de hielo. Y la solución a este
problema era que necesitábamos que el Gobierno
ejerciera un control a gran escala de la economía, el
sector de la energía y todos los aspectos de nuestras
vidas. Pero entonces, como usted notará, los datos no
les apoyaban. A partir de aquel momento, muchos de
esos mismos políticos de izquierda y algunos de esos
mismos científicos empezaron a hablar de una nueva
teoría, el calentamiento global.
Inskeep: Se trata, entonces, de acuerdo con usted,
de una conspiración.
Cruz: No, estos son políticos de izquierdas que
quieren que el poder del Gobierno prime sobre la
economía, el sector de la energía y todos los aspectos
de nuestras vidas.
Inskeep: ¿Y casi todos los países del mundo se han
unido para ello?
Cruz: Permítame hacerle una pregunta, Steve.
¿Hay o no calentamiento global?
Inskeep: De acuerdo con los científicos, sin
ninguna duda.
Cruz: Se lo estoy preguntando a usted.
Inskeep: Sin duda.
Cruz: De acuerdo, en realidad está usted
equivocado. La evidencia científica no respalda el
calentamiento global. Durante los últimos dieciocho
años, los datos obtenidos por los satélites —tenemos
satélites que monitorizan la atmósfera—, los satélites
que miden la temperatura no muestran un
calentamiento significativo en absoluto.
Inskeep: Solo diré que la NASA analiza los mismos
datos de otra manera, pero continuemos.
Cruz: No, no es así. Puede usted ir y ver los datos.
Y, por cierto, escuchando esto —tenemos un buen
número de científicos que están testificando sobre los
datos—. Pero aquí está la cuestión clave. El cambio
climático es la teoría pseudocientífica perfecta para
los políticos que quieren que el Gobierno acumule
más poder. ¿Por qué? Porque es una teoría que no
puede ser refutada.
Inskeep: ¿Niega usted la ciencia en otros aspectos
ampliamente aceptados (por ejemplo, la evolución)?
Cruz: Cualquier buen científico cuestiona toda la
ciencia. Si me muestra a un científico que deja de
cuestionar la ciencia, le mostraré a alguien que no es
un científico. Y le diré, Steve, le diré por qué esto ha
cambiado. Échele una ojeada al mundo del
calentamiento global. ¿Qué tipo de lenguaje se usa?
Llaman a aquel que cuestiona la ciencia —que
meramente señala los datos de los satélites—, le
llaman, cito, «negador». Eso no es lenguaje científico.
Eso es lenguaje de la religión. Es lo mismo que
herético. Es un blasfemo, como si fuera teología. Pero
es cuestión de poder y dinero. Al final no es tan
complicado. Son políticos progresistas que quieren
que el Gobierno acumule más poder.
Inskeep: Usted sabe que sus críticos dirán que el
único afán de poder y dinero es el suyo. No tomemos
por ahora esa dirección. Pero quiero preguntarle por
esto. Quiero preguntarle por los hechos.
Cruz: Pero espere un segundo. ¿El poder de quién?
Detengámonos; quiero decir, si va usted a...
Inskeep: Industria de la energía, industria
petrolera, Texas...
Cruz: Si va usted a lanzar un ad hominem 424 .

Hay tantos fallos que pueden encontrarse aquí que es


casi un caso de manual de errores en el razonamiento: el
doble rasero de la evidencia, el sutil cambio de tema con
las teorías conspirativas, la mala comprensión deliberada
de lo que significa la «apertura» de la ciencia y el truco
retórico de patio de colegio de «¿sé que lo eres, pero qué
soy yo». Centrémonos, no obstante, en la única afirmación
empírica, que se repitió, en torno a la pausa de dieciocho
años en el calentamiento global. Resulta que las
estadísticas del Gobierno sobre cambio climático le van
bien a Cruz únicamente cuando muestran algo que le
gusta. En este caso, se trataba de un informe (erróneo) del
IPCC de 2013 (que desde entonces ha sido corregido) 425 .
Esto ocurre a veces en la ciencia: se cometen errores que
hay que corregir, pero eso no es que haya una
conspiración 426 . Por tanto, Cruz está usando un gráfico
incorrecto, desfasado y desacreditado. Pero también hay
otro problema: dieciocho años es un número raro. Nótese
que Cruz no dice «en los últimos veinte años» ni «en los
últimos diecisiete ni diecinueve». ¿Por qué es tan
específico? Aquí hay que volver la vista atrás a lo que
estaba ocurriendo exactamente dieciocho años antes de
2015: el Niño.
Encontramos aquí la afición de los negacionistas a
seleccionar la evidencia. A pesar del hecho de que en
catorce de los últimos quince años se han alcanzado las
temperaturas más altas del siglo, 1998 fue un año atípico
(por arriba) incluso entre ellos. El aumento de las
temperaturas globales durante aquel año fue asombroso. Si
pensamos en el gráfico que puede acompañar estos datos,
podemos imaginar que solo con elegir aquel año de
temperaturas excepcionalmente altas como punto de
partida, se lograría que 2015 pareciera relativamente más
fresco. Examinados fuera de contexto, los dieciocho años
de diferencia entre 1998 y 2015 parecen haber registrado
una temperatura global bastante plana. Pero no fue así.
Como sabemos ahora gracias al estudio de Karl, algunas de
esas temperaturas no solo eran erróneas, sino que, como
muchos científicos puede decirnos, debemos mirar al
gráfico completo —incluyendo los años entre medias—, lo
que demostrará que 1998 fue un año atípico y que ha
habido una tendencia estable en el calentamiento global
durante las últimas décadas 427 . Aunque se use la vieja
gráfica sin corregir, el razonamiento de Cruz es defectuoso.
La recogida selectiva de datos es un ultraje cardinal a la
actitud científica, pero una táctica común entre los
negacionistas. Pocos científicos cometerían ese error. En la
ciencia, las ideas deben ser sometidas a pruebas rigurosas
en contraste con la realidad sobre la base de estándares
previamente aceptados; uno no puede simplemente ir
escogiendo lo que más le conviene a medida que avanza.
Pero para un ideólogo como Ted Cruz (y, como queda claro,
para muchos que no están preparados para evitar este tipo
de error en el razonamiento), hacer esto puede percibirse
como perfectamente natural. Los psicólogos cognitivos y
los economistas conductuales lo explican con su trabajo
sobre sesgo de confirmación y razonamiento motivado.
Como hemos visto, el sesgo de confirmación es cuando
buscamos razones para pensar que estamos en lo cierto. El
razonamiento motivado es cuando permitimos que nuestras
emociones influyan en la interpretación de esas razones
implacablemente a favor de lo que ya pensábamos. Y ambos
son sesgos cognitivos completamente naturales e
integrados que todos los seres humanos compartimos,
también aquellos que han recibido adiestramiento para
aprender a protegerse de ellos. Los científicos, dada su
formación en estadística— y el hecho de que la ciencia es
una tarea pública en la que los procedimientos de prueba
son examinados de manera transparente por una
comunidad de académicos que buscan debilidades en el
razonamiento— son mucho menos propensos a cometer
estos errores. Cabe esperar que aquellos que han recibido
formación en lógica, como los filósofos y otros que se
toman el escepticismo en serio, reconozcan estos sesgos y
sepan protegerse de la sigilosa erosión que ejercen sobre el
buen razonamiento. Ahora bien, ¿qué hay de la mayoría de
los negacionistas? ¿Por qué debería importarles?
Obviamente, pocos negacionistas estarían de acuerdo
con esta aserción, en primer lugar porque negarían que son
negacionistas. Suena mucho más riguroso e imparcial
mantenerse como «escépticos», lo que probablemente
explique la reciente apropiación del término 428 . De hecho,
algunos negacionistas (ahí está Cruz) van tan lejos como
para afirmar que son ellos los que adoptan una postura
realmente científica en el debate en torno al cambio
climático. La afirmación es familiar: la ciencia todavía «no
está asentada». Hay «mucho más» que necesitamos saber.
¿Y no es el cambio climático «solo una teoría»? Pero el
problema es que nada de esto se basa en un compromiso de
buena fe con algún tipo de escepticismo real. Se basa, por
el contrario, en una manera gravemente errónea de
entender cómo funciona la ciencia en realidad junto con
una capitulación muy motivada al sesgo cognitivo. Sí, es
cierto que la ciencia del cambio climático no está
plenamente asentada. Pero como hemos visto, esto es así
porque ninguna ciencia está nunca plenamente asentada.
Teniendo en cuenta cómo funciona la ciencia —cosa que ya
exploramos en el capítulo 2— siempre va a ocurrir que hay
más experimentos o comprobaciones que podemos llevar a
cabo. Pero la idea de que hace falta una confirmación
completa o prueba antes de que la creencia esté justificada
es un mito. (Y, de hecho, si los negacionistas rechazan esto,
¿a qué vienen los dobles raseros en torno a sus propias
creencias?)
En cuanto a la afirmación de que el cambio climático es
«solo una teoría» —de tal manera que cualquier teoría
alternativa «podría ser verdadera»—, uno sería reacio a
darle demasiado crédito. Como ya se ha dicho, la gravedad
es solo una teoría. También lo es la teoría germinal de la
enfermedad. Como hemos visto, algunas teorías científicas
son especialmente robustas. Pero el estándar de
justificación para una creencia científica no es que algo
funciona mientras no haya sido refutado. Que sea correcto
decir que cualquier teoría científica puede reclamar para sí
técnicamente la condición de verdadera mientras la
evidencia no la haya desmentido no significa que esté
justificada. Tampoco vale la pena que los científicos
dediquen su tiempo a comprobar exhaustivamente
hipótesis marginales.
Las explicaciones científicas no están formadas de
conjeturas correctas o de unos pocos puntos apoyados en
los datos. Consideremos la hipótesis de la Tierra plana. Si
fuera cierta, ¿dónde está la evidencia? Dado que es
inexistente, hay perfecta justificación científica en
rechazarla como creencia. Los defensores de la hipótesis
de la Tierra plana 429 acostumbran a vacilar cuando deben
responder a la pregunta de por qué la evidencia a favor del
heliocentrismo es errónea con algo que no sea decir que lo
que «prueba» es incompatible con que su propia teoría
pueda ser verdadera. Pero ese no es un razonamiento
correcto. Incluso si alguien lanzara correctamente una
conjetura que resultara ser cierta, eso no sería ciencia. La
ciencia trata acerca de contar con una teoría que apoye
nuestras conjeturas; algo que se haya puesto a prueba a la
luz de la evidencia —y que encaje con ella—.
Otro malentendido negacionista se produce en torno a
cómo alcanzan los científicos un consenso. Una vez más, no
hace falta que el acuerdo sea del 100 % antes de que el
campo de estudio siga avanzando. Aquellos que pretenden
que el acuerdo entre todos los científicos del mundo sea
absoluto antes de hacer algo en torno al cambio climático
se están quedando sin tiempo. De acuerdo con las últimas
estadísticas, más del 96,2 % de los científicos dedicados al
cambio climático creen que está ocurriendo y que los seres
humanos son los responsables de ello 430 . Por comparar,
nótese que una encuesta similar encontró que solo el 97 %
creen en la evolución por selección natural, principio
fundamental de la biología 431 . ¡Más de ciento cincuenta
años después de Darwin ni siquiera en torno a la evolución
hay unanimidad! Pero no la necesitamos, porque no es así
como funciona el consenso científico. Las afirmaciones
científicas están sujetas al escrutinio de grupo y la crítica,
y, a pesar del inexorable disentimiento, hay que tomar
decisiones 432 . Algunos pueden alegar que esto todavía deja
espacio para la duda y que los «escépticos» (como ocurre a
veces) podrían estar en lo cierto, pero yo no albergaría
demasiadas esperanzas si fuera un negacionista del cambio
climático. Por un lado, los legítimos disidentes han de ser
capaces de presentar alguna evidencia empírica como
razón de su disentimiento. De otra manera, uno se
pregunta si son siquiera científicos. Los negacionistas
pueden alegar que sí disponen de evidencia y afirmar que
son miembros de una comunidad, pero eso es simplemente
tedioso. Como hemos visto, buscar una comunidad de
apoyo mutuo no es lo mismo que buscar un comunidad de
escrutinio crítico. No importa cuánta gente consigamos que
esté de acuerdo con nosotros, la opinión mayoritaria no
desbanca a la evidencia en torno a cuestiones de hecho 433 .
¿No podrían los científicos estar equivocados? Sí, por
supuesto. La historia de la ciencia ha puesto de manifiesto
que cualquier teoría científica (incluso la teoría de la
gravedad de Newton) podría estar equivocada. Pero esto no
quiere decir que seamos buenos escépticos meramente por
no adherirnos a las conclusiones bien corroboradas de la
ciencia. Rechazar la cascada de evidencia científica que
muestra que la temperatura global está aumentando y que
los seres humanos casi con toda seguridad son la causa de
ello no es una buena manera de razonar incluso si dentro
de cincuenta años aparece una hipótesis a largo plazo que
señala por qué nos equivocábamos. El escepticismo está en
completa conformidad con el compromiso de la actitud
científica para formar las propias creencias sobre la base
de su encaje con la evidencia e ir modificándolas según
vaya presentándose evidencia adicional, pero esto no
garantiza en absoluto la verdad. No obstante, es poderoso.
Con el negacionismo, se decide de antemano —sobre la
base de la ideología— lo que uno quiere que sea verdad,
luego se filtra selectivamente la información en función de
si es favorable a la hipótesis o no. Pero esto no crea
justificación. La ciencia a veces puede no dar en el blanco,
pero su historial lleno de éxitos sugiere que no tiene
competidor que la supere en el descubrimiento de hechos
acerca del mundo empírico.
De hecho, por eso Galileo no era un negacionista. ¿Quién
decía que lo fue? En una entrevista en el Texas Tribune de
marzo de 2015, Ted Cruz decía: «Hoy en día, los alarmistas
del calentamiento global son el equivalente de los que
decían que la Tierra era plana. Se aceptaba como [...]
conocimiento científico que la Tierra era plana, y ese
herético llamado Galileo fue calificado de negador» 434 .
Podemos despachar rápido esta afirmación. Galileo no
defendía el modelo heliocéntrico por ideología, sino por
evidencia. Sus observaciones telescópicas de las fases de
Venus, de los cráteres de la Luna y de los satélites de
Júpiter proporcionaron múltiples razones para creer que el
modelo ptolemaico de la Tierra en el centro del universo
era erróneo, y debía bastar con eso para convencer a
cualquiera que dudara de ello. Era la Iglesia católica la que
tenía creencias ideológicas que le impedían aceptar la
realidad de la evidencia que aportaba Galileo debido a las
implicaciones que tenía para su modelo celeste.
Ciertamente, Galileo no era un negador. Negar la verdad de
una teoría falsa cuando se tiene evidencia que demuestra
que es falsa, no es negacionismo, es ciencia.
¿Qué podría pasar cuando el disidente solitario tenga la
evidencia, cuando esa persona pone en cuestión el
consenso establecido y demuestra que es erróneo? Esto
desafía la idea de que la ciencia es un proceso privilegiado
que resulta del escrutinio en grupo del trabajo individual.
¿Puede la actitud científica sobrevivir incólume si alguien
va en contra de la comunidad científica —que se supone es
el árbitro final de la garantía justificatoria— y gana?

¿QUÉ PASA CUANDO EL «AGUAFIESTAS» TIENE RAZÓN?

Harlen Bretz era un geólogo inconformista a principios


del siglo XX, que desarrolló una larga carrera en la
Universidad de Chicago, pero hizo su trabajo de campo en
una región desolada del estado de Washington que
denominó «terrenos erosionados en forma de canales».
Esta área destaca por su austera superficie de «apariencia
marciana» consistente en canales desgastados a cuyo
alrededor hay grandes acantilados (donde la grava y las
«rocas erráticas» se encuentran a miles de metros sobre el
nivel del mar), cañones en forma de U con caídas secas y
enormes piscinas de inmersión con solo pequeñas cascadas
que desaguan en ellas. Se trata, en definitiva, de una
geografía que requiere explicación.
No se había estudiado bien la zona antes de Bretz, pero
los geólogos de la época tenían sus hipótesis. En su
mayoría estaban de acuerdo en que estos paisajes habían
sido excavados por fuerzas hidrológicas, pero —en
concordancia con la teoría «uniformista» de la época—
pensaban que habían sido el resultado de cantidades
relativamente pequeñas de agua actuando durante largos
períodos de tiempo, tales como las que habían creado el
Gran Cañón. El uniformismo, que había constituido el
paradigma dominante en geología al menos desde el
influyente manual de Charles Lyell (que inspiró la teoría de
la evolución por selección natural de Darwin) es la idea de
que el registro geológico puede explicarse a partir de
fuerzas naturales conocidas que actúan a lo largo de
millones de años 435 . Esto se propuso como alternativa al
catastrofismo de los predecesores de Lyell, quienes
consideraban que acontecimientos cataclísmicos periódicos
—causados acaso por Dios— habían producido el registro
geológico, fósil y biológico. Las fuerzas naturales frente a
los milagros. La erosión frente a la catástrofe. No era difícil
predecir de qué lado iban a estar los científicos.
Aunque Bretz era uniformista (y ateo), cuando en 1921
se detuvo por primera vez ante el paisaje cicatrizado y
estéril, comenzó a darse cuenta de que las teorías
anteriores debían ser erróneas. Como un detective
resolviendo un misterio, Bretz encontró demasiadas pistas
de que una erosión constante no podía haber tenido ese
resultado. ¿Cuál era la otra posibilidad? Una inundación
masiva, una inundación tan grande que en algunos puntos
habría tenido trece millas de anchura e involucrado un
volumen de agua con la suficiente fuerza como para hacer
que el río Snake fluyera hacia atrás, crear canales en forma
de U y no de V tan al sur como en el desfiladero de
Columbia, poner «la tortuga en lo alto del poste» al llevar
grava a la cima de acantilados de dos mil quinientos pies de
altura y crear enormes pozas de agua tan
desproporcionadas en comparación con las pequeñas
caídas de las que se nutrían. ¿De dónde podría haber salido
una cantidad tan enorme de agua? Bretz no lo sabía y, por
el momento, no formuló ninguna hipótesis. Tenía ante sí un
rompecabezas y se determinó simplemente a dejarse guiar
por la evidencia adondequisiera que le llevara. Cuando
volvió al lugar para proseguir con su trabajo de campo
durante un segundo verano, estaba convencido:

Bretz creía ahora que estas características


geológicas solo podían haber sido creadas por una
inundación de proporciones inimaginables,
probablemente la mayor de la historia del mundo. Y
esta afirmación no obedecía a una especulación
descontrolada. Un hecho tras otro, una característica
tras otra del paisaje le habían demostrado a Bretz
que su teoría proporcionaba la única respuesta
plausible para la formación de los terrenos
erosionados en forma de canales 436 .

La historia del trabajo de Bretz es un tema fascinante y


poco difundido en la historia y la filosofía de la ciencia y
que merece recibir una atención académica mucho mayor.
El Bretz’s Flood de John Soennichsen es una de las pocas
fuentes disponibles, pero afortunadamente es maravillosa,
tanto por contar la historia de los esfuerzos de Bretz como
por proporcionar el contexto intelectual de la época con
una discusión en torno al positivismo geológico, el
uniformismo frente al catastrofismo, la lucha por hacer la
geología más científica y la influencia que los factores
sociológicos pueden ejercer sobre las explicaciones
científicas. Aquí me centraré en la cuestión concreta de las
implicaciones que la historia de Bretz puede tener para la
actitud científica cuando el consenso de grupo se opone al
individuo que está en lo correcto y cuenta con evidencia a
su favor. ¿Pone esto en cuestión la idea de que la actitud
científica tiene lugar en la práctica de grupo y de que la
ciencia funciona primordialmente porque la comunidad
científica corrige los errores individuales? Como espero
mostrar más abajo, creo que el episodio de Bretz no solo
sobrevive a este desafío, sino que de hecho constituye una
deslumbrante demostración del poder de la actitud
científica.
Es obvio que el trabajo de Bretz es un respaldo a la
actitud científica a escala individual. Bretz reunió una gran
cantidad de evidencias para apoyar su hipótesis y criticó y
dio forma a su teoría en el proceso. Como constituía de
alguna manera un paso atrás, Bretz era consciente de que
su teoría iba a ser duramente atacada 437 . Bretz no postuló
ninguna fuerza sobrenatural para explicar el registro
geológico, pero tampoco podía explicarlo con el arsenal de
fuerzas existentes actuando a lo largo de un gran período
de tiempo como demandaba el uniformismo. En vez de eso,
tenía que proponer un gran acontecimiento catastrófico
que hubiera ocurrido en un momento concreto con una
fuente desconocida de agua. Sonaba como algo sacado de
la Biblia; el retroceso sería tremendo.

La geología, como otras ciencias, es una especie de


hermandad, con mucha camaradería e intercambio de
datos, ideas e instalaciones. Se percibe como un
campo en el que el trabajo de un individuo puede
inspirar el del otro, y mediante la cooperación de
todos, las teorías incipientes pueden expandirse y
florecer en visiones científicas plenamente
desarrolladas compartidas por la disciplina en su
conjunto. Como en otras hermandades, sin embargo,
pueden surgir disputas y los miembros de la familia
que no se adhieren a las reglas básicas pueden ser
verbalmente amonestados o —peor aún si cabe—
despreciados por completo 438 .

Lo que Bretz estaba proponiendo sonaba a herejía. A


favor de Bretz cabe decir que no parecía importarle; tenía
la evidencia a su favor y sabía que estaba en lo cierto. Los
demás solo tenían que dejarse convencer. A este respecto,
Bretz se me aparece como un Galileo moderno 439 . Aquellos
que le combatían no habían hecho el mismo trabajo de
campo ni habían contemplado los paisajes 440 . Bretz fue lo
suficientemente testarudo como para creer en las
implicaciones de lo que había visto de primera mano, y si
aquello no cuadraba con las teorías actuales, entonces esas
teorías debían estar equivocadas. Esto es un buen
testimonio de la adhesión de Bretz a la actitud científica,
pero había problemas por delante.
Un problema para Bretz era que todavía no tenía idea de
lo que podría haber causado semejante megainundación.
La cantidad de agua requerida era enorme. Estaba
contando un relato causal sin ninguna causa a la vista, y
sabía que aquello presentaría una formidable barrera a la
aceptación de su teoría. Pero el registro geológico
simplemente exigía esa cantidad de agua. Aquí Bretz
también recuerda a Darwin, quien reunió evidencia a favor
de su teoría de la evolución por selección natural mucho
antes de tener una idea del mecanismo que podía subyacer
a ella. También recuerda a Newton, quien «no formuló
ninguna hipótesis» acerca de lo que era la gravedad
mientras elaboraba las ecuaciones que describían su
comportamiento.
Es importante aquí hacer una pausa y considerar las
implicaciones para la actitud científica, porque revela que
entender la causa no es imprescindible para la explicación
científica. Las explicaciones causales son una parte
importante de las teorías científicas completas, y postular
un milagro no es aceptable como sustitución. Pero lo más
importante es tener evidencia de que una hipótesis está
justificada; la causa puede ser inferida más tarde. No se
trata de trivializar la explicación causal. Es solo que el
hallazgo de la causa es a menudo la última parte de la
explicación científica, que entra en su lugar después de que
todos los demás fragmentos de la evidencia hayan sido
reunidos y encajen.
Habría sido preferible, en el caso de Bretz, que hubiera
conocido una causa, pero al principio simplemente no podía
especificar ninguna, así que se aferró a la evidencia del
registro geológico. Nótese que Bretz fue enormemente
autocrítico e introdujo numerosas correcciones y
modificaciones en su teoría a medida que iba avanzando 441 .
Esto no era nada, sin embargo, en comparación con las
críticas que iba a recibir de parte de sus colegas científicos.
En 1927, Bretz compareció en el Cosmos Club de
Washington, D. C., para presentar las pruebas con las que
contaba ante una representación de los geólogos más
distinguidos del país. Entre ellos, destacan seis miembros
del US Geological Survey (USGS), una especie de consejo
de administración de la profesión. Bretz hizo una
exposición prolija y concluyente a partir de sus seis años de
trabajo de campo en la zona. Luego, cuando llegó el
momento de las reacciones, «se desató un infierno».

Uno por uno, cada uno de los hombres sentados


junto a la mesa de presentación se levantó para
lanzar ataques con objeciones, críticas y, por primera
vez, con sus propias interpretaciones de los terrenos
erosionados. Rápidamente se hizo evidente que se
trataba de una acción planeada; una estrategia que
permitió a Bretz ofrecer sus puntos de vista para
luego y someterlos al juicio de prácticamente todos
los geólogos relevantes de la época. [...] Parece claro
que la postura oficial de ese influyente organismo era
de intolerancia hacia cualquier teoría que se apartara
de la línea uniformista 442 .
Así, por supuesto, no es como se supone que funciona la
ciencia. Mirando hacia atrás, uno sospecha que los
científicos eruditos estaban presentando objeciones a la
teoría de Bretz merced a un razonamiento motivado que
hundía sus raíces en una adhesión casi ideológica al
uniformismo. Una cosa es atacar una teoría apelando a su
falta de concordancia con la evidencia; otra muy distinta es
decir que una teoría no puede ser tolerada porque
erosionaría el progreso obtenido con tanto esfuerzo para
distanciarse de las visiones religiosas que impedían que el
campo de estudio fuera visto como científico.
En este libro, he argumentado que la actitud científica se
ejemplifica no solo en los valores de los científicos
individuales, sino también en la comunidad de académicos.
Así pues, ¿qué se puede decir de un caso en el que el
«hereje» se comporta más científicamente que sus
críticos?, ¿es posible defender la importancia de la actitud
científica cuando el consenso imperante entre los
profesionales es erróneo? Esta es una cuestión delicada, ya
que aunque es común que los científicos individuales a
veces superen al grupo —de hecho, así se diseminan las
ideas revolucionarias y se llega a una nueva manera de
entender las cosas—, lo que es raro es que alguien
contradiga abiertamente el consenso científico durante
décadas y luego sea reivindicado. Ejemplos históricos
notables son Galileo, Semmelweis, Alfred Wegener y otros
mártires de la ciencia. Pero cuando ocurren tales episodios,
¿cuál es el punto de referencia para mantener a la ciencia
en el buen camino? No puede haber otro que la evidencia.
No es que Bretz estuviera haciendo una afirmación
rompedora partiendo de la nada: tenía evidencia que la
respaldaba. Así, incluso cuando es comprensible que a
veces la comunidad se resista a quienes son percibidos
como disidentes de la ortodoxia en su pensamiento
científico, con el tiempo este conflicto se resuelve de la
única manera posible en ciencia: ateniéndose a la evidencia
empírica.
Y esto fue precisamente lo que ocurrió con la teoría de
Bretz acerca de los terrenos erosionados en forma de
canales. Después de la desastrosa charla en el Cosmos
Club, uno de los anteriores rivales de Bretz le ayudó a
darse cuenta de que la única fuente de agua lo
suficientemente grande como para producir una inundación
masiva como la requerida tenía que ser el drenaje
espontáneo de un lago glaciar. Ahí estaba la respuesta
correcta. Ahora se cree que la caída de un gigantesco dique
de hielo en el lago Missoula liberó más de dos mil
kilómetros cúbicos de agua que llegaron a ciento sesenta
kilómetros al sur de Portland, Oregon 443 . Los detractores,
no obstante, resistieron:

La comunidad geológica siguió con su trabajo y no


tuvo en cuenta las tonterías de este geólogo
advenedizo sobre inundaciones masivas que habían
alterado la topografía de un vasto paisaje occidental
en un abrir y cerrar de ojos geológico 444 .

Bretz se hundió en una profunda depresión. Con el paso


del tiempo, algunos de sus críticos finalmente murieron,
mientras que otros se dejaron convencer, pero también
creció una nueva generación de geólogos más propensos a
aceptar la teoría de Bretz 445 . Pasaron algunas décadas y la
figura de Bretz fue finalmente reivindicada. Como dijo
después uno de sus críticos tras visitar por su cuenta los
terrenos erosionados, «¿cómo puede alguien haber estado
tan equivocado?» 446 . ¡Qué sensación incomparable tuvo
que experimentar Bretz en 1965, cuando recibió un
telegrama de un grupo de geólogos que acababan de hacer
un viaje oficial a los terrenos erosionados: «¡Ahora todos
somos catastrofistas»! 447 .
En una extraña coda a esta historia, el legado de Bretz
ha sido reclamado por miles de creacionistas que le
consideran una especie de héroe popular por haber
demostrado casi sin ayuda la tesis de una inundación
bíblica. Obviamente, Bretz no tuvo semejante pretensión,
pero hay algunas páginas web creacionistas que le
celebran como el David que se alzó frente al Goliat de la
ciencia organizada y salió triunfante 448 . ¿Qué decir de
esto? ¿Sugiere el caso de Bretz que alguien como Ted Cruz
podría convertirse en el próximo Galileo?
Esto parece absurdo; recordemos que la Estrella Polar
de la historia de Bretz es seguir la evidencia y evitar la
ideología. Si un negador de la ciencia afirma que el cambio
climático es un fraude, ¿dónde están las pruebas que
debería aportar? Sin ellas, no hay más que especulación o
algo peor. Esto no quiere decir que el mero escepticismo o
incluso la obstinación supongan un alejamiento de la
ciencia. Los requisitos que debe cumplir una nueva teoría
para ser aceptada deben ser exigentes. Pero cuando un
científico abandona la evidencia por la ideología, lo que
hace ya no es ciencia.
¿Qué pasaría si una teoría supuestamente descabellada
tuviera la evidencia a su favor? Entonces debería ser
puesta a prueba y, si sale indemne, el consenso científico
tendría que cambiar. De la misma manera que la actitud
científica debería guiar idealmente la conducta individual,
el grupo también tiene que atenerse a ella. Se supone que
la ciencia se corrige a sí misma tanto a escala individual
como grupal. Imaginemos a un científico con una teoría
atípica que no cuadra con la evidencia y es rechazada por
el resto de la profesión. Si este científico se aferrara a la
teoría, en algún sentido habría abandonado la profesión.
¿Puede ocurrir lo mismo con una disciplina en su conjunto?
Aunque es más común que el grupo corrija al individuo —
como en el caso de la fusión fría—, a veces es el individuo
el que corrige al grupo.
Así como la geología se desvió temporalmente de su
curso al negarse a aceptar la teoría de Alfred Wegener
acerca de la deriva continental, sufrió el mismo destino con
la teoría de Bretz sobre los terrenos erosionados en forma
de canales. Es doloroso pensar que la geología «dejó de ser
científica» durante un tiempo, pero eso es lo que ocurre
cuando los científicos rehúsan cambiar una teoría a la luz
de una evidencia contundente. De la misma manera que la
Iglesia católica rechazó aceptar la verdad de la nueva
teoría de Galileo acerca del cosmos —prefiriendo en vez de
eso permanecer aferrada a su conocida pero falsa ideología
—, durante un tiempo la geología eligió abrazar un
uniformismo estricto frente a la evidencia empírica 449 . Lo
distintivo de la ciencia, sin embargo, es que incluso cuando
esto ocurre, hay una manera de regresar a la
normalidad 450 . De hecho, nótese que —como ciencia— la
geología terminó admitiendo la fuerza de los datos de Bretz
y volvió a la actitud científica. (La Iglesia católica, sin
embargo, no hizo lo mismo y tuvo que humillarse con una
apología de Galileo trescientos cincuenta años después de
haber perdido el debate en torno al heliocentrismo.)
Aquí debemos enfrentarnos directamente a las
implicaciones de lo que este ejemplo revela en torno a la
cuestión de si la actitud científica es un rasgo definitorio de
la ciencia. La idea que subyace a la actitud científica no
puede ser que el grupo siempre tenga razón. Galileo,
Semmelweis, Wegener y Bretz proporcionan
contraejemplos. El individuo va a veces muy por delante de
sus contemporáneos. Ciertamente, como vimos antes a
propósito de los estudios experimentales de Sunstein, es
más fácil para un grupo encontrar la verdad que para un
individuo. Pero esto no tiene por qué ocurrir siempre. A
veces los individuos tienen una teoría mejor. Y eso es
perfectamente correcto en ciencia. Lo importante para la
preservación de la actitud científica es que cualquier
disputa se resuelva atendiendo a la evidencia. A veces no
son solo las teorías individuales las que necesitan
corrección, sino el consenso de toda una disciplina.
Volviendo a Bretz, vale la pena considerar por un
momento por qué el uniformismo ejercía una influencia tan
poderosa en geología. En este caso, me parece ver ante
nosotros uno de los raros ejemplos en los que todo un
campo científico estuvo sometido al influjo de una
ideología. Una de las razones por las que tantos geólogos
se adherían al uniformismo era que lo percibían como un
baluarte contra el creacionismo. Era una forma de defender
la idea de que el mundo natural podía explicarse apelando
a lentos procesos naturales en lugar de a una especie de
catástrofe cuyo origen podía situarse en la voluntad de
Dios. Aun así, todavía es perfectamente aceptable suponer
que los acontecimientos naturales pueden producirse
súbitamente, en períodos cortos de tiempo. Pero no
significa necesariamente que Dios exista 451 . Es también
importante darse cuenta de que Bretz no dio un salto
precipitado a la conclusión del catastrofismo. Su propia
filosofía de referencia fue el uniformismo hasta que la
evidencia le expulsó a otra parte. En sus trabajos y charlas
sobre el tema, resulta patente que Bretz no tomó a la ligera
las implicaciones de su teoría. Anticipó las críticas y trató
de abordarlas, pero aun así adoptó su nueva teoría porque
no encontraba otra explicación posible para lo que había
visto. Contrastemos esto con el caso de algunos geólogos
que no conocían la evidencia de los terrenos erosionados y
hacían oídos sordos. En esto estaban comportándose como
ideólogos. Dado que eran científicos, ¿por qué su
compromiso era mayor con el uniformismo que con lo que
sugería la evidencia? Esto también requiere una
explicación.
Mi hipótesis es que la ideología puede tener una
influencia corruptora tanto en quienes están
comprometidos con ella como en quienes la combaten.
Como científicos, a los miembros del USGS no les debería
haber importado si la evidencia de Bretz era consistente
con una u otra teoría general, pero así fue. ¿Por qué? El
motivo es que estaban encerrados en su propia batalla
contra los cristianos fundamentalistas y no querían que la
teoría de Bretz les proporcionara ayuda y apoyo a sus
enemigos. He aquí un ejemplo de cómo la ideología puede
infectar el proceso científico, estemos o no en el lado
«correcto». Esto es: podemos hacerle daño a la ciencia
incluso por el mero hecho de modificar la manera en la que
hacemos ciencia con el fin de combatir a quienes carecen
de rigor científico. No se trata de si la teoría de Bretz
proviene de un individuo solitario o de un grupo, de si
aboga por un cambio gradual o por una intervención
repentina. Lo que importa es que fue consistente con los
datos. Pero cuando tratamos de evitar esto —cuando
buscamos confirmar o refutar una teoría sobre la base de
nuestras adhesiones no empíricas—, pueden surgir
problemas. Esto ocurre la mayoría de las veces cuando
ideólogos políticos o religiosos alteran el proceso de
aprendizaje a partir de la evidencia merced a creencias
personales acerca de intervenciones divinas, libertad
humana, igualdad, naturaleza, educación y cualesquiera
otras preferencias especulativas. Pero esto también puede
ocurrir cuando un individuo o grupo lucha contra esas
ideologías. La tentación de acercar un poco las cosas hacia
nuestra forma de pensar (o nuestras esperanzas) puede ser
fuerte. Pero así llegan reveses inesperados (o incluso
fraudes) que pueden ser contraproducentes y perjudiciales
para la confianza pública en la ciencia.
Consideremos aquí la controversia de los correos
electrónicos que dieron lugar al «climagate» hace unos
pocos años, cuando unos cuantos científicos hablaron de
suprimir cierta evidencia que podía ser utilizada por los
negacionistas para llevar a cabo prácticas de recogida
selectiva y socavar la verdad en torno al calentamiento
global, en respuesta a las peticiones derivadas de la Ley de
Libertad de Información. Aunque estaban bromeando y
seguramente debieran de sentirse en el «lado correcto» de
la ciencia, las consecuencias para la climatología fueron
desastrosas. Todavía después de múltiples investigaciones
oficiales —que pusieron de manifiesto que los científicos no
habían hecho nada malo y que no había por qué poner en
cuestión su trabajo— surgieron teorías de la conspiración
entre aquellos que consideraban que el cambio climático
era un fraude urdido por científicos de izquierdas. Cuando
nos apartamos de las normas, aunque pensemos que la
nuestra es una «causa de ángeles», la ciencia puede
resentirse 452 .
Es muy frustrante que la ciencia se vea asediada por
ideólogos que desdeñan lo que tiene de valiosa y recopilan
datos con la única intención de aportar plausibilidad a sus
hipótesis preferidas. Pero el precio de la libertad científica
es la eterna apertura. Esto no quiere decir que tengamos
que tolerar teorías descabelladas. Si no hay evidencia ni
justificación alguna que las respalde, no hay razón para
dedicar los escasos recursos de la ciencia a comprobarlas.
Ahora bien, ¿qué se debe hacer cuando la evidencia
muestra algo extraño? Debemos darle una oportunidad. Y
esto es exactamente lo que haremos al final de este
capítulo cuando tomemos en consideración las casi tres
décadas de trabajos realizados en torno a la percepción
extrasensorial por el Centro para el Estudio de las
Anomalías Mecánicas de Princeton [Princeton Engineering
Anomalies Research (PEAR) Center]. Pero antes de nada
debemos ocuparnos de la cuestión de la pseudociencia.

LOS PSEUDOCIENTÍFICOS NO ESTÁN REALMENTE ABIERTOS A NUEVAS


IDEAS

El problema con los pseudocientíficos no es solo que no


estén haciendo ciencia, sino que aseguran estar
haciéndola. Algunos probablemente saben que solo están
fingiendo. Otros quizá crean que su trabajo no merece los
desprecios que recibe. Sin embargo, en resumidas cuentas,
cuando uno articula afirmaciones explicativas en torno a
cuestiones empíricas, lo primordial es el ajuste a la
evidencia 453 . ¿Por qué cuesta tanto conseguir que la
mayoría de los pseudocientíficos admitan no ya que sus
teorías no son ciertas, sino que ni siquiera son científicas?
La respuesta es que, al igual que los negacionistas, su
adhesión a las teorías que propugnan hunde sus raíces en
el pensamiento desiderativo.
Está claro que el pensamiento desiderativo no va en
concordancia con la actitud científica. Uno no debería
pronunciarse de antemano sobre la base de la ideología
que desea como verdadera y buscar a continuación la
evidencia que la respalde. En ciencia se supone que uno se
deja guiar por la evidencia y que las creencias que adopta
son moldeadas por ella. Como sabemos, una hipótesis
científica puede proceder de cualquier parte: la intuición,
el pensamiento desiderativo, la esperanza, la obstinación, y
las conjeturas descontroladas han producido en algún
momento teorías científicas respetadas. Pero aquí está la
clave: deben contar con el respaldo de la evidencia, cosa
que depende del juicio de la comunidad integrada por los
demás científicos.
Consideremos una vez más a este respecto la matriz de
Sagan. ¿Están abiertas las hipótesis pseudocientíficas a
nuevas ideas? No particularmente. Aunque lo más seguro
es que sea correcto decir que muchos astrólogos,
radiestesistas, curanderos con cristales y partidarios del
diseño inteligente son sumamente crédulos (como Sagan
observa), también es cierto que sus mentes suelen estar
extremadamente cerradas cuando se trata de aceptar la
relevancia de cualquier evidencia que contradiga sus
teorías. No se someterán a la falsación. Los experimentos
bajo condiciones controladas son raros. La recolección
selectiva de datos es habitual. Como los negacionistas, los
pseudocientíficos parecen querer en la mayoría de los
casos soslayar toda evidencia contradictoria, a pesar de
que se quejan de que otros científicos no tienen en cuenta
la suya.
Cabe suponer que alguien, sabiendo lo que hace, esté
obteniendo beneficios de este juego del gato y el ratón.
Unos engañan, mientras que otros son engañados. La
astrología es una industria que mueve miles de millones a
escala mundial 454 . De acuerdo con NBC News, los
estadounidenses gastan tres mil millones de dólares al año
en homeopatía 455 . Otros defensores de la pseudociencia
son meros ideólogos que no la promueven por dinero, sino
porque piensan que están en lo cierto. También hay que
tener en cuenta, por supuesto, la ignorancia deliberada y a
quienes se dejan embaucar. Todos constituyen un peligro
para la buena ciencia. Ya sea que alguien crea realmente
sus falsedades o solo finja que las cree, negarse a adoptar
creencias empíricas sobre la base de la evidencia es un
acto hostil a la ciencia. Tanto en la pseudociencia como en
el negacionismo, se evita (o incluso se traiciona) la actitud
científica. La intuición prima por encima de los hechos. Se
recurre al «escepticismo» según convenga. La credulidad
se extiende por todas partes. A la evidencia se le aplica un
doble rasero. Sobre quienes se oponen pesa la sospecha de
una conspiración tenebrosa. Seguramente tanto la
pseudociencia como el negacionismo incluyan también a
quienes se benefician de la confusión pública, mientras que
otros, de manera ingenua, hacen la voluntad de los
primeros 456 .
La pregunta crucial que deben responder los
pseudocientíficos es la siguiente: si sus teorías son ciertas,
¿dónde está la evidencia? Pueden afirmar que la ciencia
ortodoxa les persigue o desprecia, pero si tuvieran buenas
respuestas, ¿por qué iba a ocurrir eso? Como vimos con el
ejemplo de Harlen Bretz, si contamos con evidencia a
nuestro favor, el área de investigación en su totalidad
terminará finalmente llamando a nuestras puertas. Pero la
carga de la prueba sigue correspondiéndonos a nosotros. Si
hasta un científico eminente como Bretz tuvo que afrontar
una oposición feroz, a veces carente de razones, a su
teoría, ¿por qué deberían los pseudocientíficos esperar que
a ellos les fuera más fácil? Que Bretz —aún con evidencia a
su favor— tuviera que luchar tanto quizá no hable
demasiado a favor de la actitud abierta de la práctica
científica, pero he ahí el difícil sino del pionero. Los
científicos son tacaños con la justificación. Así pues, ¿por
qué esperan los pseudocientíficos que les tomen en serio
cuando no tienen evidencia alguna que ofrecer —o, si la
tienen, es equívoca—? ¿Acaso porque «podrían» estar en lo
cierto? Pero ya hemos visto que esto importa poco cuando
la cuestión de la justificación está en juego.
¿Dónde están las predicciones falsables de la astrología?
¿Dónde están los experimentos controlados que los
curanderos por fe someten a doble revisión ciega? ¿Por qué
los que propugnan que viajar en el tiempo es posible no
han aprovechado para viajar al pasado y hacer una fortuna
en la bolsa? 457 . Si quienes sostienen creencias
«alternativas» pretenden que sus opiniones sean tomadas
en serio, deben aceptar someterlas a una intensa crítica y
escrutinio. Como vimos antes, esto ocurre a veces, y los
resultados son rutinariamente decepcionantes 458 . En
cambio, los pseudocientíficos por lo general prefieren
confiar en su propia evidencia selectiva. Pero esto es solo
una mascarada de la ciencia.

PSEUDOCIENCIA EN ACCIÓN: CREACIONISMO Y TEORÍA DEL DISEÑO


INTELIGENTE

La larga y sórdida historia de la oposición a la teoría de


la evolución ha sido bien relatada en otros lugares 459 .
Empezando con el juicio de Scopes de 1925, aquellos que
pretendían enfrentarse a la teoría de la evolución por
selección natural de Darwin eligieron en primer lugar
tratar de que no se impartieran clases de Biología en las
escuelas. Esta estrategia tuvo bastante éxito hasta que su
constitucionalidad fue enjuiciada en 1967 460 . Como vimos
en el capítulo 2, una agenda creacionista más moderna
pasó de tratar de mantener la evolución fuera de las aulas a
presionar para que se introdujera el creacionismo en pie de
igualdad junto a ella. Esto empieza en Arkansas en 1981
con la Ley 590, la cual exigía a los profesores que dieran un
«tratamiento equilibrado» a la ciencia de la creación con
respecto a la ciencia de la evolución en las clases de
Biología. Cuando esto fue impugnado con éxito apelando a
razones constitucionales en el caso McLean contra
Arkansas, el juez William Overton dictaminó que la
afirmación de que la biología darwinista era a su vez una
«religión secular» era absurda y que la «ciencia de la
creación» no tenía nada de ciencia al menos en tanto que
«una teoría científica tiene que ser tentativa y estar
siempre sujeta a la posibilidad de ser abandonada a la luz
de hechos que son inconsistentes con ella o que la
desmienten» 461 . Así pues, se reveló que la ciencia de la
creación no era más que una pseudociencia.
Años más tarde, los creacionistas se reagruparon bajo la
bandera de la teoría del diseño inteligente (ID), que
pretendía ser una alternativa científica a la evolución. Esto
fue el producto de un «think tank» llamado Discovery
Institute, fundado en Seattle, Washington, en 1990, con la
idea central de promover la teoría del diseño inteligente y
atacar la evolución. Después de una campaña de varios
años financiando y promoviendo críticas ideológicas a la
evolución e inundando los medios de comunicación con
informaciones erróneas en un bombardeo de relaciones
públicas con la intención de arrojar dudas sobre la
evolución, la siguiente batalla judicial se libró en
Pensilvania en 2004, en un caso llamado Kitzmiller contra
el distrito escolar del área de Dover. Una vez más, esta
historia aparece relatada en otra parte 462 , pero el punto
principal es que la estrategia ya no consistía en enseñar el
creacionismo o la ciencia de la creación en las aulas de
ciencias, sino que, en vez de eso, se trataba de defender la
teoría científica completamente separada del diseño
inteligente que el paleobiólogo Leonard Krishtalka, entre
otros, ha llamado «creacionismo con un esmoquin
barato» 463 . Este intento también acabó estrepitosamente
derrotado. En una sentencia similar a la anterior de
Arkansas, el juez John E. Jones dictaminó que la teoría del
diseño inteligente no era ciencia, y que sus ataques a la
evolución ya habían sido refutados por la comunidad
científica. Además, no había estudios que hubieran
superado una revisión por pares ni evidencia que ofrecer a
favor de sus afirmaciones. En una audaz reprimenda, Jones
regañó a los funcionarios de la escuela por tal «inanidad
que quita la respiración» y por malgastar el dinero de los
contribuyentes. Luego les ordenó que pagaran un millón de
dólares a los demandantes por daños y perjuicios.
Después de esto, la estrategia de los creacionistas
cambió. Ahora que las opciones judiciales se consideraban
demasiado peligrosas, los contrarios a la evolución optaron
por tratar de influir en las leyes. En 2008, el Discovery
Institute redactó el modelo de un proyecto de ley que
pretendía proteger la «libertad académica» de los
profesores que se sentían intimidados o amenazados al
enseñar la «gama completa de puntos de vista científicos
sobre la evolución biológica y química» 464 .
El lenguaje continuaba refiriéndose a la «confusión»
creada por el fallo de Dover y declaraba que, por supuesto,
ningún acto debía interpretarse como «promoción de
cualquier doctrina religiosa». Esto no fue más que una hoja
de parra para tapar los renovados intentos de llevar el
creacionismo a las aulas de ciencias de la nación.
Después de una derrota inicial en Florida en 2008 —en la
que los demócratas aprovecharon ciertas ambigüedades en
el lenguaje de la Cámara para sostener que también había
que proteger la libertad académica de los maestros para
hablar del control de natalidad, el aborto y la educación
sexual—, el primer proyecto de ley de libertad académica
de este tipo fue aprobado en Luisiana ese mismo año.
Aunque no completamente conformado con el lenguaje del
Discovery Institute, esto se percibió como una victoria para
las fuerzas de la anticiencia. Aquí los legisladores tuvieron
cuidado de eliminar toda mención a la evolución (y al
calentamiento global) como ejemplos de teorías
«controvertidas» de su proyecto de ley original, y lo
rebautizaron como Ley de Educación Científica de Luisiana.
Fue firmada por el gobernador Bobby Jindahl y sigue
siendo uno de los dos únicos proyectos de ley estatales
sobre libertad académica en todo el país.
Esfuerzos similares cristalizaron en leyes en Missouri,
Alabama, Michigan, Carolina del Sur, Nuevo México,
Oklahoma, Iowa, Texas y Kentucky, antes de que se
aprobara otro proyecto de ley de libertad académica en
Tennessee en 2012. Este ultimo estaba encaminado a
proteger a «los profesores que exploran “las fortalezas y
debilidades científicas” de la evolución y el cambio
climático» 465 . Poco antes, a principios de 2013, otros
cuatro estados lo siguieron inmediatamente: Colorado,
Missouri, Montana y Oklahoma. De hecho, Oklahoma se ha
convertido en el símbolo de esta legislación, ya que la ha
reintroducido en todas las sesiones del senado estatal
durante los últimos cinco años uno tras otro. El lenguaje es
similar en todos estos proyectos de ley 466 . Con motivo del
último proyecto de ley en el senado de Oklahoma, en 2016,
los legisladores se esforzaron por

crear un ambiente dentro de los distritos escolares


públicos que animara a los estudiantes a explorar
cuestiones científicas, aprender acerca de la
evidencia científica, desarrollar habilidades de
pensamiento crítico y responder adecuadamente y de
manera respetuosa a las diferencias de opinión en
torno a temas controvertidos 467 .

Solo hay un problema: las disputas en materia científica


son y deben ser resueltas a partir de la evidencia, no de la
opinión. En 2016, un proyecto de ley del senado de
Oklahoma afirmaba que,

la asamblea legislativa también considera que la


enseñanza de algunos conceptos científicos,
incluyendo pero no limitándose a premisas en las
áreas de la biología, la química, la meteorología, la
bioética y la física pueden causar controversia, y que
algunos profesores pueden estar inseguros en torno a
cómo se espera que presenten los contenidos de
algunas asignaturas, como, por ejemplo, aunque no
solo, la evolución biológica, los orígenes químicos de
la vida, el calentamiento global y la clonación
humana 468 .

Celebro poder decir que estos proyectos de ley, junto con


otros similares en Misisipi y Dakota del Sur, fracasaron en
2016. En años recientes, proyectos de ley similares
también han fracasado en Arizona, Indiana, Texas y
Virginia. Para aquellos interesados en seguir el destino de
la legislación anticientífica actual y futura, hay una
cronología completa en la página web del Centro Nacional
para la Educación Científica 469 .
Es una triste acotación a la comprensión pública de la
ciencia que las cosas hayan llegado tan lejos. Como dijo
Thomas Henry Huxley («el bulldog de Darwin»), «la vida es
demasiado corta como para ocuparse más de una vez de la
muerte de los muertos». Pero esta es precisamente la
actitud errónea cuando se trata de luchar contra la
pseudociencia, que es perenne. Como hemos visto, las
tácticas cambian y se emplean nuevas estrategias, pero la
lucha tiene que continuar.
De hecho, puedo dar fe de esto tras la escaramuza que
mantuve en primera persona con el Discovery Institute. En
un artículo de 2015 titulado «The Attack on Truth»
aparecido en Chronicle of Higher Education, escribí que el
Discovery Institute era «una organización de Seattle que
defiende que “la teoría del diseño inteligente” sea
impartida en las escuelas públicas para equilibrar los
“agujeros” de la teoría de la evolución» 470 . Esto al parecer
enfureció a la gente del Discovery Institute, que me atacó
con dos entradas consecutivas en su blog por no reconocer
que por lo visto «se habían opuesto» sistemáticamente a la
enseñanza obligatoria del diseño inteligente en las escuelas
públicas» 471 . Esto es absurdo, pero tal vez fuera parte de
su renovada estrategia para dejar atrás el hedor del fallo
Kitzmiller 472 . Mis amigos me aconsejaron que no
respondiera, pero si lo hubiera hecho, seguramente me
habría valido la pena señalar que hay una diferencia entre
«ordenar» y «defender», y que si fuera cierto que no
defendían la enseñanza del diseño inteligente en las
escuelas públicas, ¿qué sentido tendría todo su trabajo de
relaciones públicas a favor de los demandados del caso
Kitzmiller?
El panorama que aquí se nos presenta es familiar: los
pseudocientíficos no entienden realmente ni respetan lo
que implica la ciencia. Además, con el ejemplo del
creacionismo/diseño inteligente, también cabe la sospecha
de que en este caso la pseudociencia se ha desbordado en
negacionismo, puesto que sus defensores tienen una
decisión tomada antes incluso de haber tomado en
consideración la evidencia, porque sus puntos de vista no
se basan primariamente en ella.
¿Cómo puede aspirar, entonces, el diseño inteligente a
hacerse pasar por ciencia? Parte de la estrategia consiste
en intentar explotar las debilidades de la ciencia.
Recordemos el criterio de Sagan de que la ciencia tiene
que estar abierta a nuevas ideas: aquí los teóricos del
diseño inteligente se quejan de que los evolucionistas están
excluyendo injustamente sus puntos de vista sin atenderlos
debidamente (aunque ellos mismos se niegan a dar crédito
a cualquier evidencia que contradiga sus propias
opiniones). «Enseñar la controversia» es su mantra. En
ciencia debemos examinar todas las cuestiones
imparcialmente porque las ideas pueden venir de cualquier
lugar. Pero entonces, se quejan, ¿por qué las afirmaciones
«científicas» de la teoría del diseño inteligente se excluyen
de las clases de Biología? Porque no hay ninguna. Podría
pasarme aquí muchas páginas desmembrando la evidencia
«científica» de la teoría del diseño inteligente punto por
punto, pero esto ya lo han hecho otros brillante y
exhaustivamente 473 . Por ahora, me estoy preparando para
defender la concisa conclusión del juez Jones en el caso
Kitzmiller de que la teoría del diseño inteligente «no es
ciencia» 474 .
Naturalmente, el teórico del diseño inteligente se
replegaría y dispondría a entablar un largo debate sobre
los orígenes del ojo y el eslabón perdido (una lástima que
los evolucionistas tengan una explicación para ambas
cosas) 475 . Pero esto plantea la importante cuestión de si
vale la pena tener estos debates —¿aceptarían los teóricos
del diseño inteligente los estándares científicos de la
evidencia?—. Como los pseudocientíficos, los teóricos del
diseño inteligente buscan aislar sus puntos de vista de la
refutación. Entienden erróneamente el principio
fundamental que subyace al razonamiento científico, que es
que las creencias que uno adopte deben formarse sobre la
base de la evidencia empírica y cambiar según cambie esta.
Y también tienen otros conceptos erróneos sobre la
ciencia. Para empezar, los teóricos del diseño inteligente
hablan a menudo como si la evolución por selección natural
tuviera que estar completamente probada para que esté
justificado enseñarla en las escuelas. Como hemos visto, así
no es como funciona la ciencia. En el capítulo 2 se dijo que
no importa lo sólida que sea la evidencia, las conclusiones
científicas nunca son seguras. El teórico del diseño
inteligente puede objetar ahora: ¿no es esta la razón por la
que se deben examinar teorías alternativas? Sin embargo,
la respuesta aquí es no, puesto que cualquier teoría
alternativa tiene que estar vinculada al principio de la
justificación basada en una evidencia suficiente, y el diseño
inteligente no la ofrece. Nótese también que cualquier
«agujero» en la teoría evolutiva no apunta necesariamente
a la validez de ninguna teoría alternativa en particular,
salvo que esta pueda aportar una explicación mejor.
¿Nuestra conclusión? La teoría del diseño inteligente es
solo ideología creacionista enmascarada como ciencia. La
objeción de que la evolución no es «ciencia asentada» y
que, como consecuencia de ello, la teoría del diseño
inteligente debe al menos ser tomada en consideración, no
tiene sentido. Hay que ganarse un lugar en el currículum
de la ciencia. Por supuesto, es teóricamente posible que la
teoría de la evolución sea errónea, como cualquier otra
teoría verdaderamente científica. Pero es
abrumadoramente improbable, dada la plétora de
evidencias que la respaldan, desde la microbiología a la
genética. Limitarse a decir: «Tu teoría puede estar
equivocada» o «La mía puede ser verdadera» no es
suficiente en ciencia. Hay que proporcionar alguna
evidencia. Tiene que haber alguna justificación. Así pues,
aunque sea teóricamente verdadero que la evolución podría
ser errónea, esto no supone un argumento a favor de la
teoría del diseño inteligente en mayor medida que de la
religión paródica del pastafarismo y su teoría «científica»
del monstruo espagueti volador, inventada como brillante
sátira por un estudiante de Física sin empleo durante el
juicio Kitzmiller para ilustrar la bancarrota científica de la
teoría del diseño inteligente 476 . De hecho, si la
incertidumbre científica requiriera la aceptación de todas
las teorías alternativas, ¿debería el astrónomo enseñar
también la teoría de la Tierra plana? ¿Deberíamos volver a
la teoría calórica y al flogisto? En ciencia, la certeza puede
ser inalcanzable, pero la evidencia es inexcusable 477 .
Otra objeción predecible de los teóricos del diseño
inteligente es que la selección natural es «solo una teoría».
Recordemos este mito acerca de la ciencia del capítulo 2.
Pero decir que la evolución es una teoría no supone ningún
desdoro para ella. Tener una teoría con un fuerte respaldo
de la evidencia —que respalde sus predicciones, y que se
unifique con otras cosas que creemos en ciencia— es algo
formidable. ¿A quién puede extrañarle que la teoría del
diseño inteligente no pueda estar a la altura?
Sin embargo, lancemos ahora una pregunta provocativa:
¿qué pasaría si pudiera? ¿Qué pasaría si hubiera alguna
evidencia que respaldara alguna predicción planteada por
la teoría del diseño inteligente? ¿Le deberíamos una
comprobación? En mi opinión, así es. Como se señaló
anteriormente, incluso las afirmaciones marginales a veces
deben tomarse en serio (lo que no significa que deban ser
introducidas inmediatamente en las aulas de ciencias). Esto
se debe a que la ciencia está abierta a nuevas ideas. De
esta manera, algunos teóricos marginales que se ponen
nerviosos cuando alguien despacha su trabajo como
pseudociencia pueden plantear legítimamente una queja:
cuando hay evidencia que ofrecer, la ciencia no tiene por
qué descartar una teoría alternativa que se base en algo
que no sea la evidencia. Pero esto significa que para que
una teoría «pseudocientífica» pueda tomarse en serio, tiene
que ofrecer evidencia públicamente disponible que otros
miembros de la comunidad científica que no estén de
acuerdo con ella puedan poner a prueba. Cuando se cumple
este criterio, ¿por qué los científicos no siguen adelante e
investigan?
A veces sí lo hacen.
EL CENTRO PARA EL ESTUDIO DE LAS ANOMALÍAS MECÁNICAS DE
PRINCETON

En 1979, Robert Jahn, decano de la Escuela de


Ingeniería y Ciencias Aplicadas de la Universidad de
Princeton, abrió un laboratorio para «realizar un estudio
científico riguroso de la interacción de la conciencia
humana con dispositivos, sistemas y procesos físicos
sensibles comunes a la práctica de la ingeniería
contemporánea» 478 . Quería, en pocas palabras, estudiar la
parapsicología. Bajo el nombre de Centro para el Estudio
de las Anomalías Mecánicas de Princeton (PEAR, por sus
siglas en inglés), se desarrollaron durante los siguientes
veintiocho años estudios relativos a diversos efectos, el más
famoso de ellos la psicoquinesis, la supuesta capacidad de
la mente humana para influir en sucesos físicos.
Un escéptico podría saltar inmediatamente a la
conclusión de que se trata de una pseudociencia, pero
recordemos que la idea era estudiar esta hipótesis de
manera científica. El equipo de PEAR utilizó máquinas
generadoras de números aleatorios (RNG) y pidió a sus
operadores que intentaran influir en ellas con sus
pensamientos; lo que encontraron fue que había un ligero
efecto estadísticamente significativo de 0,00025. Como dice
Massimo Pigliucci, aunque pueda parecer poco, «si fuera
cierto, todavía supondría una revolución en nuestra manera
de concebir el comportamiento básico de la materia y la
energía» 479 .
¿Qué vamos a hacer ahora? En primer lugar, es
importante que revisemos nuestras estadísticas:

— El tamaño de efecto es el tamaño de la diferencia con


respecto a lo aleatorio. Supongamos que tenemos una
moneda y, tras lanzarla al aire 10 000 veces,
obtenemos cara en 5000 ocasiones. Luego pintamos la
moneda de rojo y sale cara en 5500 ocasiones. La
diferencia de quinientos es el tamaño de efecto.
— El tamaño de la muestra es cuántas veces lanzamos la
moneda al aire. Si lanzamos una moneda pintada solo
20 veces y sale cara en 11 de ellas, el resultado no es
impresionante. Puede deberse solo a la casualidad.
Pero si tiramos la moneda al aire 10 000 veces y en
5500 de ellas sale cara, eso sí es bastante
impresionante.
— El valor p es la probabilidad de que el efecto percibido
se deba al azar. El lector recordará de nuestra
discusión en el capítulo 5 que el valor p no es lo mismo
que el tamaño de efecto. El valor p está influido por el
tamaño de efecto, pero también por el tamaño de la
muestra. Si lanzamos al aire una moneda una gran
cantidad de veces y aun así obtenemos un resultado
extraño, entonces el valor p será bajo, puesto que es
improbable que se deba a la casualidad. Pero el
tamaño de efecto también puede influir en el valor p.
Obtener 5500 de 10 000 lanzamientos es en realidad
un efecto bastante grande. Es mucho menos probable
que un efecto tan grande se deba a la aleatoriedad,
por lo que el valor p disminuye.

Antes de pasar a los resultados del PEAR, saquemos un


par de conclusiones del ejemplo de tirar la moneda.
Recuérdese que el valor p no nos revela la causa de un
efecto, sino únicamente la probabilidad de que veamos si la
hipótesis nula fuera cierta. Así pues, podría ser que la
pintura roja que usamos en la moneda fuera mágica, o
podría ser que la distribución del peso de la pintura
influyera en el lanzamiento de la moneda de tal manera que
caiga de cara más frecuentemente. No podemos decirlo. Lo
que podemos decir, sin embargo, es que tener un número
mayor de ensayos significa que incluso un tamaño de efecto
muy pequeño puede magnificarse. Supongamos que
tenemos una moneda sin pintar de aspecto totalmente
normal que, sin embargo, tuviera un pequeño sesgo debido
a la manera en la que fue acuñada. Al lanzar esa moneda al
aire un millón de veces, ese pequeño sesgo se magnificaría
y terminaría manifestándose en el valor p. El tamaño de
efecto todavía sería pequeño, pero el valor p descendería
debido al número de lanzamientos que habríamos hecho.
Conclusión: la moneda no estaba perfecta. De la misma
manera, un gran tamaño de efecto puede traer consigo
consecuencias muy importantes sobre el valor p incluso si
el número de lanzamientos es pequeño. Supóngase que
tomamos una moneda, la pintamos de rojo y sale cara diez
veces seguidas. Es improbable que esto se deba al azar. Tal
vez hayamos usado pintura con plomo.
Entonces, ¿qué ocurrió en el laboratorio del PEAR?
Hicieron el equivalente a lanzar una moneda al aire
durante veintiocho años seguidos. El tamaño de efecto fue
pequeño, pero el valor p fue minúsculo debido al número
de ensayos. Esto muestra que el efecto no pudo deberse al
azar, ¿no es así? En realidad, no.
Aunque sus conciencias puedan haber estado del lado
correcto —y no quiero acusar a nadie del laboratorio del
PEAR de fraude o incluso de mala intención— sus
resultados pueden haberse debido a una especie de p-
hacking masivo no intencionado. En la discusión de
Pigliucci sobre la investigación del PEAR en su libro
Nonsense on Stilts, queda claro que todo el hallazgo
depende crucialmente de si los generadores de números
aleatorios eran realmente aleatorios 480 .
¿Qué pruebas tenemos de que no lo eran? Esta es la
pregunta equivocada. Recordemos que no podemos decir
acerca de un resultado qué pudo haberlo causado, pero
antes de abrazar la extraordinaria hipótesis de que la
mente humana puede influir en sucesos físicos, debemos
descartar otros factores plausibles que hayan podido
confundirnos 481 . Recordemos que, una vez que hemos
pintado las monedas, no podemos saber si el efecto se
debía a las propiedades «mágicas» de la pintura o a su peso
determinante en una cara de la moneda.
Usando la navaja de Ockham, adivinemos cuál será
opción que adoptará un científico escéptico. De la misma
manera, el efecto en el laboratorio del PEAR podría
haberse debido a la psicoquinesis, pero también a una RNG
defectuosa. Hasta que no descartemos lo segundo, ¡cabe la
posibilidad de que todos esos años de trabajo con máquinas
RNG en el laboratorio de Princeton no muestren en
absoluto que la psicoquinesis sea posible, tanto como
muestran que es físicamente imposible generar números
aleatorios! Como dice Robert Park en Voodoo Science, «en
general se cree que no hay máquinas verdaderamente
aleatorias. Puede ser, por lo tanto, que la falta de
aleatoriedad solo comience a aparecer después de muchos
ensayos» 482 .
¿Cómo podemos diferenciar entre estas hipótesis? ¿Por
qué no hay máquinas aleatorias? Esta es una pregunta sin
respuesta, que va al corazón de si la hipótesis
psicoquinética merece más investigación (o incluso de
cómo podría ser probada). Pero mientras tanto, también es
importante examinar otros factores metodológicos en la
investigación del PEAR. En primer lugar, puede decirse a
su favor que pidieron a otros laboratorios que trataran de
repetir los resultados que habían obtenido. Las peticiones
no fueron atendidas, pero constituyen un indicio de buena
actitud científica 483 . ¿Qué hay de la revisión por pares?
Aquí las cosas se ponen más difíciles. Como señaló en una
ocasión el gerente del laboratorio del PEAR, «enviamos
nuestros datos a revistas de mucho prestigio, pero nadie
los revisó. Hemos sido muy abiertos con nuestros datos.
Pero ¿cómo consigues una revisión por pares cuando no
tienes pares?» 484 . ¿Qué pasa con los controles? Hay
algunos indicios de que se aplicaron controles, pero fueron
insuficientes para cumplir con los parámetros exigidos por
los críticos del PEAR.

Quizá lo más desconcertante del PEAR sea el


hecho de que las sugerencias de los críticos que
debían ser tomadas en consideración eran
desechadas como parte de la rutina. El físico Bob
Park informa, por ejemplo, de que le sugirió a Jahn
dos tipos de experimentos que habrían soslayado las
principales críticas dirigidas al PEAR. ¿Por qué no un
experimento de doble ciego?, preguntó Park.
Hagamos que un segundo RNG determine la tarea del
operador y no permita que esta determinación sea
conocida por el que registra los resultados. Esto
podría haber eliminado cualquier sesgo del
experimentador 485 .

Aunque la investigación del PEAR nunca fue acusada de


fraude, era como mínimo sospechoso que la mitad de su
tamaño de efecto se debiera a ensayos realizados por un
único operario a lo largo de veintiocho años,
presumiblemente un empleado del laboratorio del PEAR.
Acaso las habilidades psíquicas de ese individuo en
concreto fueran mayores que las de los demás operarios.
Puede que nunca se sepa, puesto que el laboratorio del
PEAR cerró definitivamente en 2007. Como señala Jahn:
«Es el momento de una nueva era, de que alguien descubra
cuáles son las implicaciones de nuestros hallazgos para la
cultura humana, para estudios futuros y —si los resultados
son correctos— qué dicen sobre nuestra actitud científica
básica» 486 .
Aun cuando podamos mantenernos escépticos en torno a
los resultados del PEAR, me parece alentador que la
investigación haya ido en primer lugar y que haya sido
tomada lo suficientemente en serio como para que haya
sido criticada. Hubo quien dijo que el laboratorio era una
vergüenza para Princeton, pero yo no estoy seguro de
poder darle la razón.
La actitud científica exige de los investigadores tanto
rigor como un espíritu abierto a la hora de tomar en
consideración los datos producidos científicamente por la
comunidad científica en su conjunto. ¿Fueron los resultados
que nos ocupan científicos o pseudocientíficos? No me
atrevo a llamarlos pseudociencia. No creo que los
investigadores del PEAR se limitaran a fingir ser científicos
en mayor medida que los que se dedican a la fusión en frío
o a la teoría de cuerdas. Quizás cometieron errores en su
metodología. De hecho, si resulta que en realidad no
existiera tal cosa como un generador aleatorio de números,
¡quizás el equipo del PEAR debiera recibir algún
reconocimiento por haberlo descubierto! Por otra parte,
hubiera sido bueno ver alguna forma elemental de control
como dejar que el RNG funcionara solo (tal vez en otra
habitación) durante veintiocho años, sin intentar influir en
él, y medir esto en comparación con el resultado
experimental. Si la máquina de control mostrara el 50 % y
el experimento el 50,00025, yo estaría más inclinado a
tomar los resultados en serio (tanto para mostrar que la
psicoquinesis es posible como que los RNG también lo son).

CONCLUSIÓN
¿Es posible que alguien piense que está en posesión de
la actitud científica, pero que la realidad no sea esa? Las
actitudes son cosas complejas. Tal vez sea el único que
sabe cómo me siento en torno al uso de la evidencia
empírica; solo mis pensamientos personales pueden
decirme si realmente estoy poniendo a prueba o aislando
mi teoría. E incluso aquí tengo que respetar el hecho de
que la autoconciencia tiene numerosos estratos,
complicados por el fenómeno del autoengaño. Sin embargo,
la actitud científica también puede medirse por medio de
las propias acciones. Si afirmo que tengo una actitud
científica y luego me niego a tomar en consideración
evidencia alternativa o rehúso hacer predicciones falsables,
puedo ser criticado con justicia, al margen de si pienso que
mis intenciones son puras. La diferencia entre el
negacionismo y la pseudociencia, por un lado, y la ciencia,
por el otro, va más allá de lo que alberga el científico en su
corazón, o incluso del grupo de científicos que componen la
comunidad científica. Se encuentra también en las acciones
del científico individual y del resto de miembros de la
profesión, acciones que hacen realidad la idea de que la
ciencia se preocupa por la evidencia empírica. Como en
cualquier otro aspecto de la vida, medimos las actitudes no
solo por el pensamiento, sino también por el
comportamiento.

388 Algunos pueden preferir el término «negador» [denier] en lugar de


«negacionista» [denialist] para creencias específicas (por ejemplo, negador de
vacunas), pero el fenómeno en sí mismo se denomina «negacionismo».
Teniendo esto en cuenta, creo que es más claro llamar a las personas que se
dedican a esta práctica «negacionistas», conforme a lo que se ha convertido en
un uso aceptado al menos desde la obra de Michael Specter Denialism: How
Irrational Thinking Hinders Scientific Progress, Harms the Planet, and
Threatens Our Lives (Nueva York, Penguin, 2009).

389 Proporcionaré ejemplos de esto en este mismo capítulo.


390 Y puede causar mucho daño y sufrimiento. Aunque mucho menos abordada
que el cambio climático, la negación del sida es un ejemplo particularmente
pernicioso. Entre 2000 y 2004, investigadores de la Universidad de Harvard
calcularon que la política gubernamental del presidente Thabo Mbeki de
rechazar los medicamentos antirretrovirales occidentales, que contó con el
asesoramiento del científico disidente Peter Duesberg de Berkeley, California,
ha causado 300 000 muertes evitables en Suráfrica. Ver Sarah Boseley, «Mbeki
AIDS Denial “Caused 300,000 Deaths”», Guardian, 26 de noviembre de 2008,
<https://www.theguardian.com/world/2008/nov/26/aids-south-africa>.

391 Ver «Public Praises Science; Scientists Fault Public, Media», Pew Research
Center, U.S. Politics & Policy, 9 de julio de 2009, <http://www.people-
press.org/2009/07/09/public-praises-science-scientists-fault-public-media/>;
Cary Funk y Brian Kennedy, «Public Confidence in Scientists Has Remained
Stable for Decades», Pew Research Center, 6 de abril de 2017,
<http://www.pewresearch.org/fact-tank/2017/04/06/public-confidencein-
scientists-has-remained-stable-for-decades/>; The National Science
Foundation, «Science and Engineering Indicators 2014»,
<http://www.nsf.gov/statistics/seind14/index.cfm/chapter-7/c7h.htm>.

392 Véase el trabajo experimental de Solomon Asch en torno a la conformidad


social de la década de 1950. («Opinions and Social Pressure», Scientific
American 193, núm. 5 [noviembre de 1955], 31-35), que muestra no solo que el
acuerdo solidifica las creencias, sino que la disonancia con los semejantes
puede hacer que el sujeto cambie sus creencias hasta adoptar como tales
falsedades obvias.

393 Lee McIntyre, Respecting Truth: Willful Ignorance in the Internet Age
(Nueva York, Routledge, 2015).

394 Noretta Koertge, «Belief Buddies versus Critical Communities», en M.


Pigliucci y M. Boudry (eds.), Philosophy of Pseudoscience (Chicago, University
of Chicago Press, 2013), 169.

395 Carl Sagan, The Demon-Haunted World: Science as a Candle in the Dark
(Nueva York, Ballantine Books, 1996); ed. en lengua española: El mundo y sus
demonios. La ciencia como una luz en la oscuridad (Barcelona, Planeta, 1995).

396 Sagan, Demon-Haunted World, 304. Véase también la discusión de 31 y


305-330.

397 Ibíd., 305.

398 Ibíd., 305.

399 Ibíd., 13, 100.

400 En su libro, Sagan enumera más de setenta ejemplos diferentes de


pseudociencia, ibíd., 221-222.
401 Sagan, Demon-Haunted World, 187. «Mantener la mente abierta es una
virtud... pero no tanto como para que el cerebro se caiga».

402 A favor de Sagan está el hecho de que enumera tres afirmaciones del
campo de la investigación sobre percepción extrasensorial que a su juicio
merecen ser tomadas en consideración. Sagan, Demon-Haunted World, 302.
Una de ellas —la afirmación de que el pensamiento por sí solo puede influir en
un generador de números aleatorios— recibirá atención más adelante en este
capítulo. Pero no se debería concluir de esto que Sagan es un pusilánime,
puesto que también se adhiere a la idea de Laplace: «Las afirmaciones
extraordinarias requieren pruebas extraordinarias».

403 Véase <http://www.csicop.org/about/csicop>.

404 Más adelante en este capítulo, examinaré con más detenimiento en qué
sentido los científicos son escépticos pero no así los negacionistas. Podría ser
más adecuado decir que los negacionistas son «selectivos» pero, como
veremos, el criterio para ser selectivo de acuerdo con el negacionismo (que
escoge los datos en función de si son coherentes con la ideología) es
científicamente ilegítimo.

405 Sagan, Demon-Haunted World, 304.

406 Aquí, obviamente, voy más allá de lo que dijo Sagan —puesto que él no
abordó el negacionismo—. Sin embargo, me parece útil usar esta matriz como
un dispositivo para considerar las similitudes y diferencias entre el
negacionismo y la pseudociencia.

407 Nótese aquí la distinción entre el propio Andrew Wakefield, que afirmó
fraudulentamente que las vacunas causan autismo, frente al negacionismo de
aquellos que siguen creyendo en su afirmación incluso después de que su
fraude haya sido descubierto.

408 Por supuesto, tienen creencias; lo que ocurre, simplemente, es que no son
creencias científicas. Son ideológicas. Por tanto, es importante lo que los
negacionistas adoptan como estándar para sus otras creencias.

409 Esto puede parecer curioso. Si sus creencias son ideológicas, ¿por qué les
parece necesario contar con alguna evidencia? Porque no están dispuestos a
admitir que sus creencias son ideológicas. Pero entonces están atrapados en un
doble rasero, puesto que, una vez que entramos en el juego de la evidencia,
¿cómo pueden sostener que sus propios puntos de vista están mejor justificados
que los de la ciencia? Esto parece ilusorio. Una vez que un negacionista insiste
en que es su evidencia la que tiene que ser rebatida mientras se olvida de la de
los demás, parece mejor simplemente alejarse.

410 Podríamos comparar provechosamente el escepticismo científico con lo


que Robert Merton llamó «escepticismo organizado» en su ensayo «The
Normative Structure of Science» (1942), reimpreso como capítulo 13 en Robert
Merton (ed.), The Sociology of Science (Chicago, University of Chicago Press,
1973).

411 Hoy en día, no obstante, hay un movimiento en expansión llamado


«filosofía experimental».

412 Aunque esta afirmación pueda parecer incómodamente cercana para los
teóricos de cuerdas, seguramente acogerían con agrado la oportunidad de
poner a prueba sus teorías, incluso si tal oportunidad no está disponible en este
momento.

413 Me ocupo de esta cuestión en mi artículo «The Price of Denialism», New


York Times, 11 de noviembre de 2015,
<https://opinionator.blogs.nytimes.com/2015/11/07/the-rules-of-denialism/>.

414 En un estimulante estudio, Brendan Nyhan y Jason Reifler demostraron


que someter a alguien con creencias sesgadas a pruebas que sugieren que sus
creencias son erróneas puede tener un «efecto contraproducente». Véase
Nyhan y Reifler, «When Corrections Fail: The Persistence of Political
Misperceptions», Political Behavior 22, núm. 2 (2010), 303-330,
<https://www.dartmouth.edu/~nyhan/nyhan-reifler.pdf>. Un estudio anterior
que anticipó estos resultados puede encontrarse en C. Lord, L. Ross y M.
Lepper, «Biased Assimilation and Attitude Polarization: The Effects of Prior
Theories on Subsequently Considered Evidence», Journal of Personality and
Social Psychology 37, núm. 11 (noviembre de 1979), 2098-2109,
<http://dx.doi.org/10.1037/0022-3514.37.11.2098>.

415 Es justo que Sagan no lo presentara como tal, pero parece una extensión
natural de sus puntos de vista. Sostengo que también es un error que los
pseudocientíficos estén abiertos a nuevas ideas; véase más adelante en este
capítulo.

416 Por ejemplo, el ministro de salud del presidente Mbeki afirmó que el SIDA
se puede curar con ajo y jugo de limón. Véase Celia W. Dugger, «Study Cites
Toll of AIDS Policy in South Africa», New York Times, 25 de noviembre de 2008,
<https://www.nytimes.com/2008/11/26/world/africa/26aids.html>.

417 Massimo Pigliucci, Nonsense on Stilts: How to Tell Science from Bunk
(Chicago, University of Chicago Press, 2010), 137.

418 En 2004, en una reseña literaria publicada en Science, la historiadora de


la ciencia Naomi Oreskes encontró que de los 928 documentos científicos
revisados por pares sobre el cambio climático a escala mundial publicados
entre 1993 y 2003, absolutamente ninguno estuvo en desacuerdo con la idea de
que el calentamiento global se estaba produciendo por causas humanas. En un
examen de seguimiento realizado en 2012 se determinó que de 13 950
documentos revisados por pares sobre el cambio climático de 1991 a 2012, solo
el 0,17 % rechazaba el calentamiento global. Para la discusión de algunas de
las pruebas científicas, véanse <http://climate.nasa.gov/evidence/> y
<http://www.ucsusa.org/our-work/global-
warming/scienciaeimpactos/calentamientoglobal-ciencia#.V-beXvkrK1s>.

419 Naomi Oreskes y Erik Conway, Merchants of Doubt (Nueva York,


Bloomsbury, 2010).

420 Respecting Truth, 72-80.

421 Por ejemplo, los senadores James Inhofe y Rick Santorum, y el presidente
Donald Trump.

422 Rebecca Kaplan y Ellen Uchimiya, «Where the 2016 Republican


Candidates Stand on Climate Change», CBSNews.com, 1 de septiembre de
2015, <http://www.cbsnews.com/news/where-the-2016-republican-candidates-
stand-on-climate-change/>.

423 Thomas R. Karl et al., «Possible Artifacts of Data Biases in the Recent
Global Surface Warming Hiatus», Science, 26 de junio de 2015,
<http://science.sciencemag.org/content/348/6242/1469.full>.

424 «Scientific Evidence Doesn’t Support Global Warming, Sen. Ted Cruz
Says», NPR, 9 de diciembre de 2015,
<http://www.npr.org/2015/12/09/459026242/scientific-evidence-doesn-t-
support-global-warming-sen-ted-cruz-says>.

425 Justin Gillis, «Global Warming “Hiatus” Challenged by NOAA Research»,


New York Times, 4 de junio de 2015,
<http://www.nytimes.com/2015/06/05/science/noaa-research-presents-
evidence-against-a-global-warming-hiatus.html>.

426 Michele Berger, «Climate Change Not on Hiatus, New Research Shows»,
Weather.com, 4 de junio de 2015,
<https://weather.com/science/environment/news/no-climate-change-hiatus-
noaa-says>.

427 Para el gráfico incorrecto, véase


<http://scienceblogs.com/significantfigures/files/2013/04/updated-global-
temperature.png>. Para el correto, <http://cdn.arstechnica.net/wp-
content/uploads/2015/06/noaa_karl_etal-640x486.jpg>.

428 Hace poco, la Associated Press no dejó a nadie contento con su cambio de
política para dejar de llamar a los negacionistas del cambio climático
«negadores» o «escépticos» y usar en su lugar el término «incrédulos»
[dubters]. Por un lado, estaban quienes se quejaban de que el término
«negador» se asemejaba demasiado a «negacionista del Holocausto», y, por el
otro, quienes decían que el término «escéptico» estaba y debía estar asociado
con el escepticismo científico. La solución de compromiso, por supuesto, da la
impresión de que todavía hay «espacio para la duda» acerca de la verdad del
cambio climático, lo cual no es mejor que usar el término «escéptico». Puneet
Kollipara, «At Associated Press, No More Climate Skeptics or Deniers»,
Sciencemag.org, 23 de septiembre de 2015,
<http://www.sciencemag.org/news/2015/09/associated-press-no-more-climate-
skeptics-or-deniers>.

429 Sí, todavía existen, y tienen una formidable página web. Sin embargo, uno
se pregunta si creen que su tráfico de Internet utiliza satélites, pues ¿alrededor
de qué orbitarían?

430 McIntyre, Respecting Truth, 73. Sin embargo, en una interesante revisión,
se encontró que prácticamente todos los artículos contrarios al cambio
climático adolecían de errores metodológicos. R. E. Benestad, D. Nuccitelli, S.
Lewandowsky et al., «Learning from Mistakes in Climate Research»,
Theoretical and Applied Climatology 126, 3-4 (2016), 699,
<https://doi.org/10.1007/s00704-015-1597-5>.

431 Tomado de una encuesta de 2009 realizada por el Pew Research Center
citada en <https://ncse.com/blog/2013/08/how-many-creationists-science-
0014996>.

432 Thomas Kuhn lo explica bien en su Estructura de las revoluciones


científicas.

433 V. Koertge, «Belief Buddies versus Critical Communities».

434 Philip Bump, «Ted Cruz Compares Climate Change Activists to “Flat-
Earthers”: Where to Begin?», Washington Post, 25 de marzo de 2015,
<https://www.washingtonpost.com/news/the-fix/wp/2015/03/25/ted-cruz-
compares-climate-change-activists-to-flat-earthers-where-to-begin/>. Sin
embargo, técnicamente hablando, lo que Galileo puso en cuestión fue el
geocentrismo: no todo geocentrista creía en la Tierra plana.

435 John Soennichsen, Bretz’s Flood: The Remarkable Story of a Rebel


Geologist and the World’s Greatest Flood (Seattle, WA, Sasquatch Books,
2008), 126.

436 Soennichsen, Bretz’s Flood, 131.

437 Soennichsen, Bretz’s Flood, 133.

438 Ibíd., 143-144.

439 Sin duda, muchos compararían a Bretz con el geólogo contemporáneo


Alfred Wegener, cuya teoría de la tectónica de placas fue objeto de una enorme
mofa y rechazo, y cuya rehabilitación solo se produjo muchos años después de
su muerte. Soennichsen, ibíd., 165-168.

440 Muchos de los críticos de Bretz nunca habían visitado los terrenos
erosionados, Soennichsen, Bretz’s Flood, 201. Esto permite rememorar que uno
de los críticos de la teoría de Galileo rechazó mirar por su telescopio.
441 Soennichsen, ibíd., 160.

442 Soennichsen, Bretz’s Flood, 191, 207.

443 Véase <http://magazine.uchicago.edu/0912/features/legacy.shtml>.

444 Soennichsen, Bretz’s Flood, 144.

445 Ibíd., 226. Así funciona a veces la ciencia; véase Kuhn, La estructura de las
revoluciones científicas.

446 Soennichsen, Bretz’s Flood, 228.

447 Soennichsen, Bretz’s Flood, 231.

448 Por ejemplo, <http://www.godsaidmansaid.com/printtopic.asp?


ItemId=1354>.

449 Esto no quiere decir que Bretz socavara el uniformismo en general. De


hecho, la mayoría de las características geológicas pueden explicarse por un
cambio gradual a lo largo de un vasto período de tiempo. Lo que hizo, sin
embargo, fue mostrar que había excepciones a una única explicación de todos
los fenómenos geológicos, en particular las características de la región de los
terrenos erosionados en forma de canales.

450 Nótese que este es el punto de mi afirmación anterior de que Pigliucci


parece estar equivocado cuando dice que la ciencia es «lo que hacen los
científicos». ¿Qué hay de los que se comportan como los que lucharon contra
Bretz?

451 Recuérdese, por ejemplo, la teoría de Stephen Jay Gould sobre el equilibrio
puntuado, que, si bien es científicamente controvertida, demuestra sin
embargo que es posible ofrecer una hipótesis no teológica para proponer un
cambio repentino en los eventos naturales,
<http://www.pbs.org/wgbh/evolution/library/03/5/l_035_01.html>.

452 Otro ejemplo podría extraerse de algunos de los errores cometidos por
Stephen Jay Gould en su trabajo sobre el racismo científico. Véase la
despiadada acusación de Robert Trivers contra Gould, de quien consideraba
que había estado al borde de cometer un fraude al servicio de su agenda
política: «Fraud in the Imputation of Fraud: The Mis-Measure of Stephen Jay
Gould», Psychology Today, 4 de octubre de 2012,
<https://www.psychologytoday.com/blog/the-folly-fools/201210/fraud-in-the-
imputation-fraud>.

453 Si bien es cierto que otras consideraciones como la consistencia interna, el


poder explicativo, el alcance, la productividad y otras similares pueden a veces
ser relevantes para la elección de una teoría en ciencia, lo ideal es que se
utilicen dentro de un contexto en el que más de una teoría concuerde con la
evidencia y en el que aún deba hacerse una elección. Esto quiere decir que
concordar con la evidencia es una condición necesaria que la pseudociencia no
cumple. Para una discusión en torno al papel determinante que los «factores
sociales» pueden desempeñar a veces en la elección de una teoría, véase La
estructura de las revoluciones científicas de Kuhn. Sin embargo, incluso Kuhn
cree que si una teoría no concuerda con la evidencia, ninguna suma de otras
consideraciones debería ser capaz de salvarla.

454 Es difícil obtener cifras exactas, pero este cálculo es de Paul Kurtz, el
prominente filósofo y escéptico estadounidense, de un estudio de 1985 sobre la
industria de la astrología. Brian Lehrer, «Born Under a Dollar Sign Astrology is
Big Business, Even If It Is All Taurus», Orlando Sentinel, 10 de noviembre de
1985, <http://articles.orlandosentinel.com/1985-11-
10/news/0340290056_1_astrology-columns-un-sign-astrology-scientific-fact>.

455 Véase «34 Billion Spent Yearly on Alternative Medicine», NBCNews.com,


30 de julio de 2009, <http://www.nbcnews.com/id/32219873/ns/health-
alternative_medicine/t/billion-spent-yearly-alternative-medicine/#.V-
bqYPkrK1t>.

456 Que uno llame a la pseudociencia «engaño» o «fraude» tal vez importe
poco, pero prefiero considerar la adopción de la actitud científica para a
continuación traicionarla como un fraude, mientras que aquellos que solo
pretenden abrazarla mientras afirman que realizan un trabajo científico son
falsarios.

457 Mi ejemplo favorito aquí, cortesía de Carl Sagan, es por qué un médium
que dice estar en contacto con el fantasma de Fermat nunca le pide que le
proporcione los detalles de su prueba perdida.

458 Quienes sientan curiosidad por estos esfuerzos en curso, pueden echar un
vistazo a The Skeptical Inquirer, publicado por CSICOP:
<http://www.csicop.org/si>. El trabajo de Sagan es magistral aquí. Véase en
particular su capítulo «The Fine Art of Baloney Detection» [«El sutil arte del
detector camelos»] en Demon Haunted World.

459 Michael Ruse, But Is It Science? The Philosophical Question in the


Creation/Evolution Controversy (Amherst, NY, Prometheus Books, 1996);
Pigliucci, Nonsense on Stilts, 160-186; McIntyre, Dark Ages: The Case for a
Science of Human Behavior (Cambridge, MA, MIT Press, 2006), 85-92;
McIntyre, Respecting Truth, 64-71.

460 En contra del mito popular de una «victoria moral» en el juicio (que se
convirtió en la obra y película Inherit the Wind), la ley antievolución de
Tennessee permaneció en los libros hasta que fue revocada en 1967.

461 Ruse, But Is It Science?, 320.

462 McIntyre, Respecting Truth, 67-68.


463 Véase <https://www.nytimes.com/2001/04/08/us/darwin-vs-design-
evolutionists-newbattle.html>. Podría haber ayudado más a los defensores del
diseño inteligente que uno de sus textos centrales no hubiera sido una revisión
literal de un texto creacionista anterior, con el único cambio de eliminar la
palabra «creacionista» y sustituir la palabra «defensor del diseño», excepto por
un lugar en el que se descuidaron, donde ponía «cdefensores del diseño»
[cdesign proponentsists].

464 Véase <https://ncse.com/library-resource/discovery-institutes-model-


academic-freedom-statute>.

465 McIntyre, Respecting Truth, 69.

466 De hecho, en un artículo absolutamente brillante, Nicholas Matzke ha


hecho un análisis filogenético de la relación familiar entre todos estos
proyectos de ley, utilizando una de las principales herramientas de la evolución
para examinar la legislación antievolución. «The Evolution of Antievolution
Policies after Kitzmiller v. Dover», Science 351, núm. 6268 (1 de enero de
2016), 28-30,
<http://science.sciencemag.org/content/early/2015/12/16/science.aad4057>.

467 Laura Moser, «Another Year, Another Anti-Evolution Bill in Oklahoma»,


Slate, 25 de enero de 2016,
<http://www.slate.com/blogs/schooled/2016/01/25/oklahoma_evolution_controv
ersy_two_new_bills_present_alternatives_to_evolution.html>.

468 John Timmer, «This Year’s First Batch of Anti-Science Education Bills
Surface in Oklahoma», Ars Technica, 24 de enero 2016,
<http://arstechnica.com/science/2016/01/this-years-first-batch-of-anti-science-
education-bills-surface-in-oklahoma/>.

469 Véase <https://ncse.com/creationism/general/chronology-academic-


freedom-bills>.

470 Lee McIntyre, «The Attack on Truth», Chronicle of Higher Education, 8 de


junio de 2015, <http://www.chronicle.com/article/The-Attack-on-
Truth/230631>.

471 Véase
<http://www.evolutionnews.org/2015/06/willful_ignoran096781.htmld>;
<http://www.evolutionnews.org/2015/06/say_what_you_wa096811.html>.

472 «Después del caso Kitzmiller, incluso el Discovery Institute, la sede


institucional de la teoría del diseño inteligente, afirmó que nunca había
alentado la enseñanza del diseño inteligente en las escuelas públicas (lo que
era incorrecto) ni promovido con entusiasmo las “leyes de libertad académica”»
(AFA, por sus siglas en inglés), destinadas a animar a los profesores a fomentar
el antievolucionismo» Matzke, «Evolution of Antievolution Policies», 1.
473 La fuente clásica es Michael Ruse, But Is It Science? Véase también
Massimo Pigliucci, Denying Evolution: Creationism, Scientism, and the Nature
of Science (Sunderland, MA, Sinauer Associates, 2002); Donald Prothero,
Evolution: What the Fossils Say and Why It Matters (Nueva York, Columbia
University Press, 2007); Sahotra Sarkar, Doubting Darwin? Creationist Designs
on Evolution (Nueva York, Wiley-Blackwell, 2007).

474 El pronunciamiento judicial del caso Kitzmiller es una lectura fascinante y


se puede encontrar en
<https://ncse.com/files/pub/legal/kitzmiller/highlights/200512-
20_Kitzmiller_decision.pdf>. Haciéndose eco de la decisión del juez Overton en
el caso McLean contra Arkansas en 1981, el juez Jones sostuvo que si una
teoría no puede ser probada como errónea por ninguna evidencia posible,
entonces no es científica. La transcripción completa de la decisión en la
decisión McLean puede encontrarse en Ruse, But Is It Science?

475 Véase Ruse, But Is It Science? Véase también Pigliucci, Denying Evolution;
Prothero, Evolution; Sarkar, Doubting Darwin?

476 Bobby Henderson, The Gospel of the Flying Spaghetti Monster (Nueva
York, Villard Books, 2006).

477 Un teórico del diseño inteligente podría quejarse de que es injusto


comparar su teoría con la del flogisto porque esta fue refutada, pero el
problema es que su propia teoría no es falsable, por lo que no ofrece ninguna
posibilidad de ser refutada.

478 Véase <http://skepdic.com/pear.html>.

479 Pigliucci, Nonsense on Stilts, 78.

480 Pigliucci, Nonsense on Stilts, 77-80. En la pág. 78, Pigliucci argumenta


que lo que estaba haciendo el PEAR no era pseudociencia, sino simplemente
cometer un error.

481 De hecho, algunos podrían argumentar que la mejor evidencia de que los
RNG no fueron verdaderamente aleatorios fue el propio efecto. Esto, por
supuesto, pide la cuestión en contra de la investigación y hay que intentar
hacerlo mejor.

482 Robert Park, Voodoo Science: The Road from Foolishness to Fraud (Oxford,
Oxford University Press, 2000), 199.

483 Véase
<http://www.csicop.org/si/show/pear_lab_closes_ending_decades_of_psychic_re
search>.

484 Benedict Carey, «A Princeton Lab on ESP Plans to Close Its Doors», New
York Times, 10 de febrero de 2007.
485 Véase <http://skepdic.com/pear.html>.

486 Carey, «A Princeton Lab».


CAPÍTULO 9

El caso de las ciencias sociales

En los últimos dos capítulos, hemos presenciado diversos


ejemplos de fallos al intentar emular la actitud científica.
Ya sea por fraude, negacionismo o pseudociencia, muchos
de los que pretenden preocuparse por la evidencia no
cumplen con los criterios más exigentes de investigación
empírica. Una cuestión clave que hay que considerar aquí
es la motivación. Algunos de estos fracasos ocurren porque
las personas involucradas no aspiran realmente a ser
científicas (tal vez porque están más preocupadas por cosas
como la ideología, el ego o el dinero que por la integridad
científica) y solo buscan atajos hacia la gloria científica.
Ahora bien, ¿qué ocurre con aquellas personas que se
consagran al estudio en campos que quieren volverse más
científicos —y que están dispuestas a trabajar duro para
ello— pero que no aprecian completamente la función que
la actitud científica puede cumplir para alcanzar ese
objetivo? En el capítulo 6, vimos el poder de la actitud
científica para transformar un campo que inicialmente no
era científico, la medicina, en una ciencia consolidada. ¿Se
presenta ahora la misma perspectiva para las ciencias
sociales? Durante años, muchos han argumentado que si
las ciencias sociales (economía, psicología, sociología,
antropología, historia y ciencias políticas) pudieran emular
el «método científico» de las ciencias naturales, también
podrían ser más científicas. Pero este sencillo consejo se
enfrenta a varios problemas.
DESAFÍOS A LA CIENCIA DEL COMPORTAMIENTO HUMANO

Hay muchas maneras diferentes de llevar a cabo la


investigación social. Los psicólogos sociales han
encontrado conveniente depositar su confianza en
experimentos controlados (y los economistas conductuales
apenas están empezando a hacerlos), pero en otras áreas
de la investigación social sencillamente no es posible usar
los datos dos veces 487 . En antropología, tenemos trabajo de
campo. Y, hasta hace poco, los economistas neoclásicos
desdeñaban la idea de que la dependencia de supuestos
simplificadores debilitara la aplicabilidad de sus modelos
teóricos al comportamiento humano. En este sentido, las
ciencias sociales no se diferencian del todo de las ciencias
naturales. Con la física de Newton como modelo, es fácil no
reparar en el hecho de que el estudio de la naturaleza es
diverso desde el punto de vista metodológico: los geólogos
no pueden hacer experimentos controlados y los biólogos
se abstienen con frecuencia de hacer predicciones
demasiado concretas. Sin embargo, desde que los
positivistas lógicos (y Popper) afirmaron que lo especial de
la ciencia era su método, muchos han pensado que las
ciencias sociales estarían mejor si trataran de tomar como
modelo el tipo de investigación que se lleva a cabo en las
ciencias naturales.
Esta idea ha causado algunos retrocesos a lo largo de los
años por parte tanto de los científicos sociales como de los
filósofos de las ciencias sociales, que han sostenido que no
se puede aspirar a hacer ciencias sociales como si fueran
ciencias naturales. Los respectivos objetos de estudio son
demasiado diferentes en cada caso. Lo que queremos con el
comportamiento humano no es por lo general reducirlo a
las fuerzas causales que influyen en él. Así pues, si fuera
cierto que solo hay una manera de hacer ciencia —una
manera que se define por la metodología única de la
ciencia natural (si no por el «método científico» mismo)—,
sería fácil hacerse una idea de por qué algunos podrían
perder la confianza en que las ciencias sociales lleguen a
ser algún día más científicas.
En trabajos anteriores, me esforcé mucho tratando de
identificar debilidades en los argumentos de acuerdo con
los cuales hay una barrera fundamental que impide tener
una ciencia de la acción humana debido a la complejidad o
amplitud de la materia objeto de estudio, a la incapacidad
de realizar experimentos sociales controlados y a las
especiales dificultades derivadas de la subjetividad y el
libre albedrío en la investigación social 488 . Sigo creyendo
que mis argumentos aquí son válidos, principalmente
porque la complejidad y la amplitud forman parte también
de la investigación científica dedicada a la naturaleza, y las
otras supuestas barreras tienen menos efecto en el
desempeño real de la investigación social de lo que sus
críticos podrían suponer. También creo que estos
problemas son exagerados; si fueran realmente una barrera
para la investigación, probablemente mostrarían que gran
parte de las ciencias naturales tampoco debería funcionar.
Pero, por el momento, deseo adentrarme en un camino más
prometedor con el fin de defender la posibilidad de una
ciencia del comportamiento humano, porque ahora me doy
cuenta de que lo que ha estado ausente en las ciencias
sociales durante todos estos años no es un método
apropiado, sino una actitud correcta hacia la evidencia
empírica 489 .
Al igual que Popper, nunca he creído que exista algo así
como el método científico, pero he sostenido que lo que
hace a la ciencia especial es su metodología 490 . Popper, por
supuesto, sostuvo que las ciencias sociales no eran
falsables, por lo que no podían ser científicas 491 . He
argumentado en contra de esa idea y he sostenido que en
todo sentido significativo podría haber paridad
metodológica entre la investigación natural y la social.
Puede ser, pero hay que tener en cuenta un punto crucial.
Lo que hace que la ciencia sea especial —tanto la ciencia
natural como la social— no es solo la forma en la que los
científicos llevan a cabo su investigación, sino la actitud
que da forma a sus prácticas.
Demasiada investigación social es vergonzosamente poco
rigurosa. No se trata solo de métodos a veces pobres:
mucho más grave es la actitud no empírica que hay detrás
de ellos. Muchos estudios supuestamente científicos sobre
inmigración, armas de fuego, pena de muerte y otros temas
sociales importantes están infectados por las opiniones
políticas o ideológicas de los investigadores, de tal manera
que es de todo menos inesperado que algunos
investigadores lleguen a conclusiones en línea con las
tendencias políticas izquierdistas, mientras que otros
produzcan resultados conservadores directamente
opuestos a las primeras. Un buen ejemplo aquí es la
cuestión de si los inmigrantes «pagan a su manera» o son
un «obstáculo neto» para la economía estadounidense. Si
esto es verdaderamente una pregunta empírica (y creo que
lo es), entonces ¿por qué puedo citar cinco estudios que
muestran que los inmigrantes son una aportación neta y
otros cinco que muestran que no lo son, y probablemente
pueda adivinar qué estudios salieron de qué centros de
investigación y quiénes fueron sus autores? 492 . No estoy
aquí acusando a nadie de fraude o pseudociencia. Son
estudios científicos sociales pretendidamente rigurosos
realizados por académicos muy respetados —es solo que
sus hallazgos sobre cuestiones de hecho son
completamente contradictorios entre ellos—. Esto no se
toleraría en física, ¿por qué se tolera en sociología? ¿A
quién puede extrañarle que los políticos de Washington
sean tan renuentes a basar sus políticas en el trabajo de los
científicos sociales y en lugar de eso seleccionen aquellos
estudios que vienen a respaldar sus preferencias
ideológicas?
Lo cierto es que tales cuestiones están abiertas al
estudio empírico y las ciencias sociales tienen a su alcance
el abordarlas científicamente. Hay respuestas correctas e
incorrectas a preguntas en torno al comportamiento
humano. ¿Experimentan los seres humanos un «efecto
contraproducente» cuando se exponen a evidencia que
contradiga sus inclinaciones en torno una cuestión
empírica (en vez de normativa), como, por ejemplo, si había
armas de destrucción masiva en Irak o si el presidente
George W. Bush propuso una prohibición completa de la
investigación con células madre? ¿Hay algo así como un
sesgo implícito y, en tal caso, cómo se puede medir? Tales
cuestiones pueden ser, y han sido, estudiadas
científicamente 493 . Aunque los científicos sociales pueden
seguir en desacuerdo (y de hecho, esto es una señal
saludable en las investigaciones en curso), sus desacuerdos
deben centrarse en la mejor manera de investigar estas
cuestiones, no en si las respuestas son políticamente
aceptables. Tener actitud científica hacia la evidencia es
tan necesario en el estudio del comportamiento humano
como en el estudio de la naturaleza.
Sin embargo, la investigación contemporánea en ciencias
sociales adolece de numerosos problemas:

(1) Demasiada teoría: una serie de estudios en ciencias


sociales propone respuestas que no han sido
probadas a la luz de la evidencia. El ejemplo típico es
la economía neoclásica, donde un número de
suposiciones simplificadoras —absoluta racionalidad,
información perfecta— resultan en hermosos modelos
cuantitativos que tienen poco que ver con el
comportamiento humano real.
(2) Ausencia de experimentación/datos: salvo la
psicología social y el nuevo campo emergente de la
economía conductual, gran parte de las ciencias
sociales todavía no recurren a la experimentación, ni
siquiera cuando es posible. Por ejemplo, a veces se
presenta como justificación para incluir a los
delincuentes sexuales en una base de datos pública
que se trata de una medida que reduce la tasa de
reincidencia. Esto debe valorarse, no obstante, en
comparación con cuál habría sido la tasa de
reincidencia sin la Sex Offender Registry Board
(SORB), algo que es difícil de medir y ha producido
respuestas divergentes 494 . Esto exacerba la dificultad
en (1), de acuerdo con el cual se aceptan las
explicaciones teóricas preferidas aunque no hayan
sido comprobadas a la luz de ninguna evidencia
experimental.
(3) Conceptos difusos: en algunos estudios en ciencias
sociales, los resultados son cuestionables debido al
uso de conceptos «delegados» [proxy] para lo que
realmente se desea medir. Ejemplos recientes
incluyen la medición de la cordialidad [warmth] como
sustituto de la confianza [trustworthiness] (ver
detalles en la próxima sección), lo que puede llevar a
conclusiones engañosas.
(4) Infección ideológica: este problema está generalizado
en las ciencias sociales, especialmente cuando se
ocupan de cuestiones políticamente significativas. Un
ejemplo reciente es la degradación del trabajo
empírico sobre el efecto disuasorio de la pena capital
o sobre la eficacia del control de armas para mitigar
la delincuencia. Si uno sabe de antemano lo que
quiere encontrar, probablemente lo encuentre 495 .
(5) Selección parcial de datos: como hemos visto, el uso
de la estadística permite múltiples «grados de
libertad» a los investigadores científicos, pero lo más
probable es que se abuse de ello. En los estudios
sobre inmigración, por ejemplo, gran parte de la
diferencia tiene que ver con formas alternativas de
calcular los «costes» que produce la inmigración.
Obviamente, esto también está relacionado con (4). Si
conocemos nuestra conclusión, podemos buscar los
datos que la respaldan.
(6) Ausencia de puesta en común de datos: como informa
Trivers, hay numerosos casos documentados de
investigadores que no comparten los datos de sus
estudios psicológicos, a pesar de que las revistas
patrocinadas por la APA exigen que así lo hagan 496 .
Cuando los datos fueron analizados posteriormente,
se encontraron errores con mayor frecuencia a favor
de la hipótesis del investigador.
(7) Ausencia de replicación: como se vio anteriormente,
la psicología está atravesando una crisis de
reproducibilidad. Se podría argumentar válidamente
que el hallazgo inicial de que casi dos tercios de los
estudios en psicología eran irreproducibles fue
exagerado (véase Gilbert et al., 2016), pero es, sin
embargo, chocante que la mayoría de los estudios ni
siquiera se intente replicar. Esto puede llevar a
dificultades, puesto que los errores pueden pasar
desapercibidos.
(8) Causalidad cuestionable: es una verdad «evangélica»
en la investigación estadística que «correlación no es
igual a causalidad»; sin embargo, algunos estudios en
ciencias sociales continúan destacando resultados
llamativos de valor cuestionable. Un estudio
sociológico reciente, por ejemplo, encontró que
matricularse en una universidad elitista estaba
relacionado con las visitas de los padres a los museos
de arte, sin sugerir explícitamente que esto era con
bastante seguridad una consecuencia de los ingresos
de los padres 497 .

Todos estos problemas también se pueden encontrar


hasta cierto punto en el trabajo en ciencias naturales.
Algunos de los otros problemas identificados en capítulos
anteriores (p-hacking, problemas con la revisión por pares)
también pueden darse en el trabajo en ciencias sociales. La
cuestión no es tanto que estas dificultades sean exclusivas
de la investigación social, sino que algunas de ellas son
especialmente frecuentes en ella. Aunque las ciencias
naturales también los padecen, los problemas de las
ciencias sociales son proporcionalmente mayores.
El problema de las ciencias sociales no es que no sigan
ningún método prescrito, ni que no adopten ciertos
procedimientos científicos, sino que algunas prácticas aún
no se han implantado en la práctica a escala grupal de tal
manera que pongan de manifiesto un compromiso de toda
la disciplina con la actitud científica. Los conceptos difusos
o los errores de causalidad cuestionable pueden no ser un
problema tan grave si uno puede contar con que sus
colegas los captarán, pero en muchos casos —en un
entorno en el que los datos no se difunden y la replicación
no es la norma— se cuelan demasiados errores. Las
ciencias sociales, al igual que las ciencias naturales,
necesitan adoptar la actitud científica con respecto a la
evidencia y darse cuenta de que la única manera de
resolver una disputa empírica es con evidencia empírica.
Debería considerarse una vergüenza que haya tanta
opinión, intuición, teoría e ideología en el trabajo de los
científicos sociales. Así como ahora nos estremecemos
cuando echamos la vista atrás y rememoramos la cirugía
con las manos desnudas, podremos preguntarnos algún día:
«¿Por qué nadie puso a prueba esta hipótesis» en ciencias
sociales?». Nada garantiza la honestidad de la gente como
el escrutinio público. Debemos hacer una mayor puesta en
común de datos y replicación en las ciencias sociales.
Necesitamos mejorar la revisión por pares e implantar
verdaderos controles científicos. Y tenemos que reconocer
que es vergonzoso que hasta hace poco muchas ciencias
sociales ni siquiera hayan intentado ser experimentales. En
comparación con el viejo modelo neoclásico en economía,
el nuevo modelo conductual es un soplo de aire fresco. Y
todo esto es posible gracias a la adopción de una actitud
científica.
Si los científicos sociales estuvieran más preocupados,
tanto individualmente como en grupo, confiar en la
evidencia y construir mejores procedimientos con los que
capitalizarla, las ciencias sociales estarían en una situación
mejor. Pueden seguir para ello el mismo camino que antes
había recorrido la medicina.
Estemos realizando una comprobación controlada o
haciendo trabajo de campo, la actitud apropiada para la
investigación social debe corresponderse con lo que
previamente señaló Emile Durkheim: «Cuando [nosotros]
penetramos en el mundo social, debemos estar preparados
para hacer descubrimientos que [nos] sorprenderán y
conturbarán» 498 . Debemos abandonar la creencia de que
solo por el hecho de ser humanos estamos básicamente
preparados para entender el comportamiento humano.
Cuando sea posible, necesitamos realizar experimentos que
desafíen nuestras ideas preconcebidas, de modo que
podamos descubrir cómo funciona realmente la acción
humana, en lugar de cómo nuestros modelos matemáticos y
la teoría abstracta nos dicen que debería funcionar.
Y todo esto se aplica tanto al trabajo cualitativo como al
cuantitativo. Si bien es cierto que en las ciencias sociales
hay algunas pruebas que pueden ser irreductiblemente
cualitativas (véase el trabajo de Clifford Geertz sobre la
«descripción gruesa» [thick description] en su libro The
Interpretation of Cultures [Basic Books, 1973]), aún queda
pendiente la cuestión de cómo medirla. De hecho, en el
caso del trabajo cualitativo, debemos estar especialmente
atentos para evitar la arrogancia y la parcialidad. Nuestras
intuiciones sobre la naturaleza humana probablemente no
son más profundas que las de los médicos del siglo XVIII
sobre la infección 499 . Los datos pueden y deben
sorprendernos. El hecho de que un resultado «se perciba
como correcto» no significa que lo sea. El sesgo cognitivo y
todas las demás amenazas al buen trabajo científico en el
estudio de la naturaleza no son una amenaza en menor
medida para quienes se consagran al estudio del
comportamiento humano. La revolución en las ciencias
sociales puede ser más actitudinal que metodológica, pero
esto no significa que no deba llegar a todos los rincones de
nuestra manera de hacer investigación.
Durante años, muchos han pensado que las ciencias
sociales podían mejorar haciéndose más «objetivas». Los
positivistas lógicos, en particular, se aferraron a la
distinción entre hechos y valores, según la cual los
científicos debían preocuparse solo de sus resultados y no
del uso que se les pudiera dar. Pero estaban equivocados.
Si bien es cierto que no debemos dejar que nuestras
esperanzas, deseos, creencias y «valores» coloreen nuestra
indagación de los «hechos» en torno al comportamiento
humano, eso no significa que los valores carezcan de
importancia. Pero estaban equivocados. Si bien es cierto
que no debemos dejar que nuestras esperanzas, deseos,
creencias y «valores» den color a nuestra indagación de los
«hechos» en torno al comportamiento humano, eso no
significa que los valores carezcan de importancia. De
hecho, resulta que nuestro compromiso con la actitud
científica es un valor esencial en la realización de la
investigación científica. La clave para tener una ciencia
social más rigurosa no es el método científico, sino la
actitud científica.

UN CAMINO A SEGUIR: EMULAR LA MEDICINA

Si pensamos en la situación de la medicina en la época


de Semmelweis, las analogías con las ciencias sociales
están claras. El conocimiento y los procedimientos se
basaban en la sabiduría, la intuición y las costumbres
populares. Los experimentos eran escasos. Cuando alguien
ideaba una teoría, se consideraba que era suficiente con
plantearse si «tenía sentido», aunque no hubiera evidencia
empírica que la respaldara. La pretensión misma de reunir
evidencia que respaldara una teoría chocaba con la
creencia de que los médicos ya conocían la causa de la
mayoría de las enfermedades. A pesar de la espantosa
ignorancia y las prácticas atrasadas de la medicina a lo
largo de la mayor parte de su historia, se produjeron
abundantes teorías que rara vez fueron desafiadas o
puestas a prueba. Por eso fue Semmelweis tan
revolucionario. Quería saber si sus ideas resistían al ser
puestas a prueba en la práctica. Entendió que el
conocimiento se va acumulando a medida que se eliminan
las hipótesis incorrectas sobre la base de su falta de
concordancia con la evidencia. Sin embargo, su enfoque
chocó con la férrea oposición de casi todos sus colegas.
La medicina en aquel momento no había adoptado
todavía la actitud científica. ¿Lo hacen ahora las ciencias
sociales? En algunos casos la respuesta es afirmativa, pero
el problema es que incluso en aquellos casos en los que el
trabajo se hace bien, muchos pueden sentirse con libertad
para no tomar nota. En una sociedad en la que las fuerzas
del orden siguen confiando en el testimonio de testigos
oculares y realizan ruedas de reconocimiento, a pesar de la
alarmante tasa de falsos positivos que se registran con
estos métodos, tenemos que preguntarnos si he aquí nada
más que otro ejemplo en el que la práctica va por detrás de
la teoría 500 . Las políticas públicas sobre el crimen, la pena
de muerte, la inmigración y el control de armas rara vez se
basan en auténticos estudios empíricos. Sin embargo, al
menos en parte, el problema también parece estar
relacionado con las persistentes inconsistencias normativas
en la investigación científica social. Esto ha dañado la
reputación de las ciencias sociales y ha hecho difícil que el
buen trabajo se haga notar. Como hemos visto, el que
tantos estudios no sean replicados o saquen conclusiones
diferentes a partir del mismo conjunto de hechos es algo
que no infunde confianza. Ya sea por una metodología
descuidada, infección ideológica u otros problemas, lo
cierto es que aunque haya respuestas correctas e
incorrectas a muchas de nuestras preguntas sobre la
acción humana, la mayoría de los científicos sociales aún
no está en condiciones de encontrarlas. No es que no haya
ningún trabajo en ciencias sociales que sea lo
suficientemente riguroso, pero cuando los responsables
que dirigen las políticas (al igual que a veces otros
investigadores) no están seguros de qué resultados son
fiables, todo el campo se desprestigia.
Hubo un tiempo en el que la medicina tenía una
reputación igual de mala, pero salió de su «edad oscura»
precientífica gracias a los avances individuales que
constituyeron el criterio de la práctica grupal y a cierto
grado de normativización en torno a lo que debía
considerarse evidencia. Hasta la fecha, las ciencias sociales
aún no han concluido su revolución hacia la evidencia.
Podemos encontrar algunos ejemplos de actitud científica
en la investigación social que han tenido cierto éxito, pero
todavía no se ha dado una aceptación a escala de toda la
disciplina de la idea de que el estudio del comportamiento
humano tiene que basarse en teorías y explicaciones que se
pongan a prueba teniendo en cuenta la experimentación y
la observación. Como la medicina precientífica, muchas de
las ciencias sociales se basan hoy en día en la ideología, las
corazonadas y la intuición.
En la próxima sección, proporcionaré un ejemplo de lo
que puede llegar a ser una ciencia social que abrace en su
plenitud la actitud científica. Antes de llegar a ese punto,
sin embargo, es importarte abordar una cuestión pendiente
que muchos consideran una barrera insuperable a la
consecución de una ciencia del comportamiento humano.
Hay quien ha dicho que las ciencias sociales son únicas
debido al problema inherente de que en ellas unos seres
humanos estudian a otros seres humanos —nuestros
valores interferirán inexorablemente con cualquier
investigación «objetiva»—. Este es el problema del sesgo
subjetivo. Sin embargo, la medicina sirve como ejemplo de
un campo de investigación que ya ha resuelto este
problema y ha avanzado como ciencia.
En su contenido, la medicina es, en muchos sentidos,
como las ciencias sociales. Tenemos valores irreductibles
que inevitablemente guiarán nuestra investigación:
valoramos la vida por encima de la muerte, la salud por
encima de la enfermedad. Ni siquiera podemos empezar a
adoptar la postura «desinteresada» del científico, cuya
investigación no le preocupa más allá de encontrar la
respuesta correcta. Los científicos médicos se desesperan
porque sus teorías funcionen, porque hay vidas que están
en juego. ¿Cómo lo hacen para lidiar con esto? No es,
desde luego, bajando los brazos y admitiendo la derrota,
sino confiando en buenas prácticas científicas, como los
ensayos clínicos aleatorios de doble ciego, la revisión por
pares y la divulgación de los conflictos de intereses. El
efecto placebo es real, tanto para los pacientes como para
sus médicos. Si queremos que un medicamento funcione,
podemos influir sutilmente en el paciente para que piense
que funciona. Pero ¿a quién serviría esto? Cuando se trata
de cuestiones de hecho, los investigadores médicos se dan
cuenta de que influir con sus propias expectativas en los
resultados de su trabajo es casi tan malo como amañarlos.
Así pues, se protegen contra la arrogancia de pensar que
ya conocen la respuesta mediante la institución de
salvaguardas metodológicas. Protegen lo que les importa
reconociendo el peligro de la parcialidad.
La mera presencia de valores o la preocupación por el
objeto de estudio no anula la posibilidad de la ciencia.
Todavía podemos aprender de la experiencia, incluso si
estamos totalmente inmersos en la esperanza de que un
fármaco funcione o una teoría sea cierta, siempre y cuando
no dejemos que eso se interponga en el camino de una
buena práctica científica. Todavía podemos tener actitud
científica, incluso en presencia de otros valores que puedan
darse junto a ella. De hecho, es precisamente porque los
investigadores médicos y los propios médicos reconocen
que son vulnerables a sesgos por lo que se han instituido
prácticas que están en consonancia con la actitud
científica. No quieren dejar de preocuparse por la vida
humana, simplemente quieren hacer una ciencia mejor
para promover la salud frente a la enfermedad. De hecho,
si realmente nos preocupan las consecuencias humanas, es
mejor que aprendamos de la experiencia, como demuestra
claramente la historia de la medicina. Solo cuando
tomamos medidas para preservar nuestra objetividad —en
lugar de hacer como si eso no hiciera falta o fuera
imposible— mejora la ciencia que hacemos.
Al igual que la medicina, las ciencias sociales son
subjetivas. Y también son normativas. Tenemos interés no
solo en saber cómo son las cosas, sino también en utilizar
el conocimiento que obtengamos para hacer que las cosas
sean como creemos que deben ser. Estudiamos el
comportamiento electoral con el fin de preservar los
valores democráticos. Estudiamos la relación entre
inflación y desempleo para mitigar la próxima recesión. Sin
embargo, a diferencia de la medicina, hasta ahora los
científicos sociales no han demostrado ser muy eficaces
para encontrar una manera de proteger la investigación
positiva de las expectativas normativas, lo que lleva al
problema de que, en lugar de adquirir un conocimiento
objetivo, tal vez solo nos estemos dejando llevar por el
sesgo de la confirmación y las ilusiones. Esta es la
verdadera barrera que impide una mejor ciencia social. No
es solo que nuestras herramientas sean ineficaces o
nuestro objeto de estudio recalcitrante; es que de alguna
manera todavía no tenemos lo suficientemente en cuenta
nuestra propia ignorancia como para mantener la
honestidad al comparar nuestras ideas implacablemente
con los datos. El desafío en las ciencias sociales es
encontrar una manera de preservar nuestros valores sin
permitir que interfieran con la investigación empírica.
Necesitamos entender el mundo antes de poder cambiarlo.
En medicina, la respuesta es la experimentación
controlada. ¿Cuál puede ser en ciencias sociales?
EJEMPLOS DE BUENA Y MALA CIENCIA SOCIAL

Incluso cuando «investigan», el trabajo de los científicos


sociales muchas veces no es experimental. Esto significa
que buena parte de lo que se considera «evidencia» en
ciencia social se basa en extrapolaciones de encuestas y
otros conjuntos de datos que pueden haber sido realizados
por otros investigadores con otros fines. Pero esto puede
llevar a varios problemas metodológicos, como la confusión
entre causalidad y correlación, el uso de conceptos difusos
y algunas de las demás debilidades de las que hablamos
anteriormente en este capítulo. Una cosa es decir que la
«mala» ciencia social no es más que teoría sin evidencia,
infectada de ideología, que no se basa lo suficiente en la
experimentación real, que no es replicable, etc., y otra
distinta es ver cómo se plasma esto en la práctica.
Un ejemplo de mala investigación en ciencias sociales
puede encontrarse en un artículo de 2013 a cargo de Susan
Fiske y Cydney Dupree titulado «Gaining Trust as Well as
Respect in Communicating to Motivated Audiences about
Science Topics», que se publicó en la sección Perspectives
de Proceedings of the National Academy of Science 501 . En
este estudio, los investigadores se propusieron estudiar un
tema que tiene gran importancia para la defensa de la
ciencia: si la supuesta baja confiabilidad de los científicos
podría estar socavando su capacidad de persuasión sobre
cuestiones de hecho como el cambio climático. ¿Sorprende
que se considere que los científicos no son dignos de
confianza? Fiske y Dupree dicen tener pruebas empíricas
de ello.
En su estudio, los investigadores llevan a cabo en primer
lugar una encuesta en línea entre adultos estadounidenses
a quienes se les pedía que enumeraran trabajos que les
parecieran típicamente estadounidenses. Se quedaron a
continuación con los cuarenta y dos trabajos más
comúnmente mencionados, entre los que se encontraban el
de científico, investigador, profesor y maestro 502 . El
siguiente paso consistió en seleccionar una nueva muestra
para preguntar sobre la «cordialidad» frente a la
«competencia» de los practicantes de estas profesiones.
Aquí se encontró que los científicos puntuaban mucho en
experiencia (competencia) pero relativamente poco en
cordialidad (confiabilidad). ¿Qué tiene que ver la
cordialidad con la confianza? Su hipótesis era que la
confiabilidad se correlaciona positivamente con la
cordialidad y la simpatía. En resumen, si juzgo que alguien
está «de mi lado», es más probable que confíe en esa
persona. Pero si bien hay trabajos empíricos que muestran
que si alguien es considerado «como nosotros» 503 , es más
probable que le otorguemos nuestra confianza, un salto
mayor es ponerse a usar «cordialidad» y «confiabilidad»
como términos intercambiables entre ellos.
Primero, hay que prestar atención al salto entre (1) «si X
está de mi lado, entonces X es más confiable» y (2) «si X no
está de mi lado, entonces X es menos confiable». Por lógica
elemental, entendemos que la afirmación (2) no está
implícita en la afirmación (1), ni al revés. De hecho, el salto
de (1) a (2) es el error lógico clásico de negar el
antecedente. Esto significa que incluso si hubiera evidencia
empírica a favor de la verdad del enunciado (1), la verdad
del enunciado (2) todavía está en duda. En ninguna parte
del artículo de Fiske y Dupree se menciona evidencia
alguna que respalde el enunciado (2), si bien la relación
bicondicional entre «estar de mi lado» y «ser digno de
confianza» es el punto crucial de su conclusión de que es
sensato utilizar la «cordialidad» como sustituto con el que
medir la «confiabilidad» desde un punto de vista
metodológico 504 . ¿No es concebible que los científicos sean
juzgados como no cordiales y a la vez dignos de confianza?
De hecho, ¿no habría sido más directo que los
investigadores simplemente se hubieran limitado a pedir a
los sujetos que puntuaran la confiabilidad de diversas
profesiones? Uno se pregunta cuál habría sido entonces el
resultado. Sin embargo, por cualquier razón, los
investigadores eligieron no tomar esta ruta y en su lugar
decidieron saltar alegremente de un lado a otro entre las
mediciones de cordialidad y las conclusiones sobre la
confiabilidad en el artículo.

[Los científicos] obtienen respeto pero no


confianza. Ser percibido como competente pero frío
puede no parecer un problema mientras uno no
recuerde que la credibilidad del comunicador
requiere no solo estatus y experiencia (competencia),
sino también confiabilidad (cordialidad) [...] Incluso si
los científicos son respetados como competentes, es
posible que no se confíe en ellos como cordiales 505 .

He aquí un ejemplo clásico de conceptos difusos en


investigación en ciencias sociales, en el que nociones
diferentes reciben el tratamiento de intercambiables,
presumiblemente porque una de ellas es más fácil de medir
que la otra. En este caso, no estoy convencido de ello,
porque la «confianza» no es un concepto esotérico del que
los sujetos de la investigación no puedan informar, pero
encontramos en este artículo la conclusión de que los
científicos tienen un problema de «confianza» en lugar de
un problema de «cordialidad» sobre la base de una
medición directa cero del propio concepto de confianza 506 .
Esto es desafortunado, porque el propio estudio de los
investigadores parece dar motivos para dudar de la verdad
de sus propias conclusiones. En un seguimiento, Fiske y
Dupree revelan que como último paso eligieron a los
científicos del clima para una revisión posterior, y en este
caso hicieron la encuesta sobre una nueva muestra de
sujetos con una metodología ligeramente diferente para la
medición de la confianza. Aquí, en lugar de supuestamente
medir la «confianza», trataron de medir la «desconfianza»
mediante una escala de siete puntos que incluía cosas como
la percepción de «motivos para mentir con las estadísticas,
complicar una historia sencilla, mostrar superioridad,
ganar dinero para la investigación, perseguir una agenda
izquierdista, provocar al público y dañar a las grandes
corporaciones» 507 . Los investigadores se sorprendieron al
encontrar que los científicos del clima eran juzgados como
más confiables que los científicos en general (en
comparación con su encuesta anterior). ¿Cuál podría ser la
razón de esto? Ofrecen la hipótesis de que la escala era
diferente (lo que plantea la cuestión de por qué tomaron la
decisión de usar una escala diferente), pero también lanzan
la idea de que los científicos del clima tal vez tenían un
enfoque más «constructivo hacia el público, equilibrando la
experiencia (competencia) con la confiabilidad
(cordialidad), lo que en conjunto facilita la credibilidad de
los comunicadores» 508 . Me parece una conclusión
cuestionable, ya que en la parte final del estudio no se
midió en absoluto la «cordialidad» de los científicos del
clima, pero los investigadores se sienten cómodos una vez
más trazando paralelismos entre confiabilidad y
cordialidad 509 .
A modo de contraste, exploraré a continuación un
ejemplo de buen trabajo científico social firmemente
arraigado en la actitud científica que se basa en la
evidencia empírica para desafiar una hipótesis teórica
intuitiva y recurre a métodos experimentales para medir la
motivación humana directamente por medio de la acción
humana. En el trabajo de Sheena Iyengar sobre la paradoja
de la elección, nos enfrentamos a un dilema clásico en
ciencias sociales. ¿Cómo puede medirse algo tan amorfo
como la motivación humana por medio de la evidencia
empírica? De acuerdo con la economía neoclásica, medimos
el deseo del consumidor directamente según el
comportamiento del mercado. La gente comprará lo que
quiera, y el precio es un reflejo de cuánto valor se le
atribuye a un bien. Para elaborar los detalles matemáticos,
sin embargo, se requieren algunas «suposiciones
simplificadoras». En primer lugar, suponemos que nuestras
preferencias son racionales. Si me gusta más el pastel de
cereza que el de manzana, y de manzana más que el
arándano, se supone que me gusta más la cereza que el
arándano 510 . En segundo lugar, suponemos que los
consumidores tienen información perfecta sobre los
precios. Se sabe perfectamente que esto no es cierto en
casos individuales, pero la economía neoclásica lo adopta
como supuesto básico, puesto que necesita explicar cómo
el mercado en su conjunto lleva a cabo la mágica tarea de
ordenar las preferencias en función de los precios 511 .
Aunque se reconoce que los consumidores reales pueden
cometer «errores» en el mercado (por ejemplo, no saber
que el pastel de cereza está a la venta en un mercado
cercano), el modelo pretende funcionar correctamente
alegando que, si fueran conscientes de ello, cambiarían su
comportamiento. Finalmente, el modelo neoclásico supone
que «más es mejor». Esto no quiere decir que no exista una
utilidad marginal decreciente —que el último bocado de
pastel de cereza probablemente no sepa tan bien como el
primero—, sino que para los consumidores es mejor tener
más opciones en el mercado, ya que así es como pueden
maximizarse las preferencias de cada uno.
En su trabajo, Sheena Iyengar trató de probar esta
última suposición directamente por medio de un
experimento. Había mucho en juego, pues si podía
demostrar que esta suposición simplificadora era errónea,
entonces, teniendo en cuenta también el trabajo anterior
de Herbert Simon que socavaba la «información perfecta»,
el modelo neoclásico podría quedar comprometido. Iyengar
y su colega Mark Lepper prepararon un experimento de
elección controlada del consumidor en una tienda de
comestibles donde se les ofrecía a los compradores la
oportunidad de probar diferentes tipos de mermelada. En
la condición de control, a los compradores se les ofrecieron
veinticuatro opciones diferentes. En la condición
experimental, las opciones se redujeron a seis. Para
asegurar la presencia de diferentes compradores en las dos
condiciones, los expositores rotaban cada dos horas y se
establecieron otros controles científicos. Iyengar y Lepper
buscaron medir dos cosas: (1) cuántos sabores diferentes
de mermelada eligieron probar los compradores y (2)
cuánta mermelada total compraron cuando salieron de la
tienda. Para medir esto último, a todos los que se
acercaban a degustar se les entregaba un cupón codificado,
para que los investigadores pudieran rastrear si el número
de mermeladas en el expositor afectaba al comportamiento
de compra posterior. Y alguna vez así ocurrió. A pesar de
que el despliegue inicial de veinticuatro mermeladas atrajo
un poco más el interés de los clientes, su conducta
posterior manifestó una cantidad de compras bastante baja
en comparación con los que habían visitado la tienda
cuando se exponían solo seis mermeladas. Aunque cada
expositor atrajo al mismo número de catadores de
mermelada (eliminando así el hecho de la degustación
como variable causal para explicar la diferencia), los
compradores que habían visitado la exposición con
veinticuatro mermeladas usaban sus cupones solo el 3 % de
las veces, mientras que los que visitaban la pantalla con
solo seis atascos usaban el suyo el 30 % de las veces.
¿Qué podría explicar esto? En su análisis, Iyengar y
Lepper especularon con que los compradores podrían
haberse sentido abrumados en la primera condición 512 .
Aunque pudieron haber probado algunas mermeladas, el
porcentaje sobre la muestra total era tan pequeño que tal
vez sintieron que no podían estar seguros de haber elegido
la mejor, así que prefirieron no comprar ninguna. En la
segunda condición, sin embargo, los compradores podrían
haber sido más capaces de racionalizar la elección basada
en una muestra proporcionalmente mayor. Resultó que la
gente quería menos opciones. Aunque no se dieran cuenta
de ello, su comportamiento revelaba un hecho
sorprendente sobre la motivación humana 513 .
Aunque el experimento pueda parecer trivial, tiene
implicaciones de largo alcance. Una de las implicaciones
más importantes del hallazgo de Iyengar y Lepper era el
problema del subahorro en los planes 401(k), con los cuales
los nuevos empleados suelen sentirse abrumados por la
cantidad de opciones a su alcance para invertir su dinero,
de tal manera que deciden retrasar su decisión, lo que
efectivamente significa elegir no invertir dinero en
absoluto. En Respecting Truth, he indagado en otras
implicaciones de esta investigación que van desde la
inscripción automática en planes de pensiones a la
introducción de fondos de jubilación con «fecha límite» 514 .
No solo se trata de buena ciencia social, sino que ha tenido
un considerable impacto positivo en vidas humanas.
Para los propósitos actuales, la cuestión es esta. Incluso
en una situación en la que podemos sentirnos más en
contacto con nuestro tema —la preferencia y el deseo
humanos—, podemos equivocarnos a propósito de lo que
influye en nuestro comportamiento. Si le preguntamos a la
gente si quiere más o menos opciones, la mayoría dirá que
quiere más. Pero su comportamiento real contradice esa
idea. Los resultados de la evidencia experimental en el
estudio de la acción humana pueden sorprendernos.
Incluso conceptos tan aparentemente cualitativos como el
deseo, la motivación y la elección humana pueden medirse
en condiciones experimentales en lugar de dejarse a la
mera intuición, teoría o informe verbal.
Aquí rememoramos una vez más la figura de
Semmelweis. ¿Cómo podemos saber lo que es cierto antes
de hacer un experimento? Nuestras intuiciones pueden
parecer sólidas a primera vista, pero el experimento
demuestra que pueden fallar. Y esto vale tanto para las
ciencias sociales como para la medicina. Los datos sobre el
comportamiento humano pueden ser tan útiles en las
políticas públicas como en el diagnóstico y tratamiento de
enfermedades humanas. Por lo tanto, la actitud científica es
recomendable tanto para las ciencias sociales como para
cualquier otra disciplina empírica. Si nos preocupamos por
la evidencia y estamos dispuestos a cambiar de opinión
sobre una teoría basada teniendo en cuenta sobre la base
de la evidencia, ¿qué mejor ejemplo podríamos poner ante
nosotros que el exitoso experimento de Iyengar y Lepper?
De la misma manera que Pasteur, gracias a su elegante
modelo experimental, pudo derrocar la obsoleta idea de la
generación espontánea, ¿sería capaz la economía de
avanzar partiendo del reconocimiento del impacto del
sesgo cognitivo y la irracionalidad en la elección humana?
Y quizás este mismo enfoque podría trasplantarse con
éxito a todas las ciencias sociales. Todo el trabajo reciente
sobre el sesgo cognitivo, por ejemplo, podría ayudarnos a
desarrollar un enfoque más eficaz en torno a la educación
científica y a corregir las percepciones erróneas del público
sobre el cambio climático. Si los investigadores citados por
Fiske y Dupree como fundamento de su trabajo tienen
razón (algo que no tiene nada que ver con el problema de
una supuesta conexión entre cordialidad y confiabilidad),
entonces la actitud es tan importante a la hora de tomar
una decisión como la evidencia.

Primero, los científicos pueden malinterpretar las


fuentes de las creencias profanas. La gente no es
idiota. El problema del público con la ciencia no es
necesariamente la ignorancia. El público sabe cada
vez más acerca de las causas del cambio climático...
Las posibles divisiones entre los científicos y el
público no son simplemente acerca del mero
conocimiento.
El segundo factor, a menudo descuidado, es el otro
lado de las actitudes. Las actitudes son evaluaciones
que incluyen tanto la cognición (creencias) como el
afecto (sentimientos, emociones). Actuar sobre las
actitudes implica tanto la capacidad cognitiva como
la motivación. En las actitudes se pone de manifiesto
una presión intrínseca para la consistencia entre la
cognición y el afecto, así que para la mayoría de las
actitudes, ambas son relevantes. Cuando las
actitudes se inclinan hacia el énfasis ya sea en la
cognición o en el afecto, la persuasión es más
efectiva cuando coincide con el tipo de actitud. En el
ámbito del cambio climático, por ejemplo, los efectos
y los valores juntos motivan la cognición del clima. Si
las actitudes del público tienen dos caras —creencia y
afecto—, ¿cuál es su papel en la comunicación
científica? 515 .

Si esto es cierto, ¿qué avances podrían ser posibles una


vez que obtengamos mejor evidencia experimental de cómo
funciona realmente la mente humana? Los seres humanos
actuales no tienen información perfecta; tampoco son
perfectamente racionales. Sabemos que nuestra razón está
atenazada por prejuicios cognitivos que lleva incorporados
y permiten que un mar de emociones, percepciones
equivocadas y deseos nuble nuestro juicio. Si pretendemos
hacer mejor el trabajo de convencer a la gente de que
acepte el consenso científico en torno a cuestiones como el
cambio climático, esto nos dará un incentivo valioso para
que los científicos sociales pongan orden en su propia casa.
Una vez que hayan encontrado la manera de hacer que sus
disciplinas se vuelvan más científicas, quizá puedan
desempeñar un papel más activo en ayudarnos a defender
la causa de la ciencia en su conjunto.

487 Esto se debe, al menos en parte, al problema de la predicción reflexiva,


que es cuando un sujeto humano tiene en cuenta una predicción de su
comportamiento, lo que a su vez afecta a sus acciones. Téngase en cuenta, sin
embargo, que esto no necesariamente hace que el comportamiento humano sea
impredecible a escala individual o grupal; pero sí hace imposible ejecutar un
experimento contrafáctico y ver qué habría ocurrido si no se hubiera
compartido ninguna información con el sujeto en primer lugar.

488 Lee McIntyre, Laws and Explanation in the Social Sciences: Defending a
Science of Human Behavior (Boulder, CO, Westview Press, 1996); Lee
McIntyre, Dark Ages: The Case for a Science of Human Behavior (Cambridge,
MA, MIT Press, 2006).

489 Por supuesto, la actitud puede influir en el método (como reconocí en Dark
Ages, 20), pero ahora deseo poner más énfasis en la importancia de esa
dinámica.

490 McIntyre, Dark Ages, 93.

491 Popper, «Prediction and Prophecy in the Social Sciences», en Conjectures


and Refutations: The Growth of Scientific Knowledge (Nueva York, Harper
Torchbooks, 1965), 336-346. Edición española: «Predicción y profecía en las
ciencias sociales», en Conjeturas y refutaciones: el desarrollo del conocimiento
científico (Barcelona, Paidós, 1983), 403-416.

492 McIntyre, Dark Ages, 123, n. 4.


493 McIntyre, Respecting Truth: Willful Ignorance in the Internet Age (Nueva
York, Routledge, 2015), 37.

494 Steven Yoder, «Life on the List», American Prospect, 4 de abril de 2011,
<http://prospect.org/article/life-list>. En este caso, tal vez también existan
consideraciones normativas: podríamos creer que los delincuentes sexuales
merecen ser castigados más allá de su condena o que los vecinos tienen
derecho a saber dónde viven. Sin embargo, si ese es el caso, la tasa de
reincidencia es irrelevante.

495 McIntyre, Dark Ages, 63-68.

496 Robert Trivers, «Fraud, Disclosure, and Degrees of Freedom in Science»,


Psychology Today (entrada de blog: 10 de mayo de 2012),
<https://www.psychologytoday.com/blog/the-folly-fools/201205/fraud-
disclosure-and-degrees-freedom-in-science>.

497 Jay Gabler y Jason Kaufman, «Chess, Cheerleading, Chopin: What Gets You
Into College?», Contexts 5, núm. 2 (primavera de 2006): 45-49. Si escarba, uno
se encuentra con que esto se basó en un estudio anterior en el que los
investigadores sí tuvieron en cuenta el estatus socioeconómico, pero aun así
incidir en la idea de que existe una relación causal directa entre las visitas de
los padres a los museos y la admisión a la universidad resulta sospechoso. Por
ejemplo, especulan con que el hecho de dejar caer el nombre de la última
exposición de arte en el Whitney durante una entrevista puede hacer que el
solicitante parezca más «material universitario». Esta hipótesis, sin embargo,
nunca fue probada. Jason Kaufman y Jay Gabler, «Cultural Capital and the
Extracurricular Activities of Girls and Boys in the College Attainment Process»,
Poetics 32 (2004), 145-168.

498 Emile Durkheim, The Rules of Sociological Method, author’s preface


(París, 1895).

499 Pensemos en la medicina antes de Semmelweis: los argumentos sobre la


intuición sin datos con los que comparar son peligrosos en la investigación
científica. Debemos conservar la honestidad y buscar pruebas empíricas,
dondequiera que estén disponibles.

500 Un estudio de larga duración ha proporcionado una alternativa superior y


rentable a las alineaciones simultáneas, pero ha sido rotundamente rechazado
por numerosos organismos cuya misión es hacer cumplir la ley, entre ellos el
FBI. R. C. Lindsay y G. L. Wells, «Improving Eyewitness Identification from
Lineups: Simultaneous versus Sequential Lineup Presentation», Journal of
Applied Psychology 70 (1985), 556-564.

501 Susan Fiske y Cydney Dupree, «Gaining Trust as Well as Respect in


Communicating to Motivated Audiences about Science Topics», Proceedings of
the National Academy of Science 111, supl. 4 (16 septiembre de 2014): 13593-
13597, <http://www.pnas.org/content/111/Supplement_4/13593.full>.
502 Fiske y Dupree, «Gaining Trust».

503 M. Brewer y R. Brown, «Intergroup Relations», en D. Gilbert, S. Fiske y G.


Lindzey (eds.), Handbook of Social Psychology (Nueva York, Oxford University
Press, 1998), 554-595.

504 Tienen un argumento que vincula si alguien está «de mi lado» con que se
le considere «cordial». Lo que necesitan, sin embargo, es cierta evidencia de
que existe una relación bidireccional entre ser cordial y merecer confianza.

505 Fiske y Dupree, «Gaining Trust».

506 Esto sucede más a menudo de lo que podría parecer en la investigación


científica social. El experimento más cuidadosamente diseñado puede fallar si
se extrae la conclusión errónea de la evidencia. Muchos experimentos
científicos sociales muestran algo, pero quizás no lo que los investigadores
pretenden.

507 Fiske y Dupree, «Gaining Trust».

508 Ibídem.

509 Seguramente haya muchos más ejemplos que podrían citarse aquí. Ahora
bien, ¿merezco ser criticado por haber elegido un ejemplo particularmente
flagrante? No lo creo, puesto que este estudio fue realizado por investigadores
de un centro R1 (Princeton) y publicado en una prestigiosa revista. En cuanto
al sesgo de selección, me encontré con este estudio mientras buscaba
información sobre cómo los científicos podrían convertirse en mejores
comunicadores sobre temas como el cambio climático.

510 Para más información sobre las suposiciones clásicas que los economistas,
entre otros, han adoptado sobre la racionalidad humana, y cómo se desvanecen
frente a la evidencia experimental, véase Daniel Kahneman, Thinking Fast and
Slow (Nueva York, FSG, 2011).

511 Un desafío muy temprano a esto, sin embargo, se puede encontrar en el


trabajo de Herbert Simon sobre la racionalidad limitada y la satisfacción. Véase
Herbert A. Simon, «Theories of Bounded Rationality», capítulo 8 de Decision
and Organization, págs. 239-244, C. B. McGuire y Roy Radner (eds.)
(Ámsterdam, North-Holland, 1972).

512 Nótese que la especulación es a veces necesaria incluso en los estudios


científicos mejor realizados, pero aquí se centró en torno a una materia de
investigación rigurosa, bajo condiciones controladas, lo que permitió el
seguimiento científico posterior.

513 Sheena Iyengar y Mark Lepper, «Rethinking the Value of Choice: A


Cultural Perspective on Intrinsic Motivation», Journal of Personality and Social
Psychology 76, núm. 3 (1999), 349-366.
514 McIntyre, Respecting Truth, 29-36.

515 Fiske y Dupree, «Gaining Trust».


CAPÍTULO 10

Valorar la ciencia

Si la concepción de la ciencia que acabo de esbozar en


este libro es correcta, estamos en posición de hacer tres
cosas: (1) entender y (2) defender el éxito de la ciencia
donde hasta ahora ha existido, y (3) extenderla a otros
lugares. Si ámbitos como las ciencias sociales desean
volverse más rigurosos, deben seguir el camino recorrido
por otros campos de estudio como la medicina: deben
abrazar la actitud científica.
La actitud científica nos ha ayudado a darnos cuenta de
que lo que la ciencia tiene de distintivo no es el supuesto
«método científico» que sigue, sino el respeto por el poder
de la evidencia empírica para dar forma y cambiar nuestras
teorías, así como la confianza en las prácticas de escrutinio
crítico llevadas a cabo por nuestros pares para descubrir
nuestros errores si nosotros no los hemos descubierto. La
evidencia tiene importancia en la ciencia, y reconocerlo es
el valor más importante que marca la diferencia entre
quienes hacen ciencia y quienes no la hacen. Aunque la
evidencia por sí sola no pueda determinar qué teoría es
«verdadera», la prioridad de la evidencia empírica es lo
que le proporciona a la ciencia su especial poder
explicativo. Nos mantiene en el buen camino cuando
nuestras ideas imperfectas y debilidades humanas
amenazan con extraviarnos.
Ahora también entendemos por qué teorías ideológicas
como el diseño inteligente o el negacionismo acerca del
cambio climático no deberían ser consideradas científicas,
puesto que en cierta manera descansan sobre la antítesis
de la actitud científica. Priman la ideología sobre la
evidencia. No tienen la humildad de la investigación
científica, que nos empuja no hacia la certeza, sino más
plausiblemente hacia el abandono de alguna idea falsa nos
gustaría creer desesperadamente. La explicación científica
no es solo «saber manejar» la tecnología ni tratar de
probar una teoría.
Pero la explicación científica no es menos especial si
terminamos aceptándola por lo que es. No necesitamos
hacer como si toda teoría científica fuera en principio
reducible a la física, o como si el éxito de las teorías
científicas significara una mayor probabilidad de que sean
ciertas. La ciencia es un proceso racional que nos permite
aprender cómo reexaminar constantemente y descartar
nuestros prejuicios, deseos y corazonadas en torno al
mundo y reemplazarlas con conclusiones que puedan
hacerse cuadrar con los datos de la experiencia humana.
Esta es la raíz de la fundamentación científica. A pesar del
hecho de que la ciencia no pueda llevarnos a la «verdad»,
todavía constituye una manera única y destacable de
conocer. Finalmente, darse cuenta de que la ciencia tiene
que ver con la actitud y no con el método —con buscar
justificación en vez de saltar a una conclusión en torno a la
verdad— supone, sin embargo, tener una herramienta
excepcionalmente poderosa en nuestro arsenal explicativo.
A pesar de todas estas limitaciones, es la mejor invención
que haya creado nunca la mente humana para reunir
conocimiento empírico. Como tal, es digna de ser
entendida, emulada y defendida.
Queda por responder, no obstante, una cuestión
significativa, puesto que ahora que he realizado una
defensa tan robusta de la ciencia, alguien podría preguntar
si no debería dar un paso más allá y proponer la actitud
científica como un nuevo criterio de demarcación. Confío
en haber dejado claro en capítulos anteriores por qué no
considero que este sea un movimiento sabio (o necesario).
Ahora que estamos cerca de terminar, permítaseme añadir
algunas palabras al respecto. A lo largo de este libro, no he
terminado de precisar con nitidez la definición de la actitud
científica y me he resistido a enumerar demasiados
criterios, puesto que creo que se le hace un flaco favor a la
ciencia cuando se intenta especificar demasiado qué es
ciencia y qué no. La tentación aquí puede ser reducir la
actitud científica a alguna especie de fórmula
metodológica, pero mi esperanza es que la actitud
científica sea usada no para construir un muro, sino para
iluminar un camino que muestre por dónde deben transitar
otras disciplinas si desean hacerse más científicas.
No es lo mismo decir que la actitud científica constituye
una condición necesaria que decir que es una condición
suficiente 516 . Como se ha dicho antes, en la medida en que
estemos indagando y defendiendo lo que tiene de especial
la ciencia, en mi opinión deberíamos renunciar al uso de
condiciones suficientes. Una investigación puede dejar de
ser científica de muchas maneras. Esta es la razón por la
que he planteado la actitud científica solo como condición
necesaria. Pero mi vacilación ante la cuestión de si
participar en un juego de «si y solo si» que muchos
filósofos de la ciencia han considerado anteriormente como
imprescindible para diferenciar la ciencia de la no-ciencia
nos ayuda a evitar un obstáculo mucho peor —puesto que si
ponemos nuestras esperanzas en encontrar un conjunto de
condiciones necesarias y suficientes para la ciencia, los
criterios pueden ser tan exigentes que nunca demos con
una respuesta satisfactoria a la pregunta de qué es lo
distintivo de la ciencia, lo que dejaría a la ciencia indefensa
— 517 . Hay quien señalará que yo también tengo un flanco
abierto —que quizá mi concepción sea demasiado
permisiva a la hora de determinar qué es ciencia—. Si todo
lo que se necesita es la actitud científica, ¿por qué no
deberíamos considerar ciencia cualquier ejemplo en el que
alguien utilice el proceso de eliminación o se apoye en
evidencia obtenida mediante la observación? ¿Recordamos
la discusión en torno a si el acto de buscar unas llaves
extraviadas debe considerarse ciencia? ¿Recordamos el
absurdo de la ley de Bode?
Tal vez haya que seguir trabajando para fijar las
condiciones necesarias para hacer ciencia. Tener una teoría
desarrollada podría ser una de ellas. Si la actitud científica
requiere que usemos la evidencia para poner a prueba una
teoría, ¡mejor que estemos seguros de que contamos con
una teoría que poner a prueba! Como demuestra la ley de
Bode, la ciencia es algo más que una serie de conjeturas
afortunadas. El hecho de que nuestra «teoría» encaje con
la evidencia solo accidentalmente no nos proporciona
ninguna fundamentación. La teoría newtoniana puede
llevarnos a la Luna y viceversa (incluso si es errónea),
mientras que la ley de Bode predijo con éxito la existencia
de dos nuevos planetas (aunque no había ninguna teoría en
la que se basara), pero la primera tiene una
fundamentación y la segunda no. ¿Por qué? Porque el éxito
instrumental no es la suma total de lo distintivo de la
ciencia. También nos preocupa la justificación. Cuando
usamos la actitud científica, estamos poniendo a prueba
una teoría a la luz de la evidencia. Que una teoría pueda
estar equivocada no quita que sea científica. Sin embargo,
con la ley de Bode no había teoría alguna que comprobar.
El éxito de la ley de Bode pone de manifiesto que también
en la investigación empírica es posible tener suerte 518 .
Pero eso no es ciencia. El éxito por sí solo no defiende la
ciencia. Así como la falsedad de una teoría no hace que
deje de ser científica, el mero encaje con la evidencia
tampoco hace a una hipótesis científica. Tiene que haber
una teoría en juego, lo que significa que cuando decimos
que la actitud científica requiere que nos preocupemos por
la evidencia y la usemos para modificar nuestra teoría, lo
mejor es que nos tomemos en serio no solo la idea de que la
ciencia se basa en la evidencia, sino también de que
requiere contar con una teoría que la justifique. He aquí la
columna vertebral de la explicación científica.
Si las teorías científicas nunca pueden probarse como
verdaderas, tal vez nunca podamos estar seguros de cómo
funciona el mundo. Pero esto no significa que haya un
camino mejor. Aunque la ciencia pueda no tener el objetivo
de llevarnos a la certeza (porque esto está más allá de la
justificación máxima que podemos extraer del encaje entre
una teoría y la evidencia empírica), de ahí no se sigue
ninguna amenaza a la autoridad epistemológica de la
ciencia. A pesar de sus limitaciones, la ciencia todavía
constituye una manera de conocer el mundo empírico
mejor que la de cualquiera de sus competidores, porque se
basa en el supuesto fundacional de la ciencia: que llegamos
a conocer el mundo mejor por medio de la evidencia que
nos proporciona. No podemos confiar ni en nuestra
intuición ni tampoco en nuestras conjeturas. Y tampoco
podemos pretender que el éxito empírico de nuestras
teorías nos acerque más a la verdad. Sin embargo, resulta
que no hay mejor manera de entender el mundo empírico
que confrontar nuestras hipótesis con los datos de la
experiencia.
Durante décadas ha persistido la disputa dentro de la
filosofía de la ciencia entre quienes piensan que la ciencia
es especial (y suelen tratar de hacer consistir ese estatuto
privilegiado en una metodología supuestamente única) y
aquellos que piensan que el proceso del razonamiento
científico no es mejor ni peor que cualquier otra empresa
del ser humano (debido a los factores sociales, actitudes e
intereses que permean toda la conducta humana). ¡Qué
ironía, por lo tanto, si al final resulta que lo distintivo de la
ciencia son las actitudes y los valores que los científicos
preservan para con su investigación!
En el fondo, el método resulta no ser lo especial de la
ciencia. Al tratar de explicar la ciencia (y también lo que
otros campos deben imitar si desean ser más científicos),
conviene que nos centremos en los valores científicos.
Otras explicaciones anteriores en torno a la ciencia les han
dedicado mucho espacio a discusiones metodológicas, tanto
con respecto a si puede trazarse una frontera entre la
ciencia y la no-ciencia como a si es posible probar que
campos de estudio como las ciencias sociales son
susceptibles de reformas metodológicas que las vuelvan
más científicas. Pero este enfoque ha resultado ser erróneo.
A lo largo de este libro, he tratado de argumentar por
qué es de valor limitado el dedicarle la mayor parte de
nuestro tiempo en filosofía de la ciencia al estudio de los
métodos de áreas exitosas que, como la astronomía o la
física, ya se han convertido en ciencias. Aunque tengamos
mucho que aprender de ellas, esto no nos llevará a una
comprensión más profunda de lo distintivo de la ciencia. En
vez de eso, lo que he hecho ha sido dirigir la mirada a
aquellos campos que están o bien fracasando en el intento
de convertirse en ciencias (porque son
desesperanzadoramente ideológicos, tienen valores
erróneos o son desarrollados por personas a las que
sencillamente les trae sin cuidado que sus creencias
cuenten con el respaldo de la evidencia), o bien a la espera
de convertirse en científicos (como las ciencias sociales) y
luchando por ir haciéndolo cada vez mejor. El examen de lo
que está ausente en esas disciplinas revela lo necesario
para la ciencia.
516 Y ciertamente hay diferencia entre decir que es necesario y suficiente.
Véase el capítulo 4.

517 Recordemos a Laudan: los filósofos abandonaron este proyecto durante


treinta años después de su ensayo de 1983.

518 Y cuando se tenga debemos investigar más a fondo. Imaginemos que los
teóricos de la fusión fría hubieran tenido un poco más de éxito con sus
predicciones.
Bibliografía

ACHENBACH, Joel, «No, Science’s Reproducibility Problem Is


Not Limited to Psychology», Washington Post, 28 de
agosto de 2015.
ACHINSTEIN, Peter, The Book of Evidence, Oxford, Oxford
University Press, 2003.
— (ed.), Scientific Evidence: Philosophical Theories and
Applications, Baltimore, MD, Johns Hopkins University
Press, 2005.
ACHINSTEIN, Peter y BARKER, Stephen, The Legacy of Logical
Positivism, Baltimore, MD, Johns Hopkins University
Press, 1969.
ALCOCK, James, «Back from the Future: Parapsychology and
the Bem Affair», Skeptical Inquirer, 6 de enero de 2011,
<http://www.csicop.org/specialarticles/show/back_from_t
he_future>.
APTOWICZ, Cristin O’Keeffe, Dr. Mutter’s Marvels, Nueva
York, Avery, 2015.
ASCH, Solomon, «Opinions and Social Pressure», Scientific
American, 193, núm. 5 (nov. 1955), 31-35.
ASCHWANDEN, Christie, «Science Isn’t Broken»,
FiveThirtyEight, 19 de agosto de 2015,
<https://fivethirtyeight.com/features/science-isnt-
broken/>.
AYER, A. J., Language, Truth, and Logic, Nueva York, Dover,
1955.
BACON, Francis, The New Atlantis, 1627.
— The New Organon, 1620.
BAKER, Vic, «Megafloods of the Ice Age», Nova, 20 de
septiembre de 2005,
<http://www.pbs.org/wgbh/nova/earth/megafloods-of-the-
ice-age.html>.
BERMAN, Mark, «More Than 100 Confirmed Cases of
Measles in the U.S.», Washington Post, 2 de febrero de
2015, <https://www.washingtonpost.com/news/to-your-
health/wp/2015/02/02/more-than-100-confirmed-cases-of-
measles-in-the-u-s-cdc-says/?utm_term=.4a8312361f3b>.
BLACHOWICZ, James, «There Is No Scientific Method», New
York Times, 4 de julio de 2016.
BOKULICH, Alisa, «Pluto and the “Planet Problem”: Folk
Concepts and Natural Kinds in Astronomy», Perspectives
on Science, 22, núm. 4 (2014), 464-490.
BOSELEY, Sarah, «Mbeki Aids Denial “Caused 300,000
Deaths”», Guardian, 26 de noviembre de 2008.
BOUDRY, Maarten, «Loki’s Wager and Laudan’s Error», en
Massimo Pigliucci y Maarten Boudry (eds.), The
Philosophy of Pseudoscience: Reconsidering the
Demarcation Problem, Chicago, University of Chicago
Press, 2013, 79-98.
— «Plus Ultra: Why Science Does Not Have Limits», en
Maarten Boudry y Massimo Pigliucci (eds.), Science
Unlimited: The Challenges of Scientism, Chicago,
University of Chicago Press, 2017.
BOUDRY, Maarten y PIGLIUCCI, Massimo, «Science Unlimited?
The Challenges of Scientism», en Maarten Boudry y
Massimo Pigliucci (eds.), Science Unlimited: The
Challenges of Scientism, Chicago, University of Chicago
Press, 2017.
BRAINARD, Jeffrey, «As U.S. Releases New Rules on Scientific
Fraud, Scholars Debate How Much and Why It Occurs»,
Chronicle of Higher Education, 8 de diciembre de 2000.
BRIGHT, Liam, «On Fraud», Philosophical Studies, 174, núm.
2 (2017), 291-310.
BROWER, Kenneth, «The Danger of Cosmic Genius»,
Atlantic, diciembre de 2010.
BROWN, James Robert, Who Rules in Science? An
Opinionated Guide to the Wars, Cambridge, MA, Harvard
University Press, 2004.
BUCHANAN, Mark, «Stop Hiding from the Truth», Bloomberg
News, 6 de julio de 2016,
<https://www.bloomberg.com/view/articles/2015-07-
06/stop-hiding-from-the-truth>.
BYNUM, William, The History of Medicine: A Very Short
Introduction, Oxford, Oxford University Press, 2008.
BYNUM, William, HARDY, Anne, JACYNA, Stephen, LAWRENCE,
Christopher y (TILLI) TANSEY, E. M., The Western Medical
Tradition 1800 to 2000, Cambridge, Cambridge
University Press, 2006.
CAREY, Benedict, «A Princeton Lab on ESP Plans to Close
Its Doors», New York Times, 10 de febrero de 2007.
— «Many Psychology Findings Not as Strong as Claimed,
Study Says», New York Times, 27 de agosto de 2015.
— «Psychologists Welcome Analysis Casting Doubt on Their
Work», New York Times, 28 de agosto de 2015.
— «New Critique Sees Flaws in Landmark Analysis of
Psychology Studies», New York Times, 3 de marzo de
2016.
CAREY, Bjorn, «Stanford Researchers Uncover Patterns in
How Scientists Lie about Data», Stanford News, 16 de
noviembre de 2015.
CARROLL, Robert, «The Princeton Engineering Anomalies
Research (PEAR)», en The Skeptic’s Dictionary, último
acceso el 28 de agosto de 2018,
<http://skepdic.com/pear.html>.
CARTWRIGHT, Nancy, The Dappled World: A Study of the
Boundaries of Science, Cambridge, Cambridge
University Press, 1999.
CASTELVECCHI, Davide, «Is String Theory Science?»,
Scientific American, 23 de diciembre de 2015,
<https://www.scientificamerican.com/article/is-string-
theory-science/>.
CHALMERS, Alan, What Is This Thing Called Science?,
Indianápolis, IN, Hackett, 2013.
CHANG, Hasok, Is Water H2O? Evidence, Realism and
Pluralism, Dordrecht, Springer, 2014.
CIOFFI, Frank, «Pseudoscience: The Case of Freud’s Sexual
Etiology of the Neuroses», en Massimo Pigliucci y
Maarten Boudry (eds.), The Philosophy of Pseudoscience:
Reconsidering the Demarcation Problem, Chicago,
University of Chicago Press, 2013, 321-340.
COFFMAN, E. J., «Warrant without Truth?», Synthese 162
(2008), 173-194.
COLL, Steve, Private Empire: ExxonMobil and American
Power, Nueva York, Penguin, 2013.
CURD, Martin, «Philosophy of Pseudoscience: Reconsidering
the Demarcation Problem», Notre Dame Philosophical
Reviews, 17 de julio de 2014,
<http://ndpr.nd.edu/news/philosophy-of-pseudoscience-
reconsidering-the-demarcation-problem/>.
DAVIS, Rebecca, «The Doctor Who Championed Hand-
Washing and Briefly Saved Lives», NPR, 12 de enero de
2015, <http://www.npr.org/sections/health-
shots/2015/01/12/375663920/the-doctor-who-
championed-hand-washing-and-saved-women-s-lives>.
DAWID, Richard, String Theory and the Scientific Method,
Cambridge, Cambridge University Press, 2014.
DAWKINS, Richard, Climbing Mount Improbable, Nueva
York, Norton, 2016.
DEER, Brian, «British Doctor Who Kicked-Off Vaccines-
Autism Scare May Have Lied, Newspaper Says», Los
Angeles Times, 9 de febrero de 2009.
— «How the Case against the MMR Vaccine Was Fixed»,
British Medical Journal, 342 (2011), caso 5347.
DEPARTMENT OF HEALTH AND HUMAN SERVICES, «Findings of
Research Misconduct: Notice Number: NOT-OD-12-149»,
10 de septiembre de 2012,
<https://grants.nih.gov/grants/guide/notice-files/NOT-
OD-12-149.html>.
DEVLIN, Hannah, «Cut-Throat Academia Leads to “Natural
Selection of Bad Science”, Claims Study», Guardian, 21
de septiembre de 2016.
DUHEM, Pierre, The Aim and Structure of Physical Theory,
Princeton, NJ, Princeton University Press, 1991.
DUPRE, John, The Disorder of Things: Metaphysical
Foundations of the Disunity of Science, Cambridge, MA,
Harvard University Press, 1995.
DURKHEIM, Emile, The Rules of Sociological Method, París,
1895.
DYSON, Freeman, «Misunderstandings, Questionable Beliefs
Mar Paris Climate Talks», Boston Globe, 3 de diciembre
de 2015.
ELGIN, Catherine, True Enough, Cambridge, MA, MIT Press,
2017.
ELLIS, Paul, «Why Are Journal Editors Increasingly Asking
Authors to Report Effect Sizes?», Effectsizefaq.com, 31
de mayo de 2010,
<https://effectsizefaq.com/2010/05/31/why-are-journal-
editors-increasingly-asking-authors-to-report-effect-
sizes/>.
FAIRWEATHER, Abrol, Virtue Epistemology Naturalized:
Bridges between Virtue Epistemology and Philosophy of
Science, Dordrecht, Springer, 2015.
FAIRWEATHER, Abrol y ZAGZEBSKI, Linda (eds.), Virtue
Epistemology: Essays on Epistemic Virtue and
Responsibility, Oxford, Oxford University Press, 2011.
FELEPPA, Robert, «Kuhn, Popper, and the Normative
Problem of Demarcation», en Patrick Grim (ed.),
Philosophy of Science and the Occult, Albany, NY, SUNY
Press, 1990.
FEYERABEND, Paul, Against Method, Londres, Verso, 1975.
FEYNMAN, Richard, Surely You’re Joking, Mr. Feynman,
Nueva York, Norton, 1997.
FIRESTEIN, Stuart, Failure: Why Science Is So Successful,
Oxford, Oxford University Press, 2016.
— «When Failing Equals Success», Los Angeles Times, 14
de febrero de 2016.
FISKE, Susan y CYDNEY, Dupree, «Gaining Trust as Well as
Respect in Communicating to Motivated Audiences about
Science Topics», Proceedings of the National Academy of
Sciences, 111, supl. 4 (2014).
FLAHERTY, D. K., «The Vaccine-Autism Connection: A Public
Health Crisis Caused by Unethical Medical Practices and
Fraudulent Science», Annals of Pharmacotherapy, 45,
núm. 10 (oct. 2011), 1302-1304.
FORAN, Clare, «Ted Cruz Turns Up the Heat on Climate
Change», Atlantic, 9 de diciembre de 2015.
FULLER, Steve, Philosophy of Science and Its Discontents,
Nueva York, Guilford Press, 1992.
GABLER, Jay y KAUFMAN, Jason, «Chess, Cheerleading,
Chopin: What Gets You into College?», Contexts, 5, núm.
2 (2006), 45-49.
GALISON, Peter y HEVLY, Bruce (eds.), Big Science: The
Growth of Large-Scale Research, Palo Alto, CA, Stanford
University Press, 1992.
GIERE, Ronald, Understanding Scientific Reasoning, Nueva
York, Harcourt, 1991.
GILBERT, Daniel, KING, Gary, PETTIGREW, Stephen y WILSON,
Timothy, «Comment on “Estimating the Reproducibility
of Psychological Science”», Science, 351, núm. 6277
(2016),
<http://science.sciencemag.org/content/351/6277/1037.2
>.
GILLIS, Justin, «Scientists Warn of Perilous Climate Shift
within Decades, Not Centuries», New York Times, 22 de
marzo de 2016.
GLEICK, James, Genius: The Life and Science of Richard
Feynman, Nueva York, Vintage, 1993.
GLYMOUR, Clark, Theory and Evidence, Princeton, NJ,
Princeton University Press, 1980.
GODLEE, F., «Wakefield Article Linking MMR Vaccine and
Autism Was Fraudulent», British Medical Journal, 342
(2011), caso 7452.
GOODMAN, Nelson, Fact, Fiction, and Forecast, Cambridge,
MA, Harvard University Press, 1955.
GOODSTEIN, David, On Fact and Fraud: Cautionary Tales
from the Front Lines of Science, Princeton, NJ, Princeton
University Press, 2010.
GRECO, John y TURRI, John (eds.), Virtue Epistemology:
Contemporary Readings, Cambridge, MA, MIT Press,
2012.
GREENE, Brian, The Elegant Universe, Nueva York, Norton,
2010.
GUIJOSA, Alberto, «What Is String Theory?», último acceso
el 28 de agosto de 2018,
<http://www.nuclecu.unam.mx/~alberto/physics/string.ht
ml>.
HAACK, Susan, Defending Science —within Reason:
Between Scientism And Cynicism, Amherst, NY,
Prometheus, 2007.
— Evidence and Inquiry: A Pragmatist Reconstruction of
Epistemology, Amherst, NY, Prometheus, 2009.
— «Six Signs of Scientism», Skeptical Inquirer, 37, núm. 6
(nov.-dic. 2013); 38, núm. 1 (ene.-feb. 2014).
HACKING, Ian, The Social Construction of What? Cambridge,
MA, Harvard University Press, 1999.
HALL, Shannon, «Exxon Knew about Climate Change almost
40 Years Ago», Scientific American, 26 de octubre de
2015.
HANSEN, James, Storms of My Grandchildren, Nueva York,
Bloomsbury, 2010.
HANSSON, Sven Ove, «Defining Pseudoscience and Science»,
en Massimo Pigliucci y Maarten Boudry (eds.), The
Philosophy of Pseudoscience: Reconsidering the
Demarcation Problem, Chicago, University of Chicago
Press, 2013, 61-77.
— «Science and Pseudo-Science», en The Stanford
Encyclopedia of Philosophy, última modificación el 11 de
abril de 2017,
<https://plato.stanford.edu/entries/pseudo-science/>.
HARRIS, Paul, «Four US States Considering Laws That
Challenge Teaching of Evolution», Guardian, 31 de enero
de 2013.
HARTGERINK, C. H. J., «Renanalyzing Head et al. (2015): No
Widespread P-Hacking After All?», Authorea, 12 de
septiembre de 2016,
<https://www.authorea.com/users/2013/articles/31568>.
HEAD, Meagan, HOLMAN, Luke, LANFEAR, Rob, KAHN, Andrew
y JENNIONS, Michael, «The Extent and Consequences of P-
Hacking in Science», PLOS Biology, 13 de marzo de
2015, <http://journals.plos.org/plosbiology/article?
id=10.1371/journal.pbio.1002106>.
HEMPEL, Carl, Philosophy of Natural Science, Nueva York,
Prentice Hall, 1966.
HENDERSON, Bobby, The Gospel of the Flying Spaghetti
Monster, Nueva York, Villard Books, 2006.
HICKS, Daniel y STAPLEFORD, Thomas, «The Virtues of
Scientific Practice: MacIntyre, Virtue Ethics, and the
Historiography of Science», Isis, 107, núm. 3 (sept.
2016), 449-472.
HOLTON, Gerald, Science and Anti-Science, Cambridge, MA,
Harvard University Press, 1998.
— The Scientific Imagination, Cambridge, MA, Harvard
University Press, 1998.
HOYNINGEN-HUENE, Paul, Systematicity: The Nature of
Science, Oxford, Oxford University Press, 2013.
HUBER, Rose, «Scientists Seen as Competent But Not
Trusted by Americans», Princeton University, Woodrow
Wilson School of Public and International Affairs, 22 de
septiembre de 2014.
HUIZENGA, John, Cold Fusion: The Scientific Fiasco of the
Century, Rochester, University of Rochester Press, 1992.
HULL, David, A Treatise of Human Nature, Londres, 1740.
— An Enquiry Concerning Human Understanding, Londres,
1748.
— Science as a Process: An Evolutionary Account of the
Social and Conceptual Development of Science, Chicago,
University of Chicago Press, 1990.
INSEL, Thomas, «Director’s Blog: P-Hacking», The National
Institute of Mental Health, 14 de noviembre de 2014,
<https://www.nimh.nih.gov/about/directors/thomas-
insel/blog/2014/p-hacking.shtml>.
IOANNIDIS, John, «Why Most Published Research Findings
Are False», PLOS Medicine, 30 de agosto de 2005,
<http://journals.plos.org/plosmedicine/article?
id=10.1371/journal .pmed.0020124>.
IYENGAR, Sheena, The Art of Choosing, Nueva York, Twelve,
2010.
IYENGAR, Sheena y LEPPER, Mark, «Rethinking the Value of
Choice: A Cultural Perspective on Intrinsic Motivation»,
Journal of Personality and Social Psychology, 76, núm. 3
(1999), 349-366.
JASCHIK, Scott, «What Really Counts in Getting In», Inside
Higher Education, 31 de mayo de 2006.
JEFFERS, Stanley, «PEAR Lab Closes, Ending Decades of
Psychic Research», Skeptical Inquirer, 31, 3 (mayo-junio
de 2007).
JOHNSON, Carolyn, «Former Harvard professor Marc Hauser
Fabricated, Manipulated Data, US Says», Boston Globe,
5 de septiembre de 2012.
— «Harvard Report Shines Light on Ex-Researcher’s
Misconduct», Boston Globe, 30 de mayo de 2014.
KAHN, Brian, «No Pause in Global Warming», Scientific
American, 4 de junio de 2015.
KAHNEMAN, Daniel, Thinking Fast and Slow, Nueva York,
FSG, 2013.
KARL, Thomas, ARGUEZ, Anthony, HUANG, Boyin, LAWRIMORE,
Jay H., MCMAHON, James R., MENNE, Matthew J. et al.,
«Possible Artifacts of Data Biases in the Recent Global
Surface Warming Hiatus», Science, 348, núm. 6242 (26
de junio de 2015), 1469-1472.
KAUFMAN, Jason y GABLER, Jay, «Cultural Capital and the
Extracurricular Activities of Girls and Boys in the College
Attainment Process», Poetics 32 (2004), 145-168.
KING, Gary, KEOHANE, Robert y VERBA, Sidney, Designing
Social Inquiry: Scientific Inference in Qualitative
Research, Princeton, Princeton University Press, 1994.
KITCHER, Philip, The Advancement of Science: Science
without Legend, Objectivity without Illusions, Oxford,
Oxford University Press, 1995.
— Science, Truth, and Democracy, Oxford, Oxford
University Press, 2003.
— Science in a Democratic Society, Amherst, Prometheus
Books, 2011.
KLUGER, Jeffrey, «Modern Science Has a Publish-or-Perish
Problem», Time, 20 de agosto de 2015, 19.
KOERTGE, Noretta (ed.), A House Built on Sand: Exposing
Postmodernist Myths about Science, Nueva York, Oxford
University Press, 2000.
— «A Bouquet of Values», en N. Koertge (ed.), Scientific
Values and Civic Virtues, Oxford, Oxford University
Press, 2005, 9-24.
— (ed.), Scientific Values and Civic Virtues, Oxford, Oxford
University Press, 2005.
— «Belief Buddies versus Critical Communities», en
Massimo Pigliucci y Maarten Boudry (eds.), The
Philosophy of Pseudoscience: Reconsidering the
Demarcation Problem, Chicago, University of Chicago
Press, 2013, 165-180.
KUHN, Thomas, The Structure of Scientific Revolutions,
Chicago, University of Chicago Press, 1962.
— «Logic of Discovery or Psychology of Research?», en P. A.
Schilpp (ed.), The Philosophy of Karl Popper, LaSalle, IL,
Open Court, 1974, 798-819.
— «Objectivity, Value Judgment, and Theory Choice», en
The Essential Tension: Selected Studies in Scientific
Tradition and Change, Chicago, University of Chicago
Press, 1974, 320-339.
— The Road since Structure, Chicago, University of Chicago
Press, 2000.
LADYMAN, James, «Toward a Demarcation of Science from
Pseudoscience», en Massimo Pigliucci y Maarten Boudry
(eds.), The Philosophy of Pseudoscience: Reconsidering
the Demarcation Problem, Chicago, University of
Chicago Press, 2013, 45-59.
LAKATOS, Imre y MUSGRAVE, Alan (eds.), Criticism and the
Growth of Knowledge, Cambridge, Cambridge University
Press, 1970.
LANGE, Marc, Natural Laws in Scientific Practice, Oxford,
Oxford University Press, 2000.
LAUDAN, Larry, Progress and Its Problems: Towards a
Theory of Scientific Growth, Berkeley, University of
California Press, 1977.
— Beyond Positivism and Relativism: Theory, Method, and
Evidence, Boulder, CO, Westview Press, 1996.
— «The Demise of the Demarcation Problem», en Laudan,
Beyond Positivism and Relativism, Boulder, CO, Westview
Press, 1996, 210-222.
— «Science at the Bar —Causes for Concern», en Beyond
Positivism and Relativism: Theory, Method, and
Evidence, Boulder, CO, Westview Press, 1996, 223-230.
LE FANU, James, The Rise and Fall of Modern Medicine,
Nueva York, Carroll and Graf, 1999.
LEMONICK. Michael, «When Scientists Screw Up», Slate, 15
de octubre de 2012,
<http://www.slate.com/articles/health_and_science/scien
ce/2012/10/scientists_make_mistakes
_how_astronomers_and_biologists_correct_the_record.ht
ml>.
LONGINO, Helen, Science as Social Knowledge: Values and
Objectivity in Scientific Inquiry, Princeton, NJ, Princeton
University Press, 1990.
— «Science and the Common Good: Thoughts on Philip
Kitcher’s Science, Truth, and Democracy», Philosophy of
Science, 69 (dic. 2002), 560-568.
— «Underdetermination: A Dirty Little Secret?», STS
Occasional Papers 4, Londres, Department of Science
and Technology Studies, University College Londres,
2016.
LYNCH, Michael, True to Life: Why Truth Matters,
Cambridge, MA, MIT Press, 2004.
MACHAMER, Peter, PERA, Marcello y BALTAS, Aristides (eds.),
Scientific Controversies: Philosophical and Historical
Perspectives, Oxford, Oxford University Press, 2000.
MACINTYRE, Alasdair, After Virtue: A Study in Moral Theory,
South Bend, IN, University of Notre Dame Press, 19842.
MAHNER, Martin, «Science and Pseudoscience», en
Massimo Pigliucci y Maarten Boudry (eds.), The
Philosophy of Pseudoscience: Reconsidering the
Demarcation Problem, Chicago, University of Chicago
Press, 2013, 29-43.
MARCUS, Adam y ORANSKY, Ivan, «What’s Behind Big Science
Frauds?», New York Times, 22 de mayo de 2015.
— «The Lessons of Famous Science Frauds», Verge, 9 de
junio de 2015.
MATZKE, Nicholas, «The Evolution of Antievolution Policies
after Kitzmiller v. Dover», Science, 351, núm. 6268 (1 de
enero de 2016), 28-30.
MAXWELL, Nicholas, «The Rationality of Scientific Discovery,
Part I», Philosophy of Science, 41, núm. 2 (1974), 123-
153.
— «The Rationality of Scientific Discovery, Part II»,
Philosophy of Science 41, núm. 3 (1974), 247-295.
MAYO, Deborah, «Ducks, Rabbits, and Normal Science:
Recasting the Kuhn’s-Eye View of Popper», British
Journal for the Philosophy of Science 47, núm. 2 (1996),
271-290.
— Error and the Growth of Experimental Knowledge,
Chicago, University of Chicago Press, 1996.
— «Popper on Pseudoscience: A Comment on Pigliucci»,
Errorstatistics.com, 16 de septiembre de 2015,
<https://errorstatistics.com/2015/09/16/popper-on-
pseudoscience-a-comment-on-pigliucci-i/>.
MAYO, Deborah y SPANOS, Aris (eds.), Error and Inference:
Recent Exchanges on Experimental Reasoning,
Reliability, Objectivity, and Rationality, Nueva York,
Cambridge University Press, 2010.
MCINTYRE, Lee, Laws and Explanation in the Social
Sciences: Defending a Science of Human Behavior,
Boulder, CO, Westview Press, 1996.
— «Accommodation, Prediction, and Confirmation»,
Perspectives on Science 9, núm. 3 (2001), 308-323.
— «Intentionality, Pluralism and Redescription», Philosophy
of the Social Sciences, 34, núm. 4 (2004), 493-505.
— «Redescription and Descriptivism», Behavior and
Philosophy, 32, núm. 2 (2004), 453-464.
— Dark Ages: The Case for a Science of Human Behavior,
Cambridge, MA, MIT Press, 2006.
— «The Scientific Attitude toward Explanation», en Michael
Lissack y Abraham Graber (eds.), Modes of Explanation:
Affordances for Action and Prediction, Nueva York,
Palgrave, 2014, 229-232.
— Respecting Truth: Willful Ignorance in the Internet Age,
Nueva York, Routledge, 2015.
— «The Price of Denialism», New York Times, 7 de
noviembre de 2015.
MCMULLIN, Ernan, «Values in Science», PSA: Proceedings
of the Biennial Meeting of the Philosophy of Science
Association 4 (1982), 3-28.
MEIKLE, James y BOSELEY, Sarah, «MMR Row Doctor
Andrew Wakefield Struck Off Register», Guardian, 24 de
mayo de 2010.
MELLOR, D. H., «The Warrant of Induction», en Matters of
Metaphysics, Cambridge, Cambridge University Press,
1991.
MERCIER, Hugo y SPERBER, Dan, «Why Do Humans Reason?
Arguments for an Argumentative Theory», Behavioral
and Brain Sciences, 34, núm. 2 (2011), 57-111.
MERTON, Robert, «The Normative Structure of Science», en
Robert Merton (ed.), The Sociology of Science, cap. 13.
Chicago, University of Chicago Press, 1973 (publicado
originalmente en 1942).
MIROWSKI, Philip, More Heat than Light: Economics as
Social Physics, Cambridge, Cambridge University Press,
1990.
MNOOKIN, Seth, The Panic Virus: The True Story Behind the
Vaccine-Autism Controversy, Nueva York, Simon and
Schuster, 2011.
MOSER, Laura, «Another Year, Another Anti-Evolution Bill in
Oklahoma», Slate.com (blog), 25 de enero de 2016,
<http://www.slate.com/blogs/schooled/2016/01/25/oklaho
ma_evolution_controversy_two_new_bills_present_altern
atives_to_evolution.html>.
MUNTERSBJORN, Madeline, «Francis Bacon’s Philosophy of
Science: Machina Intellectus and Forma Indita»,
Philosophy of Science 70, núm. 5 (dic. 2003), 1137-1148.
NAGEL, Ernest, The Structure of Science, Nueva York,
Routledge, 1961.
NAHIGYAN, Pierce, «Global Warming Never Stopped»,
Huffington Post, 3 de diciembre de 2015.
NICKLES, Thomas, «The Problem of Demarcation: History
and Future», en Massimo Pigliucci y Maarten Boudry
(eds.), The Philosophy of Pseudoscience: Reconsidering
the Demarcation Problem, Chicago, University of
Chicago Press, 2013, 101-120.
NOSEK, Brian, «Estimating the Reproducibility of
Psychological Science», Science 349, núm. 6251 (28 de
agosto de 2015), aac4716.
NOVELLA, Steven, «Publishing False Positives», Neurologica,
5 de enero de 2012,
<http://theness.com/neurologicablog/index.php/publishin
g-false-positives/>.
— «P-Hacking and Other Statistical Sins», Neurologica, 13
de febrero de 2014,
<http://theness.com/neurologicablog/index.php/p-
hacking-and-other-statistical-sins/>.
NPR News, «Scientific Evidence Doesn’t Support Global
Warming, Sen. Ted Cruz Says», 9 de diciembre de 2015,
<http://www.npr.org/2015/12/09/459026242/scientific-
evidence-doesn-t-support-global-warming-sen-ted-cruz-
says>.
NUCCITELLI, Dana, «Here’s What Happens When You Try to
Replicate Climate Contrarian Papers», Guardian, 25 de
agosto de 2015.
NUIJTEN, M., HARTGERINK, C. H., ASSEN, M. A. van, EPSKAMP,
S. y WICHERTS, J. M., «The Prevalence of Statistical
Reporting Errors in Psychology (1985-2013)», Behavioral
Research 48, núm. 4 (23 de octubre de 2015),
<https://www.ncbi.nlm.nih.gov/pubmed/26497820>.
NUTT, Amy, «Errors Riddled 2015 Study Showing
Replication Crisis in Psychology Research, Scientists
Say», Washington Post, 3 de marzo de 2016.
NUZZO, Regina, «Scientific Method: Statistical Errors»,
Nature 506, núm. 7487 (12 de febrero de 2014),
<http://www.nature.com/news/scientific-method-
statistical-errors-1.14700>.
NYHAN, Brendan y REIFLER, Jason, «When Corrections Fail:
The Persistence of Political Misperceptions», Political
Behavior 32 (2010), 303-330.
OKASHA, Samir, Philosophy of Science: A Very Short
Introduction, Oxford, Oxford University Press, 2002.
ORESKES, Naomi y CONWAY, Erik, Merchants of Doubt: How a
Handful of Scientists Obscured the Truth on Issues from
Tobacco Smoke to Global Warming, Nueva York,
Bloomsbury Press, 2010.
PAPPAS, Stephanie, «Climate Change Disbelief Rises in
America», LiveScience, 16 de enero de 2014,
<http://www.livescience.com/42633-climate-change-
disbelief-rises.html>.
PARK, Robert, Voodoo Science: The Road from Foolishness
to Fraud, Oxford, Oxford University Press, 2000.
— Superstition: Belief in the Age of Science, Princeton,
Princeton University Press, 2008.
PASSMORE, John, Science and Its Critics, New Brunswick,
Rutgers University Press, 1978.
PEIRCE, Charles, «The Scientific Attitude and Fallibilism»,
en The Collected Papers of Charles S. Peirce, vol. 1,
Principles of Philosophy, Cambridge, MA, Harvard
University Press, 1931.
PIGLIUCCI, Massimo, Denying Evolution, Sunderland, MA,
Sinauer, 2002.
— Nonsense on Stilts: How to Tell Science from Bunk,
Chicago, University of Chicago Press, 2010.
— «The Demaration Problem: A (Belated) Response to
Laudan», en Massimo Pigliucci y Maarten Boudry (eds.),
The Philosophy of Pseudoscience: Reconsidering the
Demarcation Problem, Chicago, University of Chicago
Press, 2013, 9-28.
— «Scientism and Pseudoscience: In Defense of
Demarcation Projects», en Science Unlimited, Chicago,
University of Chicago Press, en preparación.
PIGLIUCCI, Massimo y BOUDRY, Maarten, «Introduction: Why
the Demarcation Problem Matters», en Massimo
Pigliucci y Maarten Boudry (eds.), The Philosophy of
Pseudoscience: Reconsidering the Demarcation Problem,
Chicago, University of Chicago Press, 2013, 1-6.
— (eds.), The Philosophy of Pseudoscience: Reconsidering
the Demarcation Problem, Chicago, University of
Chicago Press, 2013.
PLAIT, Phil, «Scientists Explain Why Ted Cruz Is Wrong
about the Climate», Mother Jones, 19 de enero de 2016,
<https://www.motherjones.com/environment/2016/01/ted
-cruz-satellite-date-climate-change/>.
POPPER, Karl, The Logic of Scientific Discovery, Nueva York,
Routledge, 1959.
— «Science: Conjectures and Refutations», en Conjectures
and Refutations, Nueva York, Harper Torchbooks, 1965,
33-65.
— «Prediction and Prophecy in the Social Sciences», en
Conjectures and Refutations, Nueva York, Harper
Torchbooks, 1965, 336-346.
— «Remarks on the Problems of Demarcation and of
Rationality», en Imre Lakatos y Alan Musgrave (eds.),
Problems in the Philosophy of Science, Ámsterdam,
North-Holland, 1968, 88-102.
— «Normal Science and Its Dangers», en Imre Lakatos y
Alan Musgrave (eds.), Problems in the Philosophy of
Science, Cambridge, Cambridge University Press, 1970,
51-58.
— «Replies to My Critics», en P. A. Schilpp (ed.), The
Philosophy of Karl Popper, LaSalle, IL, Open Court, 1974.
— «Natural Selection and the Emergence of Mind»,
Dialectica, 32, núms. 3-4 (1978), 339-355.
— Unended Quest, LaSalle, IL, Open Court, 1982.
— «On the Non-Existence of Scientific Method», en Realism
and the Aim of Science, Lanham, MD, Rowman y
Littlefield, 1983.
— The Open Universe, Nueva York, Routledge, 1992.
PORTER, Roy, The Greatest Benefit to Mankind: A Medical
History of Humanity, Nueva York, Norton, 1997.
PROTHERO, Donald, Reality Check: How Science Deniers
Threaten Our Future, Bloomington, IN, Indiana
University Press, 2013.
PUTNAM, Hilary, «The “Corroboration” of Theories», en P. A.
Schilpp (ed.), The Philosophy of Karl Popper, LaSalle, IL,
Open Court, 1974, 221-240.
— Meaning and the Moral Sciences, Londres, Routledge,
1978.
QUINE, W. V. O., «Two Dogmas of Empiricism», Philosophical
Review 60 (1951), 20-43.
REARDON, Sara, «Uneven Response to Scientific Fraud»,
Nature 523 (9 de julio de 2015), 138-139.
RESNICK, Brian, «Study: Elite Scientists Can Hold Back
Science», Vox, 15 de diciembre de 2015,
<http://www.vox.com/science-and-
health/2015/12/15/10219330/elite-scientists-hold-back-
progress>.
— «A Bot Crawled Thousands of Studies Looking for Simple
Math Errors: The Results Are Concerning», Vox, 30 de
septiembre de 2016, <http://www.vox.com/science-and-
health/2016/9/30/13077658/statcheck-psychology-
replication>.
REUELL, Peter, «Study That Undercut Psych Research Got It
Wrong», Harvard Gazette, 2 de marzo de 2016,
<http://news.harvard.edu/gazette/story/2016/03/study-
that-undercutpsych-research-got-it-wrong/>.
ROSENBERG, Alex, The Atheist’s Guide to Reality: Enjoying
Life without Illusions, Nueva York, Norton, 2011.
ROUSE, Joseph, How Scientific Practices Matter: Reclaiming
Philosophical Naturalism, Chicago, University of Chicago
Press, 2003.
— «Karl Popper’s Philosophy of Biology», en Michael Ruse
(ed.), But Is It Science?, Amherst, MA, Prometheus
Books, 1996.
RUSE, Michael, «Evolution: From Pseudoscience to Popular
Science, from Popular Science to Professional Science»,
en Massimo Pigliucci y Maarten Boudry (eds.), The
Philosophy of Pseudoscience: Reconsidering the
Demarcation Problem, Chicago, University of Chicago
Press, 2013, 225-244.
RUTKOW, Ira, Seeking the Cure: A History of Medicine in
America, Nueva York, Scribner, 2010.
SAGAN, Carl, The Demon Haunted World: Science as a
Candle in the Dark, Nueva York, Random House, 1995.
SALMON Wesley, «Hans Reichenbach’s Vindication of
Induction», Erkenntnis 35, núm. 1 (1991), 99-122.
SARGENT, Rose-Mary, «Virtues and the Scientific
Revolution», en N. Koertge (ed.), Scientific Values and
Civic Virtues, Oxford, Oxford University Press, 2005, 71-
80.
SCERRI, Eric, «Has Chemistry Been at Least Approximately
Reduced to Quantum Mechanics?», en D. Hull, M. Forbes
y R. Burian (eds.), PSA 1994, vol. 1, East Lansing, MI,
Philosophy of Science Association, 1994, 160-170.
— A Tale of Seven Scientists and a New Philosophy of
Science, Oxford, Oxford University Press, 2016.
SCERRI, Eric y MCINTYRE, Lee, «The Case for the Philosophy
of Chemistry», Synthese 111, núm. 3 (1997), 213-232.
SCHILPP, Paul (ed.), The Philosophy of Karl Popper, LaSalle,
IL, Open Court, 1974.
SETTLE, Thomas, «The Rationality of Science versus the
Rationality of Magic», Philosophy of the Social Sciences
1 (1971), 173-194.
SHAPIN, Steven, The Scientific Life: A Moral History of a
Late Modern Vocation, Chicago, University of Chicago
Press, 2010.
SHEPPHARD, Kate, «Ted Cruz: “Global Warming Alarmists
Are the Equivalent of the Flat-Earthers”», Huffington
Post, 25 de marzo de 2015.
SHERMER, Michael, The Believing Brain, Nueva York, Times
Books, 2011.
— «Science and Pseudoscience», en Massimo Pigliucci y
Maarten Boudry (eds.), The Philosophy of Pseudoscience:
Reconsidering the Demarcation Problem, Chicago,
University of Chicago Press, 2013, 203-223.
SIEGEL, Ethan, «Why String Theory Is Not a Scientific
Theory», Forbes, 23 de diciembre de 2015.
SIMMONS, Joseph, NELSON, Leif y SIMONSOHN, Uri, «False-
Positive Psychology: Undisclosed Flexibility in Data
Collection and Analysis Allows Presenting Anything as
Significant», Psychological Science 22, núm. 11 (2011),
1359-1366.
SMOLIN, Lee, The Trouble with Physics: The Rise of String
Theory, the Fall of a Science, and What Comes Next,
Nueva York, Mariner Books, 2007.
SOENNICHSEN, John, Bretz’s Flood: The Remarkable Story of
a Rebel Geologist and the World’s Greatest Flood,
Seattle, WA, Sasquatch Books, 2008.
— «Legacy: J Harlen Bretz (1882-1981)», University of
Chicago Magazine,
<http://magazine.uchicago.edu/0912/features/legacy.sht
ml>.
SOLOMON, Miriam, Social Empiricism, Cambridge, MA, MIT
Press, 2001.
SOSA, Ernest, «The Raft and the Pyramid: Coherence versus
Foundations in the Theory of Knowledge», Midwest
Studies in Philosophy 5 (1980), 3-25.
SPECTER, Michael, Denialism, Nueva York, Penguin, 2009.
STANFORD, Kyle, Exceeding Our Grasp, Oxford, Oxford
University Press, 2006.
STARR, Paul, The Social Transformation of American
Medicine, Nueva York, Basic Books, 1982.
STEINHAUSER, Jennifer, «Rising Public Health Risk Seen as
More Parents Reject Vaccines», New York Times, 21 de
marzo de 2008.
STEMWEDEL, Janet, «Drawing the Line between Science and
Pseudo-Science», Scientific American, 4 de octubre de
2011, <https://blogs.scientificamerican.com/doing-good-
science/dra wing-the-line-between-science-and-pseudo-
science/>.
SULLIVAN, Gail y FEINN, Richard, «Using Effect Size —or
Why the P Value Is Not Enough», Journal of Graduate
Medical Education 4, núm. 3 (sept. 2012),
<https://www.ncbi.nlm.nih.gov/pmc/articles/PMC344417
4/>.
SUNSTEIN, Cass, Infotopia: How Many Minds Produce
Knowledge, Oxford, Oxford University Press, 2006.
TAUBES, Gary, Bad Science: The Short Life and Weird Times
of Cold Fusion, Nueva York, Random House, 1993.
THALER, Richard y SUNSTEIN, Cass, Nudge, New Haven, CI,
Yale University Press, 2008.
THOMAS, Lewis, The Youngest Science: Notes of a Medicine
Watcher, Nueva York, Viking, 1983.
TIMMER, John, «This Year’s First Batch of Anti-Science
Education Bills Surface in Oklahoma», Arts Technica, 24
de enero 2016,
<https://arstechnica.com/science/2016/01 /this-years-
first-batch-of-anti-science-education-bills-surface-in-
oklahoma/>.
TRIVERS, Robert, The Folly of Fools: the Logic of Deceit and
Self-Deception in Human Life, Nueva York, Basic Books,
2011.
— «Fraud, Disclosure, and Degrees of Freedom in
Science», Psychology Today, 10 de mayo de 2012,
<https://www.psychologytoday.com/blog/the-folly-
fools/201205/fraud-disclosure-and-degrees-freedom-in-
science>.
— «Fraud in the Imputation of Fraud: The Mis-measure of
Stephen Jay Gould», Psychology Today, 4 de octubre de
2012, <https://www.psychologytoday.com/blog/the-folly-
fools/201210/fraud-in-the-imputation-fraud>.
TURRI, John, ALFANO, Mark y GRECO, John «Virtue
Epistemology», en Edward N. Zalta (ed.), The Stanford
Encyclopedia of Philosophy (verano de 2017),
<https://plato.stanford.edu/archives/sum2017/entries/epi
stemology-virtue/>.
UNION OF CONCERNED SCIENTISTS, THE, «The Climate
Deception Dossiers», julio de 2015,
<http://www.ucsusa.org/sites/default/files/attach/2015/07
/The-Climate-Deception-Dossiers.pdf>.
VAN FRAASSEN, Bas, The Scientific Image, Oxford, Clarendon
Press, 1980.
WADE, Nicholas, «Harvard Finds Scientist Guilty of
Misconduct», New York Times, 20 de agosto de 2010.
WALLER, John, Fabulous Science: Fact and Fiction in the
History of Scientific Discovery, Oxford, Oxford University
Press, 2002.
WICHERTS, Jelte, BAKKER, Marjan y MOELNAAR, Dylan,
«Willingness to Share Research Data Is Related to the
Strength of the Evidence and the Quality of Reporting of
Statistical Results», PLOS ONE 6, núm. 11 (nov. 2011).
WIGNER, Eugene, «The Unreasonable Effectiveness of
Mathematics in the Natural Sciences», Communication
in Pure and Applied Mathematics 13, núm. 1 (feb. 1960).
WILLIAMS, Bernard, Truth and Truthfulness: An Essay in
Genealogy, Princeton, NJ, Princeton University Press,
2002.
WILLIAMS, Richard y ROBINSON, Daniel (eds.), Scientism: The
New Orthodoxy, Nueva York, Bloomsbury Academic,
2016.
WOIT, Peter, «Is String Theory Even Wrong?», American
Scientist, marzo-abril de 2002,
<http://www.americanscientist.org/issues/pub/is-string-
theory-even-wrong/>.
— Not Even Wrong: The Failure of String Theory and the
Search for Unity in Physical Law, Nueva York, Basic
Books, 2007.
— «String Theory and the Scientific Method», 14 de mayo
de 2013,
<http://www.math.columbia.edu/~woit/wordpress/?
p=5880>.
WOLCHOVER, Natalie, «Physicists and Philosophers Hold
Peace Talks», Atlantic, 22 de diciembre de 2015,
<https://www.theatlantic.com/science/archive/2015/12/p
hysics-philosophy-string-theory/421569/>.
WRAY, K. Brad, Kuhn’s Evolutionary Social Epistemology,
Cambridge, Cambridge University Press, 2011.
— «Kuhn’s Social Epistemology and the Sociology of
Science», en W. Devlin y A. Bokulich Edward N. Zalta
(eds.), Kuhn’s Structure of Scientific Revolutions —50
Years On, 167-183, Boston Studies in the Philosophy of
Science, vol. 311, Nueva York, Springer, 2015.
Título original de la obra:
The Scientific Attitude. Defending
Science from Denial, Fraud, and Pseudoscience

Edición en formato digital: 2020

© Ilustración de cubierta: ilustración de la cubierta de la edición original (MIT)


© 2019 Massachusetts Institute of Technology © De la traducción: Rodrigo
Neira, 2020

© Ediciones Cátedra (Grupo Anaya, S. A.) 2020


Calle Juan Ignacio Luca de Tena, 15

28027 Madrid
catedra@catedra.com

ISBN ebook: 978-84-376-4140-9

Está prohibida la reproducción total o parcial de este libro electrónico, su


transmisión, su descarga, su descompilación, su tratamiento informático, su
almacenamiento o introducción en cualquier sistema de repositorio y
recuperación, en cualquier forma o por cualquier medio, ya sea electrónico,
mecánico, conocido o por inventar, sin el permiso expreso escrito de los
titulares del Copyright.
www.catedra.com

También podría gustarte