Está en la página 1de 505

José A .

D iez
C . Ulises Moulines

Fundamentos
de Filosofía
de la C iencia

2.a edición revisada y actualizada

E ditorialAriel,Barcelona
S.A
Diseño cubierta: Nacho Soriano

1. a edición: octubre 1997


2. a edición: octubre 1999

© 1997 y 1999: José A. Diez, C. Ulises Moulines

Derechos exclusivos de edición en español


reservados para todo el mundo:
© 1997 y 1999: Editorial Ariel, S. A.
Córcega, 270 - 08008 Barcelona

ISBN: 84-344-8745-4

Depósito legal: B. 42.759 -1999

Impreso en España

Ninguna parte de esta publicación, incluido el diseño


de la cubierta, puede ser reproducida, almacenada o transmitida
en manera alguna ni por ningún medio, ya sea eléctrico,
químico, mecánico, óptico, de grabación o de fotocopia,
sin permiso previo del editor.
SÓCRATES: He aquí lo que me llena de perplejidad y no
acierto a comprender suficientemente: ¿qué puede ser la
ciencia? ¿Encontraremos una respuesta a esta pregunta?
¿Qué contestáis vosotros? ¿Quién de entre nosotros será
el primero en hablar?
P l a t ó n , Teeteto
ÍNDICE

Nota a la segunda edición....................................................................................................... 13

C a p ít u l oL Introducción: Naturaleza y función de la filosofía de la ciencia............. 15


1. La ciencia como objeto. Los estudios sobre la ciencia............................................ 15
2. La ciencia como objeto de estudio filosófico. La filosofía de la ciencia................ 19
3. Nuestro tema: Filosofía general de la ciencia e m p íric a ......................................... 25
4. Panorama sucinto de la historia de la filosofía de la ciencia.................................. 27

C a p ít u l o 2. Argumentos deductivos y argumentos in d u ctiv o s.................................. 35


1. Argumentos, validez y v e rd a d ................................................................................. 35
2. Argumentos deductivos.............................................................................................. 41
3. Argumentos inductivos............................................................................................. 50

C a p ít u l o 3. Contrastación de h ip ótesis........................................................................... 61
1. Algunos episodios históricos.................................................................................... 63
2. Elementos de la contrastación................................................................................. 71
3. Condiciones para la contrastación........................................................................... 75
4. Resultado de la contrastación.................................................................................... 79
5. Consideraciones finales............................................................................................. 88

C a p ít u l o 4. Los conceptos científicos.............................................................................. 91


1. ¿Qué es un concepto?................................................................................................. 91
2. Conceptos clasificatorios........................................................................................... 101
3. Conceptos com parativos.......................................................................................... 108
4. Conceptos métricos: estudio prelim inar................................................................. 112

C a p ít u l o 5. Las leyes científicas....................................................................................... 125


1. Tipos de generalizaciones y de leyes........................................................................ 126
2. Leyes y regularidades accidentales.......................................................................... 136
3. Acaecimientos, causalidad y leyes cau sales........................................................... 144
4. Cláusulas ceteris paribus y leyes no estrictas........................................................... 149
4 ÍNDICE

5. Probabilidad y leyes probabilistas........................................................................... 156


6. La naturaleza de las leyes.......................................................................................... 166

C a p ít u l o 6. La medición en la ciencia.............................................................................. 173


1. Magnitudes. Medición y metrización........................................................................ 173
2. Función de la medición............................................................................................. 180
3. Metrización fundamental ( * ) .................................................................................... 184
4. Metrización derivada ( * ) .......................................................................................... 199
5. Procedimientos de medición directa ( * ) ................................................................. 205
6. Procedimientos de medición indirecta ( * ) .............................................................. 211
7. Consideraciones finales............................................................................................. 215

C a p ít u l o7. La explicación cien tífica .............................................................................. 219


1. Explicación y explicación científica........................................................................ 219
2. Cobertura legal inferencial....................................................................................... 224
3. Relevancia e sta d ístic a ............................................................................................. 243
4. Pragmática de la explicación.................................................................................... 247
5. Explicación y causalidad.......................................................................................... 251
6. Unificación teórica.............................................................. ..................................... 256
7. Apéndice: Explicación teleológica y funcional (*).................................................. 261

C a p ít u l o8. Análisis sincrónico de teorías I. La concepción axiomática: las teorías


como cálculos interpretados.......................................................................................... 267
1. Teorías axiomáticas.................................................................................................... 267
2. Teorías y m o d e lo s .................................................................................................... 283
3. Caracterización general de las teorías empíricas como cálculos interpretados. . . 286
4. Las reglas de correspondencia y la cuestión de la eliminabilidad de los términos
teóricos...................................................................................................................... 293
5. La distinción teórico/observacional y la naturaleza de la base empírica................ 299
6. Consideraciones finales............................................................................................. 307

C 9. Análisis sincrónico de teorías II. Las concepciones historicistas: las


a p ít u l o

teorías como proyectos de investigación.................................. ............................ 309


1. La revuelta historicista y la naturaleza sincrónica de las teorías............................ 309
2. Los paradigmas-matrices disciplinares de K uhn..................................................... 311
3. Los programas de investigación de L akatos........................................................ ... 318
4. Las tradiciones de investigación de L a u d a n ........................................................... 320
5. Consideraciones finales............................................................................................. 325

C 10. Análisis sincrónico de teorías III. Las concepciones semánticas: las


a p ít u l o

teorías como entidades modeloteóricas........................................................................ 327


1. Teorías, enunciados y modelos................................................................................. 328
2. La noción de teoría de S u p p es................................................................................. 333
3. Adams y las aplicaciones intencionales................................................................. 337
4. La familia semanticista............................................................................................. 341
5. La concepción estructuralista de las te o ría s ........................................................... 351
6. Consideraciones finales............................................................................................. 365
ÍNDICE 5

C apítulo 11. Relaciones interteó ricas.............................................................................. 367


1. Concepto general de relación interteórica.............................................................. 367
2. Teorización................................................................................................................ 369
3. Reducción.................................................................................................................... 373
4. E quivalencia............................................................................................................. 377
5. Apéndice: Ciencia especial y ciencia básica; reducción, múltiple realizabilidad y
superveniencia ( * ) .................................................................................................... 3B0

Capítulo 12. La evaluación de teorías y el problema de la in d u c c ió n ...................... 393


1. Evaluación epistémica. El problema de la inducción............................................... 394
2. Aproximaciones al problema de la in d u cció n ........................................................ 402
3. Justificacionismo, grado de confirmación y lógica inductiva ( * ) ......................... 408
4. Falsacionismo, grado de corroboración y verosimilitud ( * ) .................................. 418
5. Complejidad de las teorías, anomalías y falsación.................................................. 430
6. Consideraciones finales.............................................................................................. 435

Capítulo 13. Análisis diacrónico de teorías: El cambio te ó ric o .................................. 439


1. La perspectiva diacrónica en filosofía de la c ie n c ia ............................................... 439
2. Cambio intrateórico.................................................................................................... 442
3. Cambio interteórico en general................................................................................. 449
4. Cambio interteórico como incorporación................................................................. 451
5. Cambio interteórico como suplantación................................................................. 456
6. Consideraciones finales: Las formas del progreso científico.................................. 460

Apéndice. Recordatorio de teoría de conjuntos.............................................................. 463


1. Conjuntos................................................................................................................... 463
2. R elacio n es................................................................................................................ 465
3. Funciones.................................................................................................................... 470
4. Sistemas y m o rfism o s.............................................................................................. 472

Referencias b ib lio g rá fic a s .................................................................................................... 475

índice onom ástico.................................................................................................................... 489

índice temático e x p a n d id o .................................................................................................... 493


PRÓLOGO

La obra que el lector tiene en sus manos es, básicamente, un “libro de texto” para
la enseñanza universitaria de la materia Filosofía de la Ciencia. Su finalidad principal es
servir de guía a alumnos y profesores en un curso introductorio general de dicha materia.
Ésta es la finalidad que ha determinado tanto la selección de los temas como el desarrollo
de los mismos.
La puesta en obra de un proyecto como éste exige por parte de los autores una se­
rie de decisiones y compromisos de los que depende, para bien o para mal, el éxito de la
empresa. En este caso, las características más destacadas de la obra que se derivan de las
opciones tomadas por los autores son las siguientes.
En primer lugar, se trata de una introducción temática, no histórica, a la materia.
Aunque ambas aproximaciones son legítimas, y cada una tiene sus propias ventajas e
inconvenientes, creemos que, en una introducción general a esta materia, es más conve­
niente centrarse en “los problemas mismos”. Eso no excluye, obviamente, las referencias
históricas a las diferentes tradiciones y escuelas. Además, en algunos de los temas, como
los de la explicación y la estructura de las teorías, el estudio de los mismos sigue aproxi­
madamente el orden histórico de las diferentes alternativas propuestas. En estos casos, el
motivo de que la presentación temática siga el orden histórico es que la historia misma
del problema tiene algo que enseñamos. A veces, las primeras propuestas filosóficas no
son las primeras por casualidad sino, casi podría decirse, por necesidad conceptual: ellas
recogen las intuiciones más inmediatas y las expresan de la forma en principio más
natural. Las alternativas posteriores se encargan de corregir las eventuales deficiencias,
poner de manifiesto aspectos más profundos y, llegado el caso, reformar alguna de las in­
tuiciones originales. Cuando eso sucede, una comprensión cabal de las propuestas ulte­
riores, más desarrolladas y en cierto sentido “mejores”, requiere haber percibido antes
claramente el núcleo del problema en su versión más simple. Éste es el motivo por el que
en algunos capítulos seguiremos en la exposición un orden parcialmente coincidente con
el histórico.
En segundo lugar, es una introducción temática a la filosofía g e n era l de la cien­
cia, no a la filosofía de las diferentes ciencias específicas. Eso quiere decir que los
8 PROLOGO

temas elegidos se centran en problemas comunes a las diferentes ciencias y no en


problemas específicos de algunas de ellas (como el de la medición en mecánica cuánti­
ca, o el de la información en biología). Algunos filósofos que se dedican a la filosofía
de una ciencia en especial ponen en duda que haya problemas filosóficos comunes a to­
das las ciencias. Defendemos la legitimidad de una filosofía general de la ciencia en el
capítulo 1 (§3). Presuponiendo dicha defensa, aquí simplemente dejamos constancia de
que, en esta introducción general no dirigida específicamente a estudiosos de una cien­
cia en particular, nos hemos limitado al ámbito de la filosofía general de la ciencia por
considerarlo el más acorde con los intereses del lector al que esta obra va dirigida (para
una buena introducción a la filosofía de las ciencias particulares, cf. Salmón et al.,
1992, partes II, III y IV).
En tercer lugar, ésta es una obra, en cierto sentido, “clásica”. Es clásica en el sen­
tido en que su núcleo principal se centra en temas y problemas “clásicos” de la filosofía
de la ciencia. Por otro lado, la obra también pretende ser “completa” en tanto pretende
abarcar los principales de esos problemas: la naturaleza de los conceptos científicos, las
leyes, la medición, la explicación científica, la estructura, evolución y reducción de teo­
rías, la contrastación y el problema de la inducción. La pretensión de completud también
lo es respecto del desarrollo interno de los temas, pero aquí se ha tenido que llegar a un
equilibrio entre la exhaustividad del estudio y el espacio disponible, ya suficientemente
considerable. Podríamos haber profundizado más en algunos temas a costa de prescindir
de otros, pero nos ha parecido un precio excesivo sacrificar alguno de los temas que con­
sideramos básicos en una introducción a la materia.
En cuarto lugar, aunque clásica, esta obra pretende a la vez ser “actual” . En una
disciplina tan joven como la filosofía de la ciencia, y en la que se produce a un ritmo in­
cluso superior al de las restantes disciplinas filosóficas, las introducciones generales co­
rren el peligro de quedarse rápidamente desfasadas. Independientemente de eventuales
actualizaciones, hemos intentado que la presente edición contenga las últimas contribu­
ciones de interés en los diferentes ámbitos, en algunos casos sólo apuntadas debido a la
falta de perspectiva para valorar su asentamiento en la comunidad metacientífica.
En quinto lugar, aunque la obra pretende ser actual en el sentido indicado, no
pretende serlo en otro sentido, más discutible. En particular, no pretende abordar algu­
nos temas que actualmente están centrando la atención de muchos teóricos de la ciencia,
principalmente sociólogos y psicólogos de la ciencia. En el capítulo primero defende­
mos que, aunque relacionadas, la filosofía, la sociología y la psicología de la ciencia son
disciplinas diferentes. Independientemente de tal defensa, se puede aducir que mu­
chos aspectos de los estudios desarrollados por sociólogos y psicólogos de la ciencia
son relevantes para la filosofía general de la ciencia. Ello es cierto. Sin embargo, es
cuando menos debatible que dichos aspectos deban presentarse y analizarse en detalle
en un estudio introductorio de la disciplina. En nuestra opinión,, aunque sin duda impor­
tantes, para que el estudio de tales cuestiones no resulte desorientador, es conveniente
que quien las aborde disponga ya de un bagaje sólido considerable en los problemas
“clásicos”. En este sentido, no son aspectos o enfoques tan básicos como los aquí
priorizados, pues una aproximación adecuada a los mismos exige la asimilación previa
PRÓLOGO 9

de otros más fundamentales. El resultado, ante los necesarios límites de espacio, ha sido
su exclusión. Somos conscientes de que ello supone cierta insuficiencia, pero lo único
que cabe es asumirla y dar las referencias bibliográficas para que el lector interesado
pueda completar nuestra presentación con el estudio de las fuentes correspondientes;
para ello, el lector puede acudir a las entradas de los siguientes autores que se incluyen
en la bibliografía: Barnes, Bloor, Johnson-Lair, Knorr-Cetina, Latour, Merton, Mulkay,
Thagard y Woolgar.
En sexto lugar, esta obra no incluye un estudio específico de las consecuencias de
los temas tratados en relación a cuestiones filosóficas generales como las del significado
de los términos teóricos, la naturaleza de la observación en el conjunto de la ciencia o el
realismo científico. Dos tipos de consideraciones han hecho aconsejable prescindir de tal
estudio: por un lado, la obra ya resulta considerablemente extensa en su presente forma y
una exposición mínimamente adecuada de los problemas que se debían tratar superaba los
límites exigidos; por otro, dada la naturaleza de los problemas filosóficos a tratar, esta ta­
rea, incluso si no se pretende defender la propia opinión sino tan sólo presentar las
diferentes alternativas, es mucho más difícil de realizar conjuntamente en un espacio
razonable. La naturaleza de estos problemas es tal que, frecuentemente, la exposición de
los mismos presupone ya cierto posicionamiento ante las diversas alternativas y los auto­
res de esta obra no coinciden siempre en sus opiniones al respecto. Todo ello ha hecho
aconsejable aplazar dicho estudio para una publicación futura, más breve, de carácter
filosófico general en la que se expresen y defiendan las diversas posiciones sobre estas
cuestiones.
En séptimo lugar, aunque la obra pretende ser relativamente completa en el trata­
miento de cada tema, el nivel general es introductorio. Se ha procurado presentar los dife­
rentes problemas, y las principales posiciones en cada uno, del modo más básico posible.
Obviamente esto supone en ocasiones cierta complejidad, pues los problemas mismos son
complejos, pero se ha intentado en todo momento simplificar la exposición siempre que
ello no afectase a la comprensión de las cuestiones involucradas. En cuanto al aparato téc­
nico, el grueso de la obra apenas requiere ninguno y es por tanto accesible a cualquier lec­
tor sin formación específica previa. Únicamente algunas partes de algunos capítulos requie­
ren cierto conocimiento del instrumental de la teoría intuitiva de conjuntos, conocimiento
que muchos lectores deben haber adquirido en cursos previos. Para el lector que carezca de
él, o para el que lo tenga olvidado, se incluye un apéndice sobre las nociones generales
de la teoría de conjuntos en el que se presenta todo el instrumental necesario. En cualquier
caso, las eventuales dificultades en el manejo del instrumental formal no debe afectar la
comprensión y aprovechamiento de la mayor parte de la obra.
En octavo lugar, aunque la mayor parte de la obra es de nivel introductorio, algu­
nas secciones se han concebido para que puedan utilizarse, bien como profundización de
algunas de las cuestiones vistas (como la medición o la inducción), bien como extensión
de ellas (como la explicación teleológica o el problema de la reducción de las ciencias es­
peciales a la ciencia básica). Estas secciones exceden ligeramente el nivel introductorio
general y se pueden usar como guía para cursos más especializados. Las correspondientes
secciones se han marcado con un asterisco.
10 PRÓLOGO

En noveno lugar, dado su carácter de libro de texto, en esta obra no se defienden


tesis filosóficas sustantivas. Obviamente los autores tienen sus propias opiniones, muchas
veces coincidentes, sobre muchos de los problemas y cuestiones que se analizan. Pero la
finalidad principal no es exponer las propias ideas, sino presentar del modo más claro y
neutral posible las de aquellos filósofos o corrientes que han realizado contribuciones de
reconocida importancia en los diversos ámbitos tratados. Por ello, las propias opiniones
filosóficas de los autores no han influido en el desarrollo de la obra, o al menos así se ha
pretendido. Lo único que ha determinado la concepción y desarrollo de la obra es cierta
posición metafilosófica general, expuesta explícitamente en el capítulo 1 (§2), que entien­
de la filosofía de la ciencia como el análisis de los principales conceptos vinculados a la
actividad científica (como los de exp lica ció n , ley , contrastación, etc.) y de los productos
resultantes de dicha actividad, las teorías científicas. Compartir esta perspectiva metafilo-
sófica general, además de una idea común sobre cuáles son los temas centrales para una
introducción a la disciplina y qué es lo fundamental en cada uno de ellos, ha sido la con­
dición de posibilidad para realizar una obra como ésta conjuntamente.
Como única concesión a la propia posición filosófica de los autores, quizás deba
contarse la presentación detenida que en tres cuestiones se hace del análisis estructuralista
de las mismas. Ambos autores son de la opinión que el estructuralismo metacientífico
proporciona un análisis particularmente interesante de los aspectos estructurales de las
teorías y de sus relaciones mutuas. Independientemente del acuerdo o no con esta corrien­
te, no se puede negar que el estructuralismo es la escuela metacientífica que más ha desa­
rrollado tal análisis y que más rico instrumental reconstructor ofrece. Por ello, y no por
mera profesión de fe, hemos presentado con detenimiento el análisis estructuralista de la
estructura de las teorías (cap. 10 §5), de las relaciones interteóricas (cap. 11) y de los as­
pectos estructurales del cambio teórico (cap. 13).
Una última observación relativa a las referencias bibliográficas. Las citas se han
realizado, salvo que se advierta lo contrario, sobre las ediciones originales. Para facilitar
el acceso a las fuentes a lectores que manejan ediciones traducidas, y cuando la mención
del parágrafo, sección o apartado es suficientemente precisa, la referencia de la cita no
menciona la página de la edición original sino sólo la sección (parágrafo o apartado); úni­
camente cuando tal procedimiento dejaba la referencia bibliográfica impracticablemente
amplia se ha indicado la paginación original. Por otro lado, el texto contiene numerosas
referencias bibliográficas complementarias en cada uno de los temas. La finalidad de tales
referencias es que el lector pueda completar o ampliar el estudio de la parte correspon­
diente acudiendo a las fuentes.
*

Estos son los principales criterios que se han seguido en la elaboración de este tex­
to. El núcleo temático lo conforma la tríada “conceptos-leyes-teorías”, en tomo a cuyos
componentes se presentan los restantes temas: medición, explicación, relaciones interteó­
ricas, inducción y cambio teórico. El contenido está pensado para poder agruparse en dos
partes, susceptible cada una de ser trabajada en un curso semestral. La primera parte, cen­
trada en los conceptos y las leyes científicas, incluye los capítulos 4 (conceptos científi­
cos), 5 (leyes), 6 (medición) y 7 (explicación); la segunda, centrada en las teorías, los ca­
pítulos 8 a 10 (estructura sincrónica de teorías), 11 (relaciones interteóricas), 12 (evalúa-
PRÓLOGO 11

ción de teorías y el problema de la inducción) y 13 (cambio teórico). En la primera parte


se puede incluir también el primer capítulo, que contiene la introducción conceptual a la
disciplina y un breve repaso de su historia. El capítulo 2 es instrumental, presenta las no­
ciones de a rg u m en to deductivo y a rg u m en to inductivo que se van a usar por extenso a lo
largo de la obra. El lector familiarizado con las mismas puede prescindir de él, o de la
parte que considere conocida; pero debe asegurarse bien de que conoce lo que aquí se ex­
pone, en particular sobre los argumentos inductivos, pues se incluyen algunas considera­
ciones sobre estos argumentos a las que se recurre en varios lugares de la obra y que no
suelen tratarse en las exposiciones introductorias usuales. Por último, en el capítulo 3 se
realiza una presentación muy básica y estrictamente metodológica de los procedimientos
de contrastación de hipótesis. En este capítulo no se abordan los aspectos filosóficos de la
contrastación, cuyo estudio se pospone hasta el capítulo 12. Este capítulo metodológico
puede tratarse, bien como uno de los capítulos introductorios en la primera parte, bien
como introducción metodológica al capítulo 12 en la segunda parte, bien como tema ais­
lado en cursos metodológicos generales de otras disciplinas.
Las dependencias conceptuales e instrumentales entre los capítulos se expresan,
de derecha a izquierda, en el siguiente gráfico. Las líneas continuas indican que la depen­
dencia es fundamental, no se puede abordar satisfactoriamente el estudio de un tema sin
haber realizado previamente el del otro; las líneas discontinuas indican que la dependen­
cia es sólo parcial, el estudio previo de un tema es conveniente, pero no imprescindible,
para el del otro.

Durante la elaboración de una obra como ésta, muchas son las personas e institu­
ciones que han contribuido a que la tarea inicialmente concebida llegue a su fin. María
Ramón Cubells, Manuel García-Carpintero, Joan Pagés, Manuel Pérez Otero y David
Pineda han leído versiones previas de la obra y han realizado numerosas y detalladas
críticas, correcciones y sugerencias. A ellos debemos agradecer la mayoría de mejoras in­
troducidas en la versión definitiva, además de la inestimable ayuda que su buena dispo­
sición y paciencia han representado para la ardua tarea de revisar el mecanuscrito original.
Ramón Cirera, José Luis Falguera, Andoni Ibarra, Josep Maciá, Eulalia Pérez Sedeño,
Francesc Pereña y Daniel Quesada han leído partes de la obra y han realizado también
importantes correcciones y sugerencias. La señora Margrit Barrios ha transcrito parte del
material. Javier Donato ha realizado una cuidada revisión de las pruebas de imprenta. A
todos ellos queremos expresar nuestro más sincero agradecimiento. Muchas otras personas
han contribuido a la gestación y desarrollo de este proyecto, especialmente los alumnos de
las diversas universidades de España, México y Alemania en las que los autores han
12 PRÓLOGO

impartido sus cursos de filosofía de la ciencia. Por último, deseamos agradecer a la


DG ICT (M inisterio de E ducación español, proyectos P B 92-0846-C 06-06 y
PB95-0125-C06-05), a la CIRIT (Comissionat per a Universitats de la Generalitat de Ca­
talunya) y a la Fundación BBV la ayuda económica con la que a través de diferentes pro­
yectos han contribuido a la consecución de esta obra.

B arcelona / M únich, ju lio de 1997


NOTA A LA SEGUNDA EDICIÓN

En los dos años transcurridos desde la aparición de la obra, diversos colegas y es­
tudiantes de España y Latinoamérica nos han hecho llegar sus críticas y sugerencias. Por
otro lado, el uso de la obra en la docencia ha puesto de manifiesto a los propios autores
algunas insuficiencias no advertidas cuando la escribimos. En esta edición hemos corregi­
do las erratas detectadas e incorporado una docena de matizaciones en el texto que no
afectan a su estructura ni contenido generales. Se trata pues, más de una reimpresión co­
rregida que propiamente de una nueva edición. Agradecemos desde aquí las críticas y su­
gerencias recibidas y solicitamos nuevamente la colaboración de colegas, alumnos y lec­
tores en general.

J. A. D ./C . U. M.
B arcelona / M unich, sep tiem b re 1999.
C a pít u l o 1

INTRODUCCIÓN: NATURALEZA Y FUNCIÓN


DE LA FILOSOFÍA DE LA CIENCIA

1. La ciencia como objeto. Los estudios sobre la ciencia

El conocimiento científico es el resultado de determinada práctica o actividad


específica que podemos denominar, en sentido amplio, teorización, y la filosofía de la
ciencia consiste en un determinado tipo de saber relativo a dicha práctica.
Para clarificar la naturaleza y función de la filosofía de la ciencia es preciso
distinguir dos sentidos en que se puede hablar de “saber” en relación con una práctica o
actividad. En un primer sentido, el saber relativo a una actividad consiste simplemente en
realizar dicha actividad satisfactoriamente; en otro sentido, el saber relativo a una activi­
dad consiste en conocer y ser capaz de formular explícitamente determinadas propiedades
o características de esa actividad. Consideremos, por ejemplo, la actividad de p ro ferir
oraciones g ra m a tica les , o la de a rg u m en ta r . Una cosa es saber realizar estas actividades
correctamente y otra muy distinta es saber en qué consiste realizar estas actividades co­
rrectamente. Debe quedar claro que lo primero no es condición suficiente para lo
segundo. Se puede saber hablar correctamente sin saber formular en qué consiste ello
exactamente, y se puede argumentar correctamente sin ser capaz de explicar qué es una
argumentación correcta. En ambos casos se tiene cierto conocimiento implícito, puesto
que la actividad se realiza correctamente, pero hace falta realizar una tarea adicional para
ser capaz de hacer explícito dicho conocimiento implícito. Eso es lo que hace la Gramáti­
ca en el caso de las proferencias gramaticales, o la Lógica en el caso de las argumentacio­
nes. Y hay por supuesto muchos otros hechos relativos a estas prácticas que, por no
consistir en reglas para su correcta realización, ni siquiera se conocen implícitamente;
hechos tales como el desarrollo histórico de las prácticas, o sus características o variacio­
nes etnosociales.
La capacidad de realizar correctamente una actividad, por tanto, no basta por sí
sola para poder formular explícitamente en qué consiste la práctica correcta de dicha
actividad. Por otro lado, si bien quizás menos manifiesto, es igualmente cierto que lo
primero tampoco es condición necesaria para lo segundo. Aunque poco probable, es
posible que alguien conozca explícitamente las reglas que rigen la argumentación correcta
16 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

y que, por ejemplo debido a algún tipo de disfunción cognitiva, no sea capaz de aplicarlas
y argumente en general incorrectamente. O, para tomar otros ejemplos menos controverti­
dos, es claro que se puede ser un excelente entrenador de un deporte y ser un pésimo ju­
gador del mismo, o que se puede ser un competente crítico de arte y ser un perfecto de­
sastre como artista.
Estas consideraciones se aplican también, en principio, a esa actividad que hemos
denominado, en sentido amplio, teorizar. Teorizar, como hablar o argumentar, también es
una actividad que se puede realizar correctamente sin saber formular explícitamente las
reglas que la guían, ni por supuesto otros hechos histórico-sociales relativos a ella. Sin
embargo, teorizar, a diferencia de proferir oraciones gramaticales o argumentar, es una
práctica que genera un cuerpo de saber explícitamente formulado acerca de cierto ámbito.
El resultado de realizar correctamente una actividad no consiste en general en la formula­
ción explícita de cierto saber sobre determinado ámbito. El resultado de realizar correcta­
mente la proferencia de oraciones gramaticales produce p ro feren cia s correctas, y éstas no
tienen por qué consistir en general en la formulación explícita de saber sobre cierto ámbi­
to; el resultado de argumentar correctamente produce argu m en ta cio n es co rrecta s , y éstas
no consisten en saber explícito sobre determinado ámbito. Esto es todavía más claro de
otras prácticas, como las deportivas o las artísticas; sea lo que sea el resultado que genera
practicar correctamente un deporte, es claro que no consiste en la formulación de un cuer­
po de conocimiento. Pues bien, en este aspecto la práctica de teo riza r es peculiar, pues el
resultado que genera es la formulación explícita de cierto conocimiento sobre determina­
do ámbito. Así, si denominamos “saber” en sentido estricto a la formulación explícita de
cierto conocimiento, entonces teorizar produce saber en sentido estricto, mientras que
proferir oraciones gramaticales, argumentar o practicar un deporte, no.
En este sentido se puede considerar que teorizar es (genera) saber explícito. Ahora
bien, el contenido del saber explícitamente formulado en cierta teorización esp ecifica no
versa (en general) sobre la teorización misma, sino sobre otro objeto o dominio. El cono­
cimiento formulado explícitamente en cierto teorizar no consiste en la explicitación de las
prácticas seguidas implícitamente en ese teorizar, ni tampoco en la formulación de sus pe­
culiaridades socio-históricas. Estas cosas son (o pueden ser) objeto de estudio y de formu­
lación explícita de otro teorizar, que toma así el primero como su objeto. El resultado de
este nuevo teorizar es también un saber en sentido estricto, pero es un saber de otro orden
o nivel. Decimos que es un sa b er de segundo o rden , un saber que tiene otro saber por ob­
jeto, saber-objeto que se considera en ese contexto un sa b er de p rim e r orden.
En general, los saberes de primer y segundo orden son, en cada contexto, diferen­
tes; por ejemplo: economía y sociología de la economía, biología y filosofía de la biolo­
gía, filosofía de la física e historiografía de la filosofía de la física, etc. Pero hay al menos
un tipo de saber que parece reflexivo, en el sentido de que se estudia a s í m ism o , y ése es
la filosofía. No nos referimos sólo a la iteración de estudios de segundo orden. Se pueden
hacer estudios históricos de las teorías biológicas, y también estudios históricos de los
estudios históricos de las teorías biológicas. Pero la historiografía biológica y la historio­
grafía de la historiografía biológica son disciplinas diferentes, el saber-objeto de la prime­
ra son teorías biológicas, el de la segunda son teorías históricas. Esta distinción, en
INTRODUCCIÓN. NATURALEZA Y FUNCIÓN DE LA FILOSOFÍA DE LA CIENCIA 17

cambio, no puede trazarse de manera tan tajante en filosofía, la cual, cuando se itera, pa­
rece reflexiva en un sentido específico que la distingue de las demás disciplinas de segun­
do orden; en filosofía, la iteración no parece generar un nuevo nivel de teorización. Así,
mientras que la historiografía de la disciplina a: y la historiografía de la historiografía de
la disciplina x son teorizaciones de segundo orden diferentes, y lo mismo sucede por
ejemplo con la sociología, ello no está nada claro en el caso de la filosofía. Por ejemplo,
apenas tiene sentido hablar de la filosofía de la filosofía de la biología (o del derecho,
etcétera) como algo diferente de la filosofía de la biología (del derecho, etc.) misma. En
principio parecería que sí, que el objeto de la primera son las teorías biológicas, mientras
que el de la segunda son las teorías filosóficas sobre las teorías biológicas. Pero en este
caso el estudio filosófico de las teorías biológicas no se distingue del estudio filosófico de
las teorías filosóficas de las teorías biológicas. En esto consiste el carácter reflexivo de la
actividad filosófica, carácter que se deriva de la naturaleza de la filosofía como análisis
conceptual.
La actividad científica es una de las formas de esa práctica que hemos denomina­
do genéricamente teo riza ció n . Como toda teorización, la teorización científica sobre los
diferentes ámbitos de la realidad genera diversos saberes, los cuales pueden a su vez ser
objeto de estudio de nuevas teorizaciones (científicas o no). Como se ha sugerido en el
párrafo anterior, hay por lo general más de una dimensión desde la que se pueden estudiar
las teorizaciones científicas. La investigación metacientífica tiene por objeto determinar
ciertos hechos o propiedades de la investigación científica y no todos esos hechos o pro­
piedades, aunque indudablemente interrelacionados, son exactamente del mismo tipo, re­
quieren del mismo tipo de investigación. Así, cada uno de los aspectos de la actividad
científica abre una dimensión desde la que se puede estudiar dicha actividad, da lugar a
un saber de segundo orden específico. Llamaremos estudios m eta cien tifico s , o estudios
sobre la ciencia, a las diversas teorizaciones de segundo nivel sobre las teorizaciones
científicas de primer nivel, y distinguiremos al menos cuatro aspectos diferentes de la ac­
tividad científica susceptibles de investigación metateórica: el psicológico, el sociológico,
el histórico y el filosófico. La distinción entre los correspondientes ámbitos metacientífi-
cos no se pretende tajante sino gradual, pero no por ello es menos importante.
La filosofía de la ciencia, por tanto, pertenece al campo de los estudios metacientífi-
cos, pero es sólo una parte de ellos; no es ni historiografía de la ciencia, ni psicología de
la ciencia, ni sociología de la ciencia, aunque está relacionada con todas ellas. Por otro
lado, la filosofía de la ciencia pertenece también al campo de los estudios filosóficos, pero
es sólo una parte de ellos; no es ni lógica, ni filosofía del lenguaje, ni filosofía de la mente,
ni filosofía de la técnica, aunque está relacionada con todas ellas. Estas afirmaciones pue­
den parecer obvias, y a nuestro juicio lo son, pero conviene recordarlas. Es inadecuado
tomar estas distinciones de un modo rígido, pero igualmente, o más, incorrecto es negar­
las. La fluidez de estas distinciones sólo supone una mayor dificultad en su fundamenta-
ción, no su inexistencia. Es cierto que “todo es cuestión de grado”, y que todo tiene que
ver con todo, pero no todo es lo mismo. Entre el sueño ilusorio de las distinciones rígidas
y el caos paralizante de la indistinción absoluta se encuentra el mundo real de las distin­
ciones graduales. Una justificación precisa de la naturaleza y límites de estas distinciones
18 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

requiere una discusión metafilosófica que excede los límites de esta introducción. Nos li­
mitaremos pues a unas breves consideraciones para motivar nuestra posición.
El método correcto en filosofía, en tanto que análisis conceptual, exige fijar la
atención en las intuiciones más firmes sobre nuestros conceptos y, “teorizando” sobre
ellas, explicarlas, y a la vez, arrojar nueva luz sobre otras “situaciones conceptuales” me­
nos claras, proceso éste que puede exigir, siempre como última instancia, la revisión de
algunas de nuestras intuiciones originales. Parte de esta tarea es común a toda disciplina
explicativa: a partir de ciertos casos paradigmáticos se desarrolla una “teoría” que los ex­
plique y, a la vez, pueda dar cuenta de nuevos casos menos claros, siendo posible, aunque
inusual, modificar a lo largo de este proceso nuestras ideas originales sobre algunos de
los casos paradigmáticos. Lo peculiar de la filosofía es, fundamentalmente, que los datos
básicos que en ella manejamos son las intuiciones que tenemos sobre nuestros propios
conceptos, un territorio por lo general más movedizo que el del resto de disciplinas. Estas
observaciones muestran que, para ciertos fines, puede ser suficiente ilustrar las diferen­
cias que se quieren destacar mediante la presentación de algunos ejemplos paradigmáti­
cos. Tal es nuestro caso. No vamos a intentar siquiera ofrecer o esbozar una teoría metafi­
losófica sobre la naturaleza de la filosofía de la ciencia y su diferencia respecto de otras
disciplinas, tanto metacientífícas como filosóficas; nos limitaremos a presentar unos po­
cos ejemplos que expresan, en nuestra opinión de forma clara, las intuiciones que quere­
mos destacar.
Los que siguen son ejemplos claros de cuestiones que corresponden a diferentes
disciplinas, y muestran que tenemos conceptos diferentes de cada una, por más que estén
estrechamente relacionadas y de que respecto de otros ejemplos nos sería más difícil esta­
blecer, fuera de toda duda, la asignación a una disciplina dada. Historiografía de la
ciencia: ¿a quién corresponde la prioridad histórica en el establecimiento del principio de
conservación de la energía?, ¿cómo influyó el descubrimiento del telescopio en el debate
entre geocentristas y heliocentristas? Sociología de la ciencia: ¿qué papel juegan las insti­
tuciones estatales en la constitución de las comunidades científicas?, ¿cuáles son los
criterios de aceptación de un nuevo miembro de una comunidad científica? Psicología de
la ciencia: ¿hay algún patrón común de comportamiento individual asociado a la pérdida
de confianza en una teoría en los períodos de crisis científica? Filosofía de la ciencia:
¿cuál es la diferencia entre una generalización accidental y una ley?, ¿en qué consiste la
distinción entre términos teóricos y términos no teóricos? Filosofía del lenguaje: ¿depen­
de el valor veritativo de una oración sólo de las entidades denotadas por las partes de la
oración, o depende también de los modos en que éstas denotan a aquéllas?, ¿llevan aso­
ciados los nombres propios modos de presentación? Filosofía de la mente: ¿tienen los es­
tados mentales poder causal?, ¿expresan los predicados mental istas conceptos funcio­
nales?
Podríamos seguir con más ejemplos, pero los mencionados bastan para mostrar
que, al menos a veces, las diferencias, aunque graduales, son claras (y ello, por supuesto,
independientemente de que incluso para responder “hasta el final” a cuestiones como las
planteadas sea preciso muchas veces usar conocimiento de las otras disciplinas). Pues
bien, ¿qué muestran, por lo que a la filosofía de la ciencia se refiere, estos ejemplos?, ¿en
INTRODUCCIÓN. NATURALEZA Y FUNCIÓN DE LA FILOSOFÍA DE LA CIENCIA 19

qué consiste su especificidad?, ¿qué la distingue de las otras disciplinas? La respuesta ge­
neral más apropiada, aunque parezca tautológica es: del resto de los estudios sobre la
ciencia se distingue por su carácter filosófico, y del resto de disciplinas filosóficas se dis­
tingue porque su objeto es la ciencia. Que su carácter es filosófico significa que se ocupa
principalmente de problemas conceptuales, esto es, de arrojar luz sobre los conceptos re­
lativos al objeto en cuestión. Esto distingue la filosofía de la ciencia de la historiografía,
la sociología y la psicología de la ciencia; ello, una vez más, no presupone tampoco que
haya una distinción rígida entre cuestiones de hecho y cuestiones conceptuales. Que su
objeto es la ciencia la distingue de otras disciplinas filosóficas y en especial de la filosofía
de la técnica y del lenguaje: ciencia, técnica y lenguaje son todos ellos productos cultura­
les humanos íntimamente relacionados, pero no son el m ism o producto.
Resumiendo, la filosofía, en tanto que análisis conceptual, es un saber sustantivo de
segundo orden, interrelacionado tanto con otros saberes de segundo orden como con los sa­
beres usuales de primer orden. La filosofía de la ciencia tiene por objeto poner de manifies­
to o hacer explícitos los aspectos filosófico-conceptuales de la actividad científica, esto es,
elucidar conceptos fundamentales, de la actividad científica, como los de ley, contrasíación,
explicación o m edición , y reordenar conceptualmente o reconstruir esos sistemas de con­
ceptos producidos por la ciencia que son las teorías científicas. En ambas tareas se ve in­
fluida por, y debe tomar en cuenta, tanto otros estudios de la ciencia (historiografía, psico­
logía, sociología), como las ciencias mismas, así como otras áreas de la filosofía, pero ello
no la vacía de contenido ni la disuelve en otros saberes. Veamos ahora con un poco más de
detenimiento en qué consiste la tarea específica de nuestra disciplina.

2. La ciencia com o objeto de estudio filosófico. La filosofía de la ciencia

Los científicos, por regla general, suelen mirar con cierta desconfianza a los filó­
sofos de la ciencia. ¿Qué más hay que saber de la ciencia que lo que ellos ya saben?; en
cualquier caso, ¿quién mejor para saber lo que es la ciencia que el que la practica?, ¿quién
que no sea un científico consumado puede decir algo sensato sobre la ciencia? Esta acti­
tud está en parte justificada y en parte no. Está justificada en la medida en que, ciertamen­
te, no se puede decir nada sensato sobre la ciencia siendo un ignorante en ella; de hecho,
muchos de los más importantes filósofos de la ciencia han dispuesto de una formación
científica considerable. Pero no está justificada en tanto confunde sa b er ciencia con sa ber
qué es la ciencia, saberes que corresponden a niveles o ámbitos diferentes. Hay algo más
que saber de la ciencia que sus contenidos, como hay algo más que saber de una lengua que
el hablarla. Hemos visto que en un sentido importante de ‘saber’, el saber relativo a
una actividad no se agota en practicarla, queda todavía saber en qué consiste practicarla,
ser capaz de formular las reglas o principios que se siguen. Lo primero no es condición
suficiente de lo segundo, se puede realizar correctamente la práctica sin ser capaz de ex-
plicitar las reglas seguidas, si bien, ciertamente, hay que suponer el conocimiento implíci­
to o inconsciente de las reglas involucradas; todos hablamos correctamente antes de
recibir cursos de gramática, y la mayoría de gente que argumenta bien no ha estudiado
20 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

jamás lógica. Y aunque es obvio que ser un practicante competente de una actividad faci­
lita por lo general la investigación sobre la misma, ya vimos que, estrictamente, lo prime­
ro tampoco es condición necesaria de lo segundo. Lo mismo se aplica, m utatis m u ta n d is ,
al caso de la práctica científica y su relación con los principios que la rigen. La tarea del
filósofo de la ciencia es investigar los principios que rigen esta actividad, principios que,
si suponemos que son seguidos implícitamente por los científicos, la hacen comprensible.
Vamos a ver a continuación que esta tarea involucra tres dimensiones diferentes pero,
contra lo que se suele sugerir, complementarias, a saber, las dimensiones d escrip tiva ,
p rescrip tiva e interpretativa.
A veces se intenta caracterizar la naturaleza de la filosofía de la ciencia en el con­
texto de la dicotomía “descripción/prescripción” y se discute cuál de las dos funciones ha
de desempeñar la disciplina, si la normativa o la descriptiva (un caso notorio de discusión
en estos términos lo representa la polémica entre Popper, Lakatos y Kuhn sobre la falsa-
ción, cf. cap. 12 §5). Según los partidarios de la perspectiva normativa, la tarea de la filo­
sofía de la ciencia consiste en imponer normas que se supone deben seguir los científicos
en su práctica, y “juzgarles” o evaluarles de acuerdo con tales normas. Para los partida­
rios del descriptivismo, eso no tiene ningún sentido y lo único que cabe es describir cómo
operan de hecho los científicos. En nuestra opinión, este modo de plantear la cuestión es
completamente confundente. En primer lugar, descripción y prescripción, aplicados al
análisis de la actividad científica, no son excluyentes. No se trata de dos cuernos de un di­
lema sino de dos caras de una misma moneda. En segundo lugar, estos aspectos no cu­
bren sino parcialmente la función de la filosofía de la ciencia. Junto a ellos, esta discipli­
na tiene también una dimensión interpretativa fundamental. Por decirlo brevemente: al­
gunas de las tareas de la filosofía de la ciencia son a la vez descriptivo-normativas, y otras
son interpretativas. O más exactamente, en casi todas están presentes ambas dimensiones,
en unas prima más el aspecto descriptivo-normativo (p.ej. ante el estudio de la contrasta-
ción de hipótesis), en otras ambos tienen análoga presencia (p.ej. el análisis de la expli­
cación científica o el de la evaluación teórica), y en otras, por último, domina la dimen­
sión interpretativa (p.ej. el análisis y reconstrucción de teorías).
Contra lo que muchas veces se ha sugerido, descripción y prescripción no siempre
se oponen. En concreto, no se oponen cuando son relativas a las prácticas convencionales:
las prácticas convencionales se atienen a convenciones o reglas, y la descripción de tales
convenciones tiene implicaciones normativas. O bien, viéndolo desde el otro lado, ‘esta­
blecer prescripciones-normas’ es una expresión ambigua. En un sentido significa im poner
normas, reglas o mandatos para d irig ir una actividad o conducta previamente no regula­
da; ejemplos paradigmáticos de ello son algunas normas de circulación o, sobre todo, la
“invención” de un juego. En otro sentido, significa investigar y hacer explícitas las reglas,
normas o convenciones que rigen ya de hecho cierta actividad o conducta. La primera ta­
rea no es a la vez descriptiva (en el sentido interesante de ‘descripción’, las reglas de un
juego no son descriptivas), la segunda sí.
La clave para comprender el segundo tipo de tarea es el concepto de convención
(para un análisis exhaustivo de este concepto, cf. Lewis, 1969). Las convenciones, a di­
ferencia de los mandatos explícitos, son normas que han devenido tales sin que medie
INTRODUCCIÓN. NATURALEZA Y FUNCIÓN DE LA FILOSOFÍA DE LA CIENCIA 21

ningún acto de imposición arbitraria o decisión explícita colectiva (p.ej. la convención de


los conductores de avisar mediante ráfagas luminosas la presencia de la policía). Una ac­
tividad convencional es pues una actividad que está regida por normas seguidas implícita
o inconscientemente por los que llevan a cabo dicha actividad. Pero las convenciones son
normas y por tanto las actividades convencionales son susceptibles de llevarse a cabo
correcta o incorrectamente, siguiendo las reglas o no.
Quizás se diga que en este sentido las leyes naturales que rigen todos los entes sin
conciencia son convenciones, que la actividad de estos seres es convencional, pues “si­
guen” estas leyes-reglas inconscientemente. Podemos hablar como queramos, pero desde
luego no es eso lo interesante. No se suele usar así el término, no sólo para los entes ina­
nimados, sino tampoco para muchos seres animados, incluso aunque se les atribuya cier­
tas capacidades cognitivas o representacionales. No sólo no decimos que la actividad de
un átomo sigue una convención, tampoco lo decimos de una bacteria o un perro, aunque
al menos este último es probablemente un ser con cierta capacidad cognitiva. Es claro que
‘convencional’ sólo se aplica a actividades de seres susceptibles de desarrollar capacida­
des representacionales especialmente complejas, en particular capaces de tener determi­
nado tipo de representaciones de segundo orden. Para seguir una convención no basta te­
ner estados representacionales conativos (deseos) y doxásticos (creencias) básicos, hay
que tener además representaciones de segundo orden: creencias sobre las creencias y d e ­
seos de otros, creencias sobre las creencias de otros acerca de nuestras creencias y
deseos, etc. Esto es lo fundamental, y sean lo que sean estos estados, involucren o no la
conciencia, y por mucho que, caso de que la involucren, no tengamos mucha idea de qué
es la conciencia, el caso es que claramente no todos los seres con capacidades representa­
cionales disponen de este tipo de representaciones de segundo orden. Por tanto, no todo
comportamiento guiado por reglas se puede calificar de convencional, ni siquiera cual­
quier actividad regulada que requiera alguna capacidad representacional. Sólo son con­
vencionales las conductas reguladas cuya realización supone el uso de representaciones
de segundo orden específicas. Por lo que sabemos, parece que sólo el ser humano dispo­
ne de estados representacionales con esas características, y por tanto que sólo él es capaz
de desarrollar conductas convencionales (ésta es una cuestión empírica abierta que, en
cualquier caso, no afecta lo que sigue).
Hay muchas actividades humanas convencionales, por ejemplo, el tipo de saludo
específico de cada comunidad, o la mencionada práctica entre los conductores de indicar
mediante ráfagas la presencia de la policía. La actividad humana convencional más para­
digmática es sin duda el uso del lenguaje, el hablar determinada lengua. El lenguaje es
convencional y por eso es norm ativo, porque está sometido a reglas. Hablar un lenguaje
es fundamentalmente seg u ir reglas, las reglas lingüísticas gramaticales, semánticas y
pragmáticas, que son convencionales en el sentido apuntado (cf. Lewis, op. cit., cap. 5,
y también Grice, 1957). Hablar consiste en (intentar) seguir unas reglas implícitas en la
comunidad en la que se desarrolla la actividad y por ello es una actividad que se puede
desarrollar correcta o incorrectamente, esto es, una actividad susceptible de evaluación.
Hay muchas otras actividades humanas convencionales relacionadas, en sentido más o
menos laxo según el caso, con el lenguaje. Cada una de esas actividades tiene una finali­
22 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

dad y está regida por un sistema implícito de reglas que, de seguirse correctamente,
conducen a la consecución de la finalidad en cuestión. Actividades de ese tipo son, por
ejemplo, realizar p ro feren cia s gram aticales (que es parte constituyente de la actividad de
h a b la r un lenguaje), a rg u m en ta r , exp lica r o teorizar.
Como ya señalamos más arriba, en relación a estas actividades regidas por reglas
hay dos sentidos en que se puede hablar del conocimiento de las reglas. El primero es un
conocimiento im p lícito , que consiste en realizar con éxito la actividad, en seguir las re­
glas; a los que practican correctamente la actividad hay que atribuirles el conocimiento
implícito de las reglas. El segundo es conocimiento exp lícito , saber en qué consiste prac­
ticar correctamente la actividad, y a él se llega mediante una tarea o investigación de
segundo orden. La función de las disciplinas que llevan a cabo esta investigación (p.ej.
parte de la Lógica, parte de la Gramática) es hacer explícitas las reglas que rigen las acti­
vidades en cuestión, descubrir y d escrib ir el conjunto de normas-convenciones en cuyo
seguimiento consiste el desarrollo exitoso de la actividad. Pero entonces es claro que la
función de tales disciplinas es a la vez descriptiva y norm a tiva (o evaluativá). Al hacer
explícitas, al describir, las reglas que rigen la actividad, permiten evaluar si tales reglas se
han seguido o no en un caso concreto, si la actividad se ha llevado a cabo correctamente.
O mejor dicho, hacer explícitas las reglas y evaluar la actividad son en este caso dos caras
de la misma finalidad. Resumiendo: describir normas o convenciones en cuyo intento de
seguimiento consiste una actividad es a la vez dar criterios de evaluación sobre la realiza­
ción correcta o incorrecta de dicha actividad (y por tanto también sobre el éxito o fracaso
del fin perseguido con ella).
Pues bien, sucede que ha cer ciencia es parcialmente semejante, en el sentido indi­
cado, a arg u m en ta r o h a b la r una lengua , a saber, una actividad humana regida también
por ciertas reglas-convenciones implícitas. En este caso se trata de una macro-actividad
que consta de un cúmulo de otras actividades menores, p.ej., contrastar hipótesis, realizar
experimentos, dar explicaciones, formular teorías, etc. En este sentido, al menos parte de
la filosofía de la ciencia tiene por tarea hacer explícitas las reglas que rigen las diversas
partes de esa actividad que es h a cer ciencia. Y al igual que los buenos argumentadores
saben argumentar sin ser p o r ello capaces de decir en qué consiste argumentar bien (tarea
del lógico), los buenos científicos que, por ejemplo, saben contrastar (correctamente) sus
hipótesis no tienen p o r ello por qué ser capaces de decir en qué consiste realizar una bue­
na con tras tación, ésa es la tarea del filósofo de la ciencia (y si algún científico realiza esta
tarea, no lo hace qua científico sino qua filósofo de la ciencia). En consecuencia, también
la filosofía de la ciencia (o al menos parte de ella) es a la vez descriptiva y normativa:
describiendo las reglas que rigen, por ejemplo, la contrastación correcta, evalúa casos
concretos de esa actividad. En este sentido es prescriptiva o normativa: dice cómo hay
que hacer las cosas. Pero no es normativa en otro sentido más radical; no dice cómo
hay que hacerlas p o rq u e ella lo diga, porque ella “lo decida”, autónomamente, indepen­
dientemente de la actividad científica por así decir. Justamente lo contrario, especifica
cómo hay que hacerlas porque ésas son las reglas que rigen de hecho la práctica científi­
ca, esto es, hace explícitas las convenciones que siguen implícitamente los científicos.
Estas consideraciones dan cuenta de la naturaleza de parte de la filosofía de la
INTRODUCCIÓN. NATURALEZA Y FUNCIÓN DE LA FILOSOFÍA DE LA CIENCIA 23

ciencia y sugieren que la mayoría de las polémicas sobre el presunto dilema descripti-
vismo-prescriptivismo son vacuas, pues estos dos conceptos conforman una dualidad
pero no un dilema. Algunas disciplinas pueden ser, en alguna de sus partes, a la vez des­
criptivas y normativas, y la filosofía de la ciencia es una de ellas. Ahora bien, asentado
este punto hay que advertir inmediatamente que la dimensión descriptivo-normativa no
es la única. Por ejemplo, una de las tareas de la filosofía de la ciencia es el análisis y
reconstrucción de las teorías científicas y, como veremos, ese análisis no es una tarea
descriptivo-normativa sino in te rp re ta tiv a . Así, además de su dimensión descripti­
vo-normativa, la filosofía de la ciencia tiene también una dimensión interpretativa
fundamental.
La filosofía de la ciencia tiene por objeto la actividad científica. Esta actividad
involucra prácticas regidas por normas-convenciones y la explicitación de estas conven­
ciones constituye la parte descriptivo-normativa de la filosofía de la ciencia. Pero la acti­
vidad científica no sólo involucra p rá ctica s convencionales, también involucra esencial­
mente entid a d es , constructos científicos. Contrastación, medición o experimentación son
ejemplos de prácticas científicas; conceptos, leyes y teorías son ejemplos de constructos
científicos. El análisis metacientífico de las prácticas tiene un carácter descripti-
vo-prescriptivo, el análisis metacientífico de las entidades científicas es esencialmente in­
terpretativo. Ya hemos visto con cierto detalle en qué consiste su carácter descripti-
vo-normativo, nos detendremos ahora brevemente en la dimensión interpretativa.
Como en muchos otros campos, la investigación teórica de cierto ámbito de la rea­
lidad y de las entidades presentes en el mismo (investigación que en nuestro caso es me-
tateórica, pues se trata de formular teorías —filosóficas— sobre las teorías científicas y
sus diversos componentes) consiste en desarrollar cierta interpretación de dicho ámbito.
Las entidades o constructos científicos constituyen un ámbito de la realidad específico, un
ámbito que en este caso es parte de la realidad cu ltu ra l , y su estudio es pues fun­
damentalmente interpretativo. Como cualquier otra ciencia de la cultura que haya alcan­
zado un mínimo nivel de abstracción y de articulación sistemática, la filosofía de la cien­
cia se caracteriza por construir m odelos interpretativos de las entidades estudiadas, en
nuestro caso los constructos científicos. Estos modelos interpretativos no son, por su na­
turaleza más propia, ni códigos de conducta, ni recuentos de datos; por el contrario, se
trata de marcos teóricos, que usan conceptos específicos, generalmente de un considera­
ble nivel de abstracción e “idealización”, cuya finalidad es hacer inteligibles las estructu­
ras esenciales de ese vasto edificio que es la ciencia, o al menos partes de él. La forma de
discurso que conviene a tales modelos no es ni la forma prescriptiva ni la descriptiva, ni
siquiera en su versión sintética descriptivo-prescriptiva que hemos visto para el caso de
las prácticas científicas. Por lo que a las entidades o constructos científicos se refiere, no
se trata de normar el modo como “deben ser”, pero tampoco de establecer una lista de
enunciados que reflejen especularmente supuestos “hechos puros” relativos a dichas enti­
dades. De lo que se trata es de m o d ela r , de reconstruir bajo cierta óptica determinados as­
pectos de los constructos científicos que nos parecen especialmente reveladores para en­
tender lo que es esencial de ellos.
Diversas corrientes, escuelas y autores en filosofía de la ciencia han propuesto
24 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

diversos modelos de interpretación (diversas “metateorías”, como puede decirse) de la


ciencia y, en particular, de sus constructos más importantes, las teorías científicas. Estos
modelos pueden ser más o menos adecuados a su objeto, más o menos plausibles, más o
menos precisos, más o menos generales. Pero, en cualquier caso, su aceptabilidad no de­
pende de que establezcan normas del "buen” comportamiento científico (que nadie está
dispuesto a seguir de todos modos, y menos que nadie los practicantes de la ciencia), ni
tampoco de que reflejen fielmente ciertos “hechos puros” acerca de los constructos cientí­
ficos (siendo, por lo demás, muy dudoso que puedan detectarse tales hechos con indepen­
dencia de toda teoría, es decir, de todo marco de interpretación). De lo que depende la
aceptabilidad de los modelos o metateorías es de su p e rsp icu id a d , o sea, de la capacidad
que tengan para hacernos comprender lo esencial de los constructos científicos al nivel
más profundo posible.
Cualquier actividad teórica, por medio de la cual se construyen y aplican teorías,
tiene una dimensión interpretativa fundamental. Esto es cierto de las ciencias empíricas
de "primer orden” (sean naturales o sociales), y vale en mayor medida, si cabe, para las
ciencias de "segundo orden”, como la filosofía de la ciencia. Teorizar no consiste simple­
mente en explicitar normas ni en registrar hechos: consiste en "conceptualizar” o “recons­
truir”, es decir, interpretar el material de estudio dentro de cierto marco conceptual, pre­
viamente dado, que es precisamente lo que llamamos “una teoría”. Toda teoría es inter­
pretación, y ello vale naturalmente también, y muy especialmente, para las teorías que
produce la filosofía de la ciencia.
Lo dicho hasta aquí puede sugerir que ambas dimensiones de la filosofía de la
ciencia, la descriptivo-normativa y la interpretativa, son complementarias pero excluyen-
tes. Algunas de las tareas desarrolladas por la filosofía de la ciencia serían descripti-
vo-normativas y no interpretativas, las restantes serían interpretativas pero no descriptivo-
normativas. Las primeras tendrían que ver con el análisis de las prácticas científicas, las
segundas con el de los constructos científicos. Pues bien, contra lo que la exposición sim­
plificada que hemos ofrecido parece sugerir, no es éste el caso. Es cierto que en algunas
de las tareas el componente descriptivo-normativo es el fundamental, y que en otras lo es
el interpretativo; un ejemplo de lo primero lo constituye el estudio de la contrastación
científica y un ejemplo de lo segundo es el análisis y reconstrucción de teorías. Pero hay
casos, como el análisis de la explicación científica, en el que ambas funciones están prác­
ticamente a la par. Y lo que es más importante, incluso en aquellos casos en que uno de
los componentes parece el fundamental, el otro nunca está totalmente ausente. El motivo
es que las prácticas científicas siempre involucran algunos constructos teóricos, y vice­
versa, los constructos científicos son el resultado de ciertas prácticas. Por ejemplo, la con­
trastación de hipótesis supone, entre otras cosas, el uso de constructos conceptuales y de
leyes, y una diferente interpretación de la naturaleza de las leyes puede tener consecuen­
cias a la hora de explicitar las convenciones que rigen la actividad contrastacional. En la
otra dirección, la construcción de teorías involucra ciertas prácticas cuyas reglas se deben
seguir so pena de quedar deslegitimado el constructo resultante en tanto que teoría cientí­
fica. SÍ un científico construye una supuesta teoría que resulta ser directamente autojusti-
ficativa, esto es, una teoría tal que su contrastación presupone inmediatamente su validez, la
INTRODUCCIÓN. NATURALEZA Y FUNCIÓN DE LA FILOSOFÍA DE LA CIENCIA 25

comunidad no aceptará esa entidad como una genuina teoría empírica. Así pues, la deter­
minación de ciertas condiciones en las prácticas de contrastación de las4£Qrías-tienexon-
secuencias para- la tarea reconstructiva, puede determinar ciertas constricciones a las que
toda reconstrucción se debe atener.
Resumiendo: adecuadamente consideradas, las dimensiones descriptiva y pres-
criptiva no se oponen sino que son dos aspectos de la misma función; esta función des-
criptivo-normativa, además, no es exclusiva sino que se combina con otra interpretativa.
Aunque en algunos ámbitos metacientíficos es más explícito el componente descripti-
vo-normativo y en otros el interpretativo, ambos están siempre presentes, quizás en diver­
so grado. Así pues, estos dos aspectos de la actividad metacientífica no son excluyentes,
la filosofía de la ciencia es una actividad a la vez interpretativa y descriptivo-normativa.
Es cierto que, como apuntaremos en la breve revisión histórica, a veces algunos filósofos
de la ciencia han defendido la prioridad, o incluso la exclusividad, de alguna de estas fun­
ciones, ya sea de la descriptiva, ya de la prescriptiva, ya de la interpretativa; por ejemplo,
los partidarios del descriptivismo exclusivista reducen la tarea de la filosofía de la ciencia
a la simple descripción de los avatares científicos sin prestar especial atención a las nor­
mas que rigen implícitamente la práctica científica. Debe quedar claro que tal actitud es
un error, derivado de una inadecuada concepción, por lo que a la actividad metacientífica
se refiere, de la naturaleza de cada una de estas funciones y de sus relaciones mutuas.

3. Nuestro tema: Filosofía general de la ciencia empírica

Hemos visto que la filosofía de la ciencia tiene por objeto poner de manifiesto o
hacer explícitos los aspectos filosófico-conceptuales de la actividad científica, esto es,
elucidar conceptos fundamentales de la actividad científica, determinar las normas que
rigen esa actividad y reordenar conceptualmente o reconstruir esos sistemas de concep­
tos producidos por la ciencia que son las teorías. La filosofía de la ciencia, tal como la
hemos caracterizado, es extremadamente amplia y diversificada. Puesto que las mani­
festaciones de la actividad científica son múltiples y variadas, también lo serán sus aná­
lisis filosóficos si no hacemos abstracción de algunas diferencias entre las diversas
manifestaciones científicas. Si no abstraemos nada en absoluto nos encontramos con la
total diversidad de sistemas conceptuales y teorías. En un primer nivel de abstracción
tendríamos las teorías agrupadas por disciplinas: física, química, biología, psicología,
economía, lingüística, matemática, lógica, etc. En otro nivel se agruparían las diversas
disciplinas en diversos grupos, los correspondientes a la ciencia natural, la ciencia so­
cial y la ciencia formal. Y todavía en otro grado de abstracción podríamos reunir las dos
primeras, ciencia empírica, frente a la última, formal. Por supuesto, esto es sólo indica­
tivo, son posibles grados intermedios de abstracción y las diferencias en cada grado son
muchas veces fluidas.
El nivel de abstracción que va a guiar en general nuestro estudio de la materia es el
que corresponde a la filo so fía g en era l de la ciencia em pírica. En primer lugar, no se van a
tratar problemas esp ecífico s de las ciencias formales, aunque eso no significa que no sea
26 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

aplicable a ellas nada de lo que aquí se estudie (como se verá, por ejemplo, cuando se
analice la estructura axiomática de las teorías).
En segundo lugar, se hará abstracción de las diferencias entre las diversas ciencias
empíricas, las naturales y las sociales, de modo que el estudio se aplique por igual a am­
bos tipos. Esto es, el estudio lo será de sus aspectos comunes; en la medida en que las
ciencias sociales requiriesen un análisis adicional por disponer de características específi­
cas, ello no se hará aquí.
En tercer lugar, el análisis filosófico de la ciencia empírica se va a desarrollar a ni­
vel general, va a versar sobre los aspectos comunes a (la mayor parte de) la ciencia empíri­
ca. No se van a tratar problemas específicos de ciencias o teorías empíricas particulares,
como el espacio-tiempo en la teoría de la relatividad, la medición en mecánica cuántica, la
información en biología o el problema de la predictibilidad en economía. Ante esta alterna­
tiva se puede objetar que no hay tal cosa, que la filosofía general de la ciencia es un mito,
que los únicos problemas interesantes tienen que ver con las ciencias especiales y que, in­
cluso cuando pretendemos lo contrario nos vemos forzados, si se nos obliga a precisar, a
descender a ciencias específicas. ¿Qué es eso de “el problema de la justificación”, o “el
problema de la explicación”? Una cosa es en física, otra en biología, otra en economía, y si
nos apuran, una cosa es en mecánica, otra en termodinámica, otra en cosmología, etc.
Bien, ello es parcialmente cierto, y parcialmente falso. Es parcialmente cierto,
pues no sólo hay problemas específicos de cada ciencia sino que los problemas comunes
a las diversas ciencias presentan algunos elementos específicos en cada una de ellas. Pero
es parcialmente falso, pues lo anterior no excluye que, como es el caso, algunos otros ele­
mentos de esos problemas sí sean comunes a toda manifestación científica. Quien abunda
en esta línea de crítica olvida que lo mismo podría decirse respecto de las ciencias mis­
mas. ¿Qué es eso de la energía? Una cosa es la energía mecánica, otra la calórica, otra la
radiante, etc. ¿Qué eso de la herencia genética? Una cosa es en los mamíferos, otra en las
aves, otra en las legumbres, etc. Es obvio que en este ámbito la crítica es claramente in­
fundada. Pues bien, a menos que se aduzcan motivos adicionales relativos a la especifici­
dad de la investigación metacientífica, no tiene por qué ser diferente en nuestro ámbito.
En nuestra opinión, la especificidad de la investigación metateórica no proporciona tales
motivos. La crítica es infundada en ambos casos, el científico y el metacientífico. Y lo es
por el mismo motivo; en ambos casos se comete el mismo error, a saber, pensar que por­
que algo es diferente, todo (lo interesante) es diferente. Nadie duda de que, aunque la he­
rencia genética presente aspectos específicos en los animales y en las plantas, hay algo
común que es merecedor de estudio (científico). Pues bien, lo mismo es cierto de la expli­
cación, o de las leyes. Aunque las leyes científicas presenten aspectos específicos en las
teorías mecánicas y en las económicas, hay algo común que es merecedor de estudio (me­
tacientífico). Como estableció Aristóteles, la ciencia, toda theoria , busca lo general en lo
particular, lo similar en lo diferente. Pero para ello es necesario abstraer las diferencias,
pues sin abstracción no hay, no ya ciencia alguna, sino ni siquiera lenguaje. Y, por lo que
a la abstracción de las diferencias se refiere, es claro que no hay un único modo de hacer­
lo, un único grado de abstracción. En eso, como en muchas otras cosas, la filosofía no di­
fiere apenas de otras disciplinas.
INTRODUCCIÓN. NATURALEZA Y FUNCIÓN DE LA FILOSOFÍA DE LA CIENCIA 27

4. Panoram a sucinto de la historia de la filosofía de la ciencia

En sentido estricto, la filosofía de la ciencia, como disciplina filosófica específi­


ca y sociológicamente identificare, es relativamente joven, se origina en el cambio de si­
glo y se asienta definitivamente en el período de entreguerras. Sin embargo, en un sentido
más amplio, la filosofía de la ciencia es tan antigua como la filosofía misma. Uno de los
principales fenómenos objeto de la reflexión filosófica casi desde los inicios de la filoso­
fía es el conocimiento humano. Ahora bien, parece hoy día generalmente admitido que
el conocimiento humano encuentra su máxima expresión en el conocimiento científico, el
cual, aunque especialmente importante a partir de la Revolución Científica del siglo xvn,
ya estaba presente en algunas de sus formas en la Antigüedad (especialmente geometría,
astronomía y estática). Este conocimiento científico fue objeto de especial atención en
una reflexión de “segundo orden” ya en algunos pensadores griegos, principalmente en
Aristóteles. A él se debe la primera concepción del método axiomático en general, como
modo de sistematizar el conocimiento científico, concepción que luego fue aplicada (con
ligeras variantes) por Euclides a la geometría y por Arquímedes a la estática.
No podemos exponer aquí la historia de la filosofía de la ciencia con mínimo dete­
nimiento, tarea que exigiría por sí misma un tratado de la misma extensión, si no más,
que el presente. Aquí sólo podemos señalar muy someramente los hitos más sobresalien­
tes en el desarrollo de nuestra disciplina (para un estudio más detenido, aunque todavía
abreviado, de toda su historia, cf. Losee, 1972; para la historia reciente, cf. p.ej. Brown,
1977 y Echeverría, 1989). Por lo demás, una porción considerable de la evolución de te­
mas, corrientes y autores a partir de la Segunda Guerra Mundial se tratará con detalle,
aunque sin pretensiones historiográficas, en diversas partes de esta obra (cf. especialmen­
te caps. 7 a 10 y 12).
El advenimiento de la llamada “Revolución Científica” (no discutiremos aquí la
pertinencia o no de esta denominación), fenómeno cultural cuyos inicios pueden fecharse
con los trabajos de Simón Stevin en mecánica y Johannes Kepler en astronomía, a princi­
pios del siglo x v i i , y cuya conclusión puede verse en la síntesis newtoniana al final del
mismo siglo, proporcionó pronto material científico suficiente como para que algunos
pensadores, ya fueran ellos mismos científicos practicantes o no, se pusieran a reflexionar
sobre lo que ellos u otros hacían al hacer ciencia empírica. Las cuestiones de m étodo pa­
saron al primer plano de esta reflexión, siendo la pregunta fundamental: ¿cuáles son las
reglas que determinan el buen método de investigación científica? Por eso podemos ca­
racterizar estos primeros conatos de una reflexión de segundo orden sobre la ciencia
como una filosofía principalmente normativista. El tratado más sistemático, divulgado e
influyente de metodología científica en esta época fue el N ovum O rganon de Francis Bacon,
cuya concepción puede considerarse precursora de una curiosa combinación de la metodo­
logía inductivista con la hipotético-deductivista en el sentido actual. Bacon no fue en rigor
un científico profesional, sino precisamente alguien que hoy día consideraríamos como un
especialista en filosofía de la ciencia. Pero también algunos de los grandes campeones de
la ciencia del momento dedicaron una porción considerable de su esfuerzo intelectual a la
reflexión de segundo orden sobre lo que ellos mismos estaban haciendo. Los dos casos
28 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

más notables son Rene Descartes e Isaac Newton, ambos impulsores del método axiomá­
tico en física. De manera explícita y sistemática formuló Newton su metodología general
bajo el título R egulae P h ilosophandi (o sea “Reglas para filosofar”, donde ‘filosofar’ sig­
nifica aquí “hacer investigación empírica”), al principio de la Tercera Parte de su obra
cumbre, los P hilosophiae N atu ra lis P rincipia M athem atica. Estas R eg u la e pueden enten­
derse como un “mini-tratado” de filosofía de la ciencia.
Si la actitud normativista es lo que caracteriza estos primeros conatos de la filoso­
fía de la ciencia en el siglo x v i i , en cambio, en el siglo siguiente, cuando la idea general
de una ciencia matemático-experimental ya estaba bien establecida, es más bien el pun­
to de vista descriptivista el que predomina en los estudios sobre la ciencia. Ello es parti­
cularmente manifiesto en los enciclopedistas, especialmente D’Alembert y Diderot. Se in­
tenta dar aquí una visión sistemática y de conjunto de las diversas disciplinas científicas y
sus interrelaciones.
En contra de lo que a veces se supone, no hay una filosofía de la ciencia verda­
deramente tal en los empiristas británicos del siglo xvm . Lo que hay en ellos es una
teoría crítica del conocimiento humano en general, la cual tiene implicaciones para la
filosofía de la ciencia sólo en la medida en que ciertos temas muy generales de la fi­
losofía de la ciencia son también temas de la teoría del conocimiento (por ejemplo, per­
cepción, causalidad, inducción) y en el sentido de que si se cuestiona toda forma de
conocimiento humano, ello obviamente también tiene consecuencias para la forma es­
pecíficamente científica del mismo. De hecho, las filosofías de Berkeley y Hume no
planteaban tesis precisamente constructivas con respecto a la ciencia establecida de su
tiempo: Berkeley no creía en la relevancia de la matemática para el conocimiento empí­
rico, y Hume no creía ni en la causalidad ni en la inducción; pero precisamente estos
tres elementos, matematización, causalidad e inducción, constituían los pivotes de la
síntesis newtoniana (y no sólo de ella).
La filosofía de la ciencia no recibe un nuevo impulso hasta finales del siglo x v i i i
con la obra de Immanuel Kant. La filosofía trascendental kantiana (especialmente en sus
planteamientos de la C rítica de la R azón P ura y los F undam entos M etafísicos de la C ien­
cia N atural) representa un hito importante en la “protohistoria” de nuestra disciplina y
ello no sólo por su influencia en las discusiones posteriores hasta bien entrado el siglo xx,
sino también porque es el primer ejemplo histórico de lo que hemos denominado antes
un m odelo interpretativo de la ciencia, una metateoría sistemática de las teorías científi­
cas. En efecto, Kant se encuentra ya con dos teorías bien establecidas, la geometría
euclídea como teoría del espacio físico y la mecánica newtoniana como teoría del movi­
miento, y se pregunta por la estructura esencial que “se esconde” detrás de estas teorías;
quiere establecer lo que hace comprensible por qué ellas proporcionan conocimiento ge­
nuino de la realidad empírica, aun siendo tan altamente abstractas o “ideales”. La teoría
kantiana de los ju ic io s sintéticos a p rio ri , de las categorías d el entendim iento y de las f o r ­
m as p u ra s de la intuición (espacio y tiempo) puede verse como una propuesta de interpre­
tación general de aquello que es esencial en el conocimiento científico, y que está para­
digmáticamente contenido en la geometría y la mecánica. La respuesta kantiana en sus
rasgos específicos probablemente ya no sea aceptada hoy día por ningún filósofo de la
INTRODUCCIÓN. NATURALEZA Y FUNCIÓN DE LA FILOSOFÍA DE LA CIENCIA 29

ciencia. Sin embargo, ella marcó la pauta de la discusión de una serie de temas y conceptos
que han jugado un papel central en la filosofía de la ciencia de la época contemporánea (re­
lación teoría-experiencia; función de las matemáticas en la ciencia empírica; carácter de las
regularidades nómicas; naturaleza de la causalidad, del espacio y del tiempo;...).
De los filósofos del idealismo alemán posteriores a Kant no puede decirse propia­
mente que hicieran contribuciones significativas a la filosofía de la ciencia, al menos tal
como entendemos ésta hoy en día. Más bien se trató en ellos, sobre todo en Hegel y Sche-
lling, de una filo s o fía de la n a tu ra leza , es decir, una especulación filosófica directa (de
“primer orden”) sobre la realidad empírica, basada en sus propios sistemas metafísicos.
En realidad, estos filósofos se mostraron muy escépticos, cuando no abiertamente opues­
tos, al espíritu de la ciencia empírico-matemática moderna, tal como ella se desarrolló a
partir del siglo xvn. Con cierta benevolencia, podría verse en sus especulaciones el inten­
to de formular un programa alternativo al de la ciencia moderna, proyecto que al final
condujo a un callejón sin salida.
La filosofía de la ciencia como explícita reflexión de segundo orden sobre la cien­
cia retoma vuelo en la primera mitad del siglo xix con la obra de Auguste Comte, el
fundador del positivismo. Dentro de la clasificación general de enfoques que hemos pre­
sentado más arriba cabría considerar el enfoque comtiano como primordialmente descrip-
tivista: se trata de presentar la totalidad de las disciplinas establecidas de su tiempo dentro
de un esquema jerárquico general, tanto en perspectiva sincrónica como díacrónica. Aho­
ra bien, de su descripción general de lo que considera el estado de la ciencia de su época,
Comte saca también algunas consecuencias normativas acerca de cómo hacer “buena
ciencia”, que posteriormente iban a tener bastante influencia en los practicantes mismos
de algunas disciplinas, como la medicina y las ciencias sociales. Un enfoque parecido
puede verse en otro autor de mediados del siglo xix, John Stuart Mili, en quien, sin em­
bargo, la problemática metodológico-normativa iba a jugar un mayor papel, y a tener una
influencia posterior más profunda, que en el caso de Comte.
Los planteamientos kantianos, que habían quedado eclipsados por largo tiempo,
retornan con vigor a finales del siglo xix y principios del xx, con una serie de comentes,
escuelas y autores que, aunque muy distintos entre sí, toman su fuente de inspiración más
de Kant que del positivismo inmediatamente anterior, y con ello elaboran enfoques
más bien interpretativos (metateóricos) en el sentido apuntado más arriba. Los filósofos
de la ciencia más obviamente influidos por Kant fueron, por supuesto, los n eo ka n tia n o s ,
con Ernst Cassirer a la cabeza, quienes trataron de compaginar del mejor modo posible
los principios de la teoría kantiana original con los nuevos desarrollos de las ciencias, es­
pecialmente de la física. Pero, además de los neokantianos, a esta época pertenecen una
serie de autores que, aun siendo más o menos críticos (a veces radicalmente críticos) de
Kant, retomaron las preocupaciones y el modo de encarar los problemas de éste y elabo­
raron sus propias metateorías en el sentido de modelos acerca de la estructura esencial del
conocimiento científico, sobre todo de la física. De esta plétora de enfoques aquí sólo po­
demos mencionar unos pocos, aquellos que mayor influencia tuvieron en la filosofía de la
ciencia posterior; el ílp seu d o -ka n tism o ” empirista de Hermann von Helmholtz, el co n ven ­
cionalism o de Henri Poincaré, el instrum entalism o de Pierre Duhem, el p ra g m a tism o de
30 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Charles S. Peirce y el em pirio-criticism o (quizás sería más adecuado calificarlo de “ope-


racionalismo radical”) de Ernst Mach. Aunque existen profundas discrepancias entre es­
tos pensadores, tienen, no obstante, un indudable “aire de familia”. Por las preocupacio­
nes, intereses y objetivos que comparten, puede considerarse a estos autores uno de los
puntales para la formación, en la generación inmediatamente posterior, de la filosofía de
la ciencia tal como la entendemos hoy día como disciplina relativamente autónoma.
(Otros pensadores importantes en este proceso de gestación de la disciplina, a los que
sólo podemos aludir aquí, son Herschel, Whewell, Jevons, Hertz y Campbell).
El otro gran puntal para la constitución de nuestra disciplina fue la lógica moder­
na, establecida de nuevo cuño por Gottlob Frege en el último cuarto del siglo xix, y que
iba a ser consolidada y propagada por los P rincipia M a th em a tica de Bertrand Russell y
Alfred N. Whitehead a principios del siglo xx. Como parte de este otro puntal habría que
incluir, en realidad, no sólo la lógica en sentido estricto, sino la filosofía de la lógica y las
investigaciones sobre fundamentos de las matemáticas iniciadas en esa época por los pro­
pios Frege y Russell, pero no sólo por ellos, sino por muchos otros autores, entre los que
cabe mencionar a David Hilbert y Ludwig Wittgenstein.
Sobre estos dos puntales —el del contenido de los temas y planteamientos, debido
a los físicos-filósofos de fines del xix y principios del xx, y el del método, debido a los ló­
gicos y fundamentadores de las matemáticas— se constituye, inmediatamente después de
la Primer Guerra Mundial, la nueva disciplina de la filosofía de la ciencia. Ello es obra
principalmente (aunque no exclusivamente) de dos grupos de investigadores que iban a
causar un impacto duradero y profundo no sólo en el desarrollo de la filosofía de la cien­
cia, sino en el de la filosofía en general para el resto del siglo: el Círculo de Viena, con
Moritz Schlick, Rudolf Camap y Otto Neurath como figuras señeras, y el Grupo de Ber­
lín, con Hans Reichenbach a la cabeza. En este período, que duró aproximadamente hasta
el fin de la Segunda Guerra Mundial y al que, de manera bastante laxa, suele subsumirse
bajo el epíteto de “positivismo lógico” o “empirismo lógico”, se establecieron los temas
principales de la filosofía de la ciencia y sobre todo el modo de abordarlos. Por ello puede
considerarse esta fase como el período constituyente o “germinal” de la actual filosofía de
la ciencia, a pesar de las innumerables y a veces agrias controversias que tuvieron lugar
(tanto con los adversarios de la filosofía de la ciencia así entendida como entre los pro­
pios representantes de la misma) y de que la casi totalidad de las tesis sustantivas sosteni­
das entonces (como el verificacionismo, el fenomenalismo, el fisicalismo y el sintactis-
mo) han sido rechazadas posteriormente,
A este período constituyente siguió, después de la Segunda Guerra Mundial y
hasta mediados de los años sesenta, lo que suele calificarse como p e río d o clá sico de
nuestra disciplina, en el que se acuña y desarrolla lo que se conocerá como la Concep­
ción Heredada ( ‘R e c eiv e d V iew ’). En él se articularon de manera definitiva muchos de
los conceptos, problemas y análisis que siguen presuponiéndose hoy día. Además de los
ya citados Carnap y Reichenbach, que siguen haciendo aportaciones importantes e in­
fluyentes (sobre todo el primero, pues el segundo morirá apenas iniciado este período),
los autores más destacados son Karl R. Popper, Cari G. Hempel, Herbert Feigl, Nelson
Goodman y Ernest Nagel. El extenso tratado de este último, La E stru ctu ra de la C ien­
INTRODUCCIÓN. NATURALEZA Y FUNCIÓN DE LA FILOSOFÍA DE LA CIENCIA 31

c ia , de principios de los sesenta, representa la síntesis más completa de la filosofía “clá­


sica” de la ciencia. Por supuesto que, en muchos aspectos, tanto de contenido como de
forma, esta filosofía de la ciencia puede considerarse hoy en día como “superada” ; no
obstante, su trasfondo conceptual y temático está presupuesto, de manera implícita o ex­
plícita, en los enfoques posteriores y resulta imprescindible para comprender y valorar
cabalmente estos últimos. Ninguna persona seriamente interesada en la filosofía de la
ciencia actualmente puede permitirse desconocer los elementos esenciales de las aporta­
ciones de dicho período, aunque sólo sea para “refutarlos”. Por lo demás, a pesar de to­
das las “superaciones” y “refutaciones” posteriores, hay una serie de resultados y con­
ceptos característicos de esta época que pueden considerarse sólidamente establecidos y
que no pueden pasarse por alto en un estudio mínimamente completo de la disciplina.
Tanto los elementos controvertidos o superados de la filosofía clásica de la ciencia,
como los resultados firmemente asentados de la misma, constituyen buena parte del
contenido de este libro, especialmente los caps. 3, 7, 8 y 12.
Sobre las contribuciones de los enfoques p o sterio res a la filosofía clásica de la
ciencia nos extenderemos en los capítulos 7, 9, 10, 12 y 13. Aquí indicaremos sucinta­
mente sus rasgos más sobresalientes. Aparte de ciertos desarrollos colaterales, en la filo­
sofía “posclásica” de la ciencia pueden identificarse dos líneas claramente distinguibles:
por un lado, la comente h isto riéista t y por otro, las concepciones llamadas frecuentemen­
te sem ántica s , aunque quizás sería más propio calificarlas de m o deloteóricas o rep resen -
tacionalistas (ninguna de estas denominaciones es completamente apropiada, pero de mo­
mento no disponemos de otras mejores; quizás algún futuro historiador de las ideas logre
forjar una clasificación más adecuada). Estas dos líneas tienen orígenes y motivaciones
muy diferentes, pero no por ello son necesariamente incompatibles; como veremos en di­
versas partes de esta obra, en el caso de algunos enfoques particulares de una y otra línea
(como el kuhniano y el estructuralista) puede hablarse de un acercamiento o principio de
síntesis. Por otro lado, e independientemente de su diferente origen e intereses, ambas lí­
neas se caracterizan en buena medida por su vocación de ruptura, por su oposición a una
serie de elementos, diferentes en cada caso, considerados esenciales de la concepción clá­
sica. En la corriente historicista, la oposición es mucho más manifiesta y genera abierta
polémica; en los enfoques semánticos la oposición es más sutil, pero en algunos de sus
aspectos igual de radical, si no más. Sin embargo, y sin negar los elementos reales de crí­
tica profunda presentes en estas nuevas orientaciones, la ruptura es menos drástica de lo
que a veces se pretende; los elementos de estas nuevas concepciones que provienen de la
etapa clásica son, incluso en el caso de los historicistas, más numerosos y significativos
de lo que con frecuencia se piensa, principalmente respecto del ámbito de problemas
abordados y de algunos de los conceptos más básicos utilizados para el análisis.
Por lo que a la revuelta historicista se refiere, aunque en las décadas anteriores
hay algunos precursores de la crítica historicista a la filosofía clásica de corte “positivis­
ta” (principalmente Ludwik Fleck y Michael Polányi), la corriente historicista se hace
fuerte como nueva alternativa a partir de los años sesenta, principalmente con los trabajos
de Thomas S. Kuhn, Paul K. Feyerabend e Imre Lakatos, entre los que destaca de modo
particular La estructura de las revoluciones científicas de Kuhn, aparecido en 1962. Estos
32 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

trabajos se autoconciben (y así son también interpretados por el público interesado) como
una “rebelión” contra la filosofía de la ciencia establecida, tanto en su vertiente “carna-
piana” como en la “popperiana”. El principal y más explícito reproche que estos autores
hacen a la filosofía clásica de la ciencia estriba en que ésta no se tomara la historia de la
ciencia en serio y que, en consecuencia, presentara una imagen muy pobre, totalmente
inadecuada, de la dinámica del conocimiento científico.
El énfasis puesto en la relevancia de los estudios historiográficos para la filosofía
de la ciencia parece ir aunado, en los autores historicistas, con un desprecio total por el
uso de métodos formales en nuestra disciplina. Por ello se ha calificado a veces a la filo­
sofía historicista de la ciencia como una filosofía “anti-formalista” por oposición a la fi­
losofía “formalista” clásica. Sin embargo, esta divergencia es menos significativa de lo
que puede parecer a primera vista. Por un lado, no todos los autores o enfoques importan­
tes dentro de lo que hemos dado en llamar filo s o fía clásica de la ciencia hicieron uso sis­
temático de métodos formales; por ejemplo, dos de los más característicos tratados de di­
cha filosofía, L a lógica de la investigación científica de Popper y L a estructura de la
ciencia de Nagel (que suelen considerarse como objetivos de ataque por parte de los his­
toricistas), apenas utilizan alguna formalización. Por otro, no todos los autores historicis­
tas se mostraron tajantemente adversos a los métodos formales. Si bien Feyerabend se de­
clara explícita y enfáticamente antiformalista, Kuhn y Lakatos, por su lado, no rechazan
por principio la oportunidad de la formalización en ciertos contextos, sino sólo el modo
específico en que sus adversarios “clásicos” lo hicieron.
Más significativa es otra divergencia con la filosofía clásica de la ciencia que,
aunque planteada de manera más implícita que explícita, iba a resultar a la larga más pro­
funda: los historicistas proponen una noción intuitiva de teoría científica mucho más
compleja, que pone de manifiesto el carácter excesivamente simplista del concepto de
teoría común tanto a camapianos como a popperianos (cf. cap. 9); esta innovación es la
que se encuentra muchas veces tras polémicas aparentemente centradas en otras cuestio­
nes (cf, cap. 12 §5).
Esta última es también la objeción más fuerte y explícita que hace la otra línea de
la nueva filosofía de la ciencia, la de las concepciones semánticas o modeloteóricas: la
idea clásica de tomar las teorías científicas simplemente como sistemas axiomáticos de
enunciados es demasiado primitiva e inadecuada a la complejidad estructural de las teo­
rías. Con esta crítica general está emparentada otra de carácter más particular, pero no
menos importante: la escasa importancia que revisten en la filosofía clásica de la ciencia
los estudios de ca so s , es decir, el análisis y la reconstrucción detallados de ejem p lo s rea ­
les de teorías científicas. Por ello, es característico de las concepciones semánticas (si no
de todas, al menos sí de una gran parte de ellas) el haber dedicado una gran porción de
sus esfuerzos al análisis muy detallado de teorías concretas, al menos mucho más que la
corriente clásica, y también que la historicista.
Esta línea es en parte anterior y en parte posterior a la línea historicista. En realidad,
aún menos que la filosofía clásica de la ciencia y que la historicista, puede hablarse aquí de
una concepción unitaria. Se trata más bien de una familia muy difusa de enfoques. Sus raí­
ces comunes están en los trabajos de reconstrucción de teorías de Patrick Suppes y sus co­
INTRODUCCIÓN. NATURALEZA Y FUNCIÓN DE LA FILOSOFÍA DE LA CIENCIA 33

laboradores (especialmente Ernest W. Adams) en los años cincuenta y sesenta. Éstos inspi­
raron la emergencia del estructuralism o metateórico de Joseph D. Sneed y Wolfgang Steg-
müller en los años setenta y del em pirism o constructivo de Bas van Fraassen en los años
ochenta. A esta familia pueden asignarse también los trabajos de Frederick Suppe y Ronald
Giere en EE.UU., del grupo polaco alrededor de Marian Przelecki y Ryszard Wójcicki, y
los de la Escuela Italiana de Toraldo di Francia y Mana Luisa Dalla Chiara, todos emergen­
tes más o menos por las mismas fechas. A pesar de las considerables diferencias que exis­
ten entre estos enfoques en cuanto a intereses, métodos y tesis sustantivas, su “aire de fami­
lia” les proviene de que en ellos juega un papel central la idea de que las teorías científicas,
más que sistemas de enunciados, consisten en sistemas de m odelos, en cuanto que estos úl­
timos son representaciones conceptuales (más o menos idealizadas) de “pedazos” de la rea­
lidad empírica (de ahí la denominación sem ánticas o m odeloteóricas o representacionales
para estas concepciones). Y, a diferencia de los historicistas, estos enfoques no ven ninguna
dificultad en el uso de instrumentos formales en el análisis de las teorías científicas: al con­
trario, su reproche a la filosofía clásica de la ciencia no es que ésta haya usado (a veces)
métodos formales, sino que los utilizados (en lo esencial, la lógica de primer orden) eran
demasiado primitivos y por ello inapropiados a la tarea; conviene utilizar porciones “más
fuertes” de las ciencias formales: teoría de modelos, teoría de conjuntos, topología, análisis
no-estándar, teoría de categorías, etc.
Carecemos todavía de la suficiente perspectiva histórica para presentar una eva­
luación mínimamente ajustada de los desarrollos en la filosofía general de la ciencia de
los últimos años. Concluiremos este breve recuento histórico señalando solamente lo que,
al menos a primera vista, p a recen ser rasgos notorios de la situación actual. Por un lado,
la filosofía historicista de la ciencia parece haber dado todo lo que podía dar de sí, al me­
nos como propuesta de metateorías generales. Ella parece haber desembocado, o bien en
una pura historiografía de la ciencia, o bien en un sociologismo radical de corte relativista
y frontalmente adverso a cualquier teorización sistemática (que no sea sociológica). En
cambio, los enfoques de la familia semanticista han seguido desarrollándose y articulán­
dose como metateorías generales de la ciencia; una tendencia que parece cada vez más
fuerte dentro de al menos parte de esa familia estriba en combinar la línea modeloteórica
general con conceptos y métodos de las ciencias cognitivas y de programas computado-
nales de simulación. Asimismo es notoria la proliferación cada vez mayor de estu d io s de
casos, es decir, de interpretaciones y reconstrucciones de teorías particulares de las diver­
sas disciplinas, inspiradas de modo implícito o explícito en las metateorías generales,
pero que también pueden llevar a una revisión de estas últimas. Se trata en lo esencial,
pues, de un desarrollo acelerado de lo que más arriba hemos caracterizado como filosofía
especial de la ciencias, la cual, como hemos advertido, no es tema de este libro.
C apítulo 2

ARGUMENTOS DEDUCTIVOS Y ARGUMENTOS INDUCTIVOS

Este capítulo está destinado a presentar, a modo de recordatorio, algunas nociones


lógicas fundamentales, específicamente las de a rg u m en ta ció n , argum ento deductivo y a r­
gum ento in d u ctivo , cuyo conocimiento se presupone en varios lugares de esta obra (espe­
cialmente en los capítulos 3, 5, 7, 8 y 12). Puesto que éste no es un texto de lógica no
podemos detenemos por extenso en ellas y lá- presentación de las mismas va a ser muy in­
troductoria. El lector al que le resulte insuficiente puede consultar cualquier manual de ló­
gica al uso; el lector ya familiarizado con estas nociones, o con alguna de ellas, puede
prescindir de este capítulo, o de la correspondiente sección, sin pérdida de continuidad.

1. Argumentos, validez y verdad

1 .1 . R a z o n a m ie n t o s , a r g u m e n t a c io n e s , a r g u m e n t o s e in f e r e n c ia s

Aquí vamos a considerar equivalentes las nociones de razonam iento , a rg u m en ta ­


ció n , inferencia y a rg u m en to . El lenguaje cotidiano distingue a veces ligeramente entre
las dos primeras y las dos últimas. A veces las primeras tienen cierta connotación de ex­
tensión o complejidad respecto de las segundas. Los razonamientos o argumentaciones
tienden en ocasiones a identificarse con procesos argumentativos relativamente largos y
complejos, mientras que los argumentos y, sobre todo quizá las inferencias, tienden a
considerarse procesos más simples que son los componentes o “pasos” de una argumenta­
ción compleja. Esta diferencia no es ni mucho menos general y, en la medida en que exis­
ta, es irrelevante para nuestros intereses actuales, de modo que no vamos a distinguir aquí
entre estas nociones y las utilizaremos indistintamente como variantes estilísticas.
Un argumento (razonamiento, argumentación, inferencia) es un tipo especial de
acto de habla y, como tal, es algo esencialmente pragmático caracterizado por la p r e te n ­
sión del hablante de llevar a cabo determinada finalidad. En relación con dicha finalidad,
los argumentos se pueden ver como secuencias de (al menos dos) afirmaciones, enuncia­
dos o proposiciones. Aunque la diferencia entre enunciados y proposiciones es fundamen­
36 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

tal, a los efectos presentes no vamos a distinguir entre ambos; o mejor dicho, vamos a
considerar que los constituyentes de los argumentos pueden considerarse tanto entidades
lingüísticas, los enunciados, como preposicionales, los contenidos de los enunciados. Si
bien tendemos a preferir la segunda versión, usaremos en general ‘afirmación’ para refe­
rimos indistintamente a ambas posibilidades. Pues bien, un argumento es una secuencia
de afirmaciones caracterizada por cierta pretensión, la pretensión de que una de ellas “se
sigue”, “se infiere”, “recibe apoyo” o “recibe justificación” de las restantes. A la afirma­
ción de la que se pretende que recibe apoyo se la llama co n clu sió n , y a las afirmaciones
de las que se pretende que se sigue la conclusión se las llama p rem isa s .
En la reconstrucción formal, y a efectos puramente pictográficos, suele colocarse la
conclusión como última afirmación de la secuencia, pero en el lenguaje natural la conclu­
sión puede estar en cualquier lugar de la serie, aunque comúnmente suele estar al principio
o al final. Lo que sirve en el lenguaje natural para identificar la conclusión es cierto tipo de
“marcadores” que se usan al efecto, expresiones como ‘por tanto’, ‘en consecuencia’, ‘por
ello’, ‘puesto que’, ‘ya que’, etc. Algunos de estos marcadores, como ‘por tanto’, indican
que lo que le antecede son las premisas y lo que sigue la conclusión; otros, como ‘pues­
to que’, funcionan en general inversamente, precedidos por la conclusión y seguidos por las
premisas, pero también pueden iniciar el argumento estando seguidos primero por las pre­
misas y después por la conclusión. A veces la conclusión está en medio, combinándose am­
bos tipos de marcadores. Incluso puede que no haya marcadores explícitos y que sea el
contexto el que clarifique cuáles son las premisas y la conclusión. En ocasiones hasta puede
faltar alguna de las premisas, si el contexto hace suficientemente clara su presencia implíci­
ta. Los siguientes casos son ejemplos de las diversas posibilidades.

Al “Seguro que su marido está con otra, puesto que o está en casa, o en el tra­
bajo o con otra, y no está en casa ni en el trabajo.”
A2 “Todos los zapatos que he comprado hasta ahora en la zapatería E l Pie L ig e­
ro me han dado un excelente resultado. Por tanto, los zapatos que me acabo
de comprar en dicha zapatería seguro que me darán un resultado excelente.”
A3 “Puesto que los tiranos tienen complejo de inferioridad y Hitler era un tirano,
Hitler tenía complejo de inferioridad.”
A4 “Los artistas llevan una vida bohemia. Mi hermano lleva una vida bohemia,
puesto que es artista.”
A5 “Todos los presidentes estadounidenses hasta la actualidad han sido varones.
El próximo presidente americano será varón.”
A6 “Los valientes tienen siempre algún momento de cobardía. Por tanto, hasta el
mismísimo Agamenón fue cobarde en alguna ocasión.”

1 .2 . C o r r e c c ió n , v a l id e z y v e r d a d

Debe quedar claro desde el comienzo que los argumentos no son verdaderos ni fal­
sos. Sólo las afirmaciones (los enunciados, o lo que ellos expresan, las proposiciones) pue­
ARGUMENTOS DEDUCTIVOS E INDUCTIVOS 37

den ser verdaderas o falsas, y los argumentos no son afirmaciones, son series de afirmacio­
nes con cierta característica, a saber, que de esas afirmaciones se pretende que una de ellas
se sigue de las restantes. Los argumentos no son pues verdaderos o falsos. Pero eso no
quiere decir que todos los argumentos sean iguales, que no podamos hablar en ellos de
“éxito” o “fracaso”. El éxito de un acto de habla es la consecución o logro efectivo de la fi­
nalidad pretendida mediante su realización. En una afirmación, en un acto de habla asertó-
rico cuya finalidad es describir cómo son las cosas, se satisface dicha finalidad si las cosas
son efectivamente como se asevera que son; en una afirmación, por tanto, el “éxito” es la
verdad y el “fracaso” es la fa ls e d a d , el acto es exitoso si la afirmación es verdadera y no
exitoso si es falsa. Pues bien, también los argumentos son exitosos o no, sólo que ahora el
éxito no consiste en la verdad sino en la corrección o validez . Los argumentos son correc­
tos o incorrectos, válidos o inválidos (algunos autores prefieren hablar de validez sólo para
los argumentos deductivos, aquí consideraremos en general sinónimos ambos términos).
Puesto que los argumentos se caracterizan por la pretensión de que la conclusión recibe
apoyo de las premisas, el éxito o fracaso de un argumento dependerá de que tal pretensión
sea o no acertada. Un argumento es correcto o válido si efectivamente las premisas apoyan
la conclusión, y es incorrecto o inválido si no la apoyan. Por tanto, las premisas y la con­
clusión pueden ser verdaderas o falsas; el argumento mismo no, es válido o inválido. Es ob­
viamente cierto que la afirm ación que asevera que determinado argumento es válido, ella
misma sí verdadera o falsa, y lo es dependiendo de la validez del argumento; la afirmación
‘el argumento “a i , ..., a,„ por tanto p” es válido’ es verdadera si y sólo si el argumento “ai,
..., a,„ por tanto f3” es válido, pues es esto lo que asevera dicha afirmación. Pero ello no
hace que podamos considerar al argumento mismo como verdadero o falso en ningún senti­
do interesante. Una cosa es un argumento y otra la afirmación de que el argumento es váli­
do. El hecho de que la segunda sea verdadera si y sólo si el primero es válido no convierte
al primero en una afirmación.
La diferencia entre verdad/falsedad de las afirmaciones involucradas (premisas y
conclusión) y validez/invalidez del argumento muestra lo que son los dos componentes de
la adecuación o “bondad” de un argumento. Hay dos sentidos en que se puede decir que
un argumento es un “buen argumento”. En un primer sentido, muy general, un argumen­
to es “bueno” (exitoso) simplemente si es válido. Ahora bien, salvo quizá en cursos de
lógica, no argumentamos por el placer de hacerlo sino con la intención de establecer o
justificar ante la audiencia cierta afirmación, la conclusión del argumento; y para que la
intención de justificar la afirmación se realice satisfactoriamente no basta que el argu­
mento sea válido, pues obviamente puede haber afirmaciones injustificadas que sean con­
clusiones de argumentos válidos, a saber, cuando alguna de las premisas es ella misma in­
justificada. Que el argumento es válido significa que las premisas apoyan o justifican la
conclusión, en el sentido de que caso de esta r las p rem isa s ju stific a d a s , la conclusión
queda también justificada; esto es, los argumentos válidos “trasladan” la justificación de
las premisas a la conclusión. Por tanto, aunque la conclusión se infiera efectivamente
de las premisas, puede carecer de justificación si alguna de las premisas carece de ella. La
validez de un argumento no justifica p o r s í sola la conclusión.
Las mismas consideraciones se pueden hacer presentando la cuestión, no en térmi­
38 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

nos epistemológicos, hablando de ju stific a c ió n , sino semánticos, hablando de verdad.


Estos dos ámbitos están íntimamente relacionados, pues por ‘justificación de una afirma­
ción’ se entiende “justificación de la creencia en su verdad”. Pues bien, planteada la cues­
tión en términos semánticos, la validez del argumento por sí sola no “apoya” la verdad de
la conclusión, para ello es necesario además que las premisas sean verdaderas. El siguien­
te ejemplo es un caso de argumento válido con premisa(s) falsa(s): “Todos los atenienses
son filósofos. Sócrates es ateniense. Por tanto, Sócrates es filósofo.” Hemos elegido in­
tencionadamente un caso en el que la conclusión es verdadera, para mostrar que incluso
una afirmación verdadera que es conclusión de un argumento válido puede no estar “bien
apoyada” en el contexto de ese argumento; no lo está si alguna de las premisas es falsa.
Distinguiremos en general la corrección fo r m a l de un argumento de su corrección
m aterial. Diremos que un argumento es formalmente correcto si es válido, y que es mate­
rialmente correcto si sus premisas son verdaderas. Ahora podemos precisar el segundo
sentido en que se puede decir que un argumento es un “buen argumento’’: en este segun­
do sentido, más exigente, un buen argumento es un argumento formalmente correcto, e.e.
válido, que además es materialmente correcto, e.e. con premisas verdaderas. Para no con­
fundir estos dos sentidos de ‘buen argumento’ utilizaremos ‘válido’ para el primero y ‘sa­
tisfactorio’ para el segundo (más fuerte, puesto que implica el primero). Así, podremos
considerar justificada una afirmación presentada como conclusión de un argumento en la
medida en que estemos justificados en considerar satisfactorio el argumento. Esto es, es­
tamos justificados en creer en la verdad de la conclusión de un argumento en la medi­
da en que (estemos justificados en creer que) el argumento es válido y estemos justifica­
dos en creer en la verdad de las premisas.

1 .3 . F u e r z a d e l o s a r g u m e n t o s : a r g u m e n t o s d e d u c t iv o s e in d u c t iv o s

Hasta ahora hemos hablado de corrección o validez de argumentos de un modo


muy general e impreciso: un argumento es válido si la conclusión es apoyada p o r , o se si­
gue d e , las premisas. La cuestión es cómo hay que entender la noción de seg u irse de o
a p o ya r , pues en tanto no se precise esa noción, la noción d t validez permanecerá impreci­
sa. Aquí es donde es importante insistir en que los argumentos se caracterizan por cierta
pretensión de quien lo realiza, pues hay diferentes sentidos en los que se puede pretender
que una afirmación se sigue de, o es apoyada por, otras. En función de cuál sea ese senti­
do tenemos diferentes tipos de argumentos, cada tipo con sus correspondientes criterios
de validez.
Aquí examinaremos los dos tipos clásicos de argumentos, los deductivos y los in­
ductivos. En una acepción extremadamente amplia de ‘argumento’ habría más tipos de ar­
gumentos. Si, según esta acepción, lo que se pretende al argumentar es simplemente per­
suadir a la audiencia de que forme cierta creencia, entonces hay muchas formas de preten­
der “apoyar” la “conclusión”; por ejemplo, apelando a la fuerza mediante amenaza, como
en las “argumentaciones” ad baculum (“la Tierra no se mueve, si no te lo crees verás lo
que es bueno”), o a ciertas emociones (“¡mi defendido es inocente de la acusación de abu-
ARGUMENTOS DEDUCTIVOS E INDUCTIVOS 39

sos deshonestos!, ¿cómo pueden pensar lo contrario de un amante padre de familia y respe­
tado benefactor de la ciudad?”), o a otros variados recursos. Pero aunque hay mucha gente
que “argumenta” así (los demagogos son un caso paradigmático de ello), sólo son argu­
mentos en apariencia, no se pueden considerar argumentos en sentido propio. Son formas
de “discurso persuasivo” no argumentativas. Aunque a veces en el lenguaje común se tien­
de a utilizar ‘argumentar’ para cualquier forma de discurso persuasivo (p.ej. el de los abo­
gados ante los jurados), en sentido estricto los argumentos son sólo una de las formas del
mismo, la forma más racional en tanto que intenta persuadir mediante razones. Hay casos
intermedios difíciles de clasificar, como el de la retórica, que en parte parece una forma es­
pecífica de discurso argumentativo y en parte urta variante sofisticada de la mera per­
suasión.
Como hemos indicado, aquí vamos a considerar sólo dos tipos de argumentación,
la deductiva y la inductiva. Es cierto que hay otros tipos de argumentos, en principio dife­
rentes de los deductivos e inductivos, que no son meramente persuasivos o retóricos y
que muchos autores consideran “legítimos” en contextos científicos, principalmente los
argumentos p o r analo g ía y por a b ducción. De los segundos diremos algo en el capítulo
12, donde veremos que se pueden considerar inductivos, en el sentido amplio de ‘induc­
ción’ como “inferencia ampliativa”. Los primeros, que constituyen una especie argumen­
tativa peculiar, dependen de fenómenos pragmáticos muy complejos que exceden los lí­
mites de nuestro estudio; en cualquier caso, para las necesidades de la presente obra su
estudio no es imprescindible y bastará con limitar la actual revisión a los argumentos de­
ductivos e inductivos.
Antes de pasar a ver ambos tipos de argumentos con más detalle, es conveniente
insistir en que su diferencia radica exclusivamente en la pretensión del hablante. Los ar­
gumentos deductivos se caracterizan porque en ellos se pretende que la verdad de las pre­
misas hace segura la de la conclusión, mientras que en los inductivos se pretende que las
premisas apoyan la conclusión sólo en cierto grado. Pero en principio, y salvo convencio­
nes que siempre podemos adoptar, nada formal o estructural distingue los argumentos de­
ductivos de los inductivos; la diferencia es intencional, radica exclusivamente en las in­
tenciones del hablante respecto del sentido pretendido en que la conclusión se sigue de las
premisas. El lector avisado con nociones previas sobre estos tipos de argumentos quizá se
sorprenda, pues no le habrá sido difícil adivinar, de entre los ejemplos que hemos puesto
más arriba, cuáles eran deductivos y cuáles inductivos sin que le hayamos informado de
nuestras pretensiones. Pero ése es un efecto ilusorio derivado de que los ejemplos son to­
dos argumentos válidos (según el tipo —no declarado— que hemos pretendido que tiene
cada uno y que el lector ha adivinado). Es cierto que un argumento deductivo, si es váli­
do, es válido en virtud de su forma, pero no es cierto que un argumento, si es deductivo,
es deductivo (válido o invá lid o ) en virtud de su forma. Considere dicho lector los siguien­
tes argumentos (que no contienen premisas implícitas).

A7 “El primer coche de Femando le dio buen resultado. La segunda casa de Luis
le dio buen resultado. Por tanto, el tercer ordenador que me compre me dará
buen resultado.”
40 FUNDAMENTOS DE FILOSOFÍA DH LA CIENCIA

A8 “Juan es arquitecto. Luisa es médico. Por tanto, Fernando es escritor.”


A9 “El último presidente estadounidense es varón. Por tanto, el próximo presi­
dente estadounidense será varón.”
A10 “El último presidente estadounidense es demócrata. Por tanto, el próximo
presidente estadounidense será demócrata.”
A l 1 “Algunos hombres son mortales. Por tanto, todos los hombres son mortales.”
A12 “Algunos hombres son mortales. Sócrates es hombre. Por tanto, Sócrates es
mortal.”

Seguramente ahora ya no le parecerá al lector que puede identificar tan fácilmente


cuáles son deductivos y cuáles inductivos. Simplemente no es posible, como tampoco lo
era antes con A1-A6 (a no ser que nos dijeran, o se presupusiera, como ha hecho el lector,
que eran válidos). Lo que hace a un argumento inductivo o deductivo es la naturaleza del
apoyo p rete n d id o entre premisas y conclusión. Puesto que dicho apoyo pretendido es di­
ferente, los criterios de corrección también son diferentes; un argumento puede ser deduc­
tivamente inválido pero inductivamente válido. Para evaluar la validez de un argumento
es preciso entonces conocer antes si es deductivo o inductivo, y nada en la forma del ar­
gumento (si incluimos los inválidos) indica tal cosa. Eso sólo se puede saber conociendo
las pretensiones del hablante. Esto es así hablando estrictamente, otra cosa es que el con­
texto sugiera de algún modo el tipo de argumento de que se trate, esto es, sugiera las in­
tenciones del hablante o pregónente del argumento.
Aunque ya se ha sugerido en la exposición, conviene aclarar explícitamente que
las anteriores consideraciones se refieren a la diferencia entre argumentos dedu ctivo s y
argumentos in d u ctivo s , no a la diferencia entre argumentos deductivos válidos y argu­
mentos inductivos válidos. La diferencia entre argumentos deductivos e inductivos radica
en las intenciones del hablante, pero por supuesto ello no implica que la diferencia entre
argumentos d ed u ctivo s válidos y argumentos inductivos válidos sea pragmática o depen­
diente de las intenciones o el contexto. Esta segunda diferencia es una diferencia objetiva,
independiente del hablante y del contexto, y consiste en que entre premisas y conclusión
se dé una de dos relaciones objetivamente diferentes. Un argumento, como acto de habla
de un hablante, es deductivo o inductivo si el hablante pretende que entre premisas y con­
clusión se da la relación objetiva de apoyo deductivo o si pretende que se da la relación
objetiva de a poyo in d u ctivo ; y el argumento será válido si la relación objetiva entre pre­
misas y conclusión es de hecho la que el hablante pretende que es. En tanto que acto de
habla, no hay modo de saber si un argumento es deductivo o inductivo sin conocer las in­
tenciones del hablante; pero una vez conocidas, que sea válido o inválido es perfectamen­
te objetivo e independiente de sus intenciones y del contexto.
Un posible modo alternativo de señalar el mismo punto es considerar que los ar­
gumentos no son actos de habla sino entidades objetivas y que los actos de habla consis­
ten en intentar expresar argumentos. Así, entre todas las posibles secuencias de premisas
más conclusión, tendríamos: argumentos deductivos, que serían aquellas en las que entre
premisas y conclusión se da la relación de apoyo deductivo (esto es, lo que antes hemos
llamado argumentos deductivos válidos); argumentos inductivos, aquellas en las que en-
ARGUMENTOS DEDUCTIVOS E INDUCTIVOS 41

tre premisas y conclusión se da la relación de a poyo inductivo (esto es, lo que antes he­
mos llamado argumentos inductivos válidos); y pseudo-argumentos, aquellas en las que
entre premisas y conclusión no se da ninguna relación de apoyo. Los hablantes, al argu­
mentar, intentarían expresar argumentos, unas veces argumentos deductivos y otras in­
ductivos; y, por ejemplo, si un hablante intenta expresar un argumento deductivo y lo lo­
gra, el acto de habla es exitoso, y si no lo logra (si expresa uno inductivo o un pseudoar-
gumento), el acto es fallido. Es esencial darse cuenta de que este modo de presentar las
cosas es equivalente al anterior. En ambos casos el hablante, al argumentar, tiene la pre­
tensión de que entre premisas y conclusión se da una determinada relación objetiva de
apoyo (de entre dos posibles) y la argumentación es exitosa si su pretensión es correcta, si
efectivamente se da la relación que según él se da. La diferencia entre ambos modos es
meramente terminológica. En general aquí seguiremos usando el primer modo de expre­
sión, aquel que considera los argumentos mismos como actos de habla y considera por
tanto la diferencia entre argumentos deductivos e inductivos (tanto válidos com o inváli­
dos) relativa a las intenciones del hablante.

2. Argum entos deductivos

En los argumentos deductivos el sentido pretendido en que las premisas apoyan


o justifican la conclusión es el más fuerte posible. Estos argumentos se caracterizan por
la pretensión de que la verdad de las premisas g a ra n tiza p len a m en te la verdad de la con­
clusión. Un argumento deductivo es válido si efectivamente las premisas apoyan la
conclusión de tal modo, si no p u e d e o c u rrir que las p rem isa s sean verd a d era s y la c o n ­
c lu sió n fa ls a . Recuérdese que para la validez o corrección formal no importa que las
premisas sean o no de hecho verdaderas, lo que se pretende es que si las premisas fu e s e n
verdaderas entonces la conclusión también seria verdadera. Por tanto, en los argumen­
tos deductivos no se puede dar cualquier combinación entre validez/invalidez y ver-
dad/falsedad de premisas y conclusión. Si el argumento es inválido se puede dar cual­
quier combinación de verdad y falsedad de premisas y conclusión, pero no si es válido.
Puede haber argumentos deductivos válidos con premisas verdaderas y conclusión
verdadera, como el siguiente A13 referente a la humanidad de Sócrates (en lo que sigue,
en el resto de esta sección p re te n d e m o s que los argumentos son deductivos); o con pre­
misas falsas y conclusión verdadera, como A14; o con premisas falsas y conclusión fal­
sa, como A15.

A13 “Todos los hombres son mortales. Sócrates es hombre. Por tanto, Sócrates
es mortal.”
A 14 “Todos los hombres son griegos. Sócrates es hombre. Por tanto, Sócrates es
griego.”
A15 “Todos los hombres son rusos. Sócrates es hombre. Por tanto, Sócrates es
ruso.”
42 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Pero no puede haber un argumento deductivo válido con premisas verdaderas


y conclusión falsa. Esa es la única combinación excluida pues la validez deductiva sig­
nifica precisamente eso, que caso de ser verdaderas las premisas la conclusión tam­
bién lo es.
En adelante, cuando queramos esquematizar los argumentos deductivos escribire­
mos en serie las afirmaciones involucradas separando la conclusión de las premisas me­
diante una línea continua para connotar que el apoyo pretendido es el máximo.

ai

2 .1 . V a l id e z d e d u c t iv a

La disciplina que se ocupa de investigar los criterios de validez de los argumen­


tos deductivos es la ló g ica d e d u ctiva . Como ya hemos indicado, la validez deductiva se
caracteriza por cierta relación entre la verdad de las premisas y la de la conclusión: un
argumento deductivo es válido si y sólo si no puede ser que las premisas sean todas ver­
daderas y la conclusión sea falsa. La validez de los argumentos deductivos depende de
la forma o estructura de los argumentos. La estructura o forma lógica de un argumento
es el resultado de abstraer o “vaciar” del argumento sus expresiones no lógicas, o como
se dice técnicamente, de convertir el argumento en un esquema argumentativo sustitu­
yendo las expresiones no lógicas por variables. Las expresiones lógicas son expresiones
como ‘todos’, ‘algunos’, ‘y’, *no’, ‘si ... entonces’, etc. Aunque no podemos extender­
nos aquí en ello, estas expresiones se consideran partículas lógicas porque de ellas de­
pende la validez de los argumentos (deductivos) en el siguiente sentido: si en un argu­
mento sustituimos alguna de estas expresiones por otra de la misma categoría sintáctica
(p.ej. ‘y’ por ‘o’, o ‘todos’ por ‘algunos’, etc.), la validez del argumento puede verse
afectada, mientras que la sustitución de las otras expresiones (p.ej. ‘Sócrates’ por ‘Pla­
tón’, o ‘mortal’ por ‘griego’) no afecta a la validez. Así, por ejemplo, si en A l cambia­
mos todas las ocurrencias de ‘y’ por ocurrencias de ‘o’, el argumento pasa de ser válido
a ser inválido, y si en A13 sustituimos ‘todos’ por ‘algunos’ (e.e. A 12) ocurre lo mismo;
contrariamente, si en A13 sustituimos ‘mortal’ por ‘griego’ (e.e. A 14) o ‘Sócrates’ por
‘Platón’, no se altera su validez. Los esquemas arguméntales que usaremos en adelante
se obtendrán de sustituir en los argumentos las expresiones no lógicas por variables
apropiadas que indiquen el tipo sintáctico de la expresión no lógica. Cuando los esque­
mas arguméntales de dos argumentos coinciden diremos que los argumentos tienen la
misma forma lógica. Por ejemplo, los tres últimos argumentos, y A3, tienen la misma
forma lógica:
ARGUMENTOS DEDUCTIVOS E INDUCTIVOS 43

Todos los S son P


a es S
a es P

A l tiene la forma:

a o p oy
no a y no p
Y

La lógica deductiva se ocupa de estudiar los esquemas o patrones de deducción


válida; o mejor, no establece en concreto todos y cada uno de los (infinitos) esquemas vá­
lidos posibles, sino que estudia los criterios generales en virtud de los cuales unos esque­
mas son válidos y otros no. Los dos esquemas indicados se adecúan a esos criterios. Otros
esquemas válidos son el m o d u s p o n e n s :

si a , entonces p
a
P

o el m odus to llen s :

si a, entonces p
no p
no a

Como éste no es un libro de lógica, no vamos a detenernos en los criterios genera­


les ni en más esquemas específicos. Cuando sea necesario hacer mención a algún esque­
ma concreto, lo haremos presentándolo como válido o inválido sin ulterior justificación,
de modo que el lector sin conocimiento lógico previo deberá apelar a sus intuiciones o, si
tiene alguna duda, recurrir a algún texto de lógica deductiva elemental. En cualquier caso,
es útil que el lector no avezado, cuando se le presente un esquema supuestamente inváli­
do, intente encontrar un caso del mismo en el que las premisas sean verdaderas y la con­
clusión falsa. Si da con un caso así, el propio lector habrá demostrado que el esquema en
cuestión es inválido. Puede practicar con el siguiente (conocido como fa la c ia de a firm a ­
ción del consecuente ):

si a , entonces p
p
a
44 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

A veces se caracteriza la deducción como “el paso de lo general a lo particular”,


por oposición a la inducción que procedería en sentido contrario. Si con ello se quiere de­
cir que en los argumentos deductivos válidos las premisas son todas afirmaciones genera­
les y la conclusión es una afirmación particular, entonces es falso. No siempre es así, en
realidad son muy raros y poco interesantes los argumentos deductivos válidos de ese tipo,
p.ej. los siguientes A ló y A17. Lo usual es que, cuando la conclusión es particular, las
premisas combinen afirmaciones generales y particulares, como en A l3 (y sus equivalen­
tes), o que todas las premisas sean particulares, como en A l. Pero además también hay
argumentos deductivos válidos con conclusión general, como A18 (en A18 la conclusión
general es u n iversa l , idee el lector otro argumento válido con conclusión general exis-
tencial).

A ló “Todo es rosa. Por tanto el Golden Gate es rosa.”


A17 “Todos los hombres son mortales. Por tanto, si Espero es hombre entonces
es mortal.”
A l8 “Todos los hombres son mortales. Todos los dioses son hombres. Por tanto
todos los dioses son mortales.”

Hay un sentido en que sí se puede considerar que la deducción va de lo general a


lo particular. En los argumentos deductivos válidos, la información que da la conclusión
ya está contenida, sólo que implícitamente, en las premisas conjuntamente consideradas.
Al “decir” las premisas ya “hemos dicho” implícitamente la conclusión; justamente por
eso no puede ocurrir que las premisas sean verdaderas y la conclusión falsa. La conclu­
sión no dice nada que no esté implícitamente contenido en las premisas, y lo que hace el
argumento es, justamente, hacer explícito este hecho. En términos tradicionales podemos
decir que los argumentos deductivos no son am plia tivo s sino explicativos (exp licita tivo s ),
no proporcionan conocimiento fáctico nuevo, dan conocimiento sólo en el sentido en que
hacen explícita cierta información contenida en otra. Éste no es un conocimiento banal, o
poco interesante, como muestra el uso de la deducción en la ciencia, la filosofía y la vida
cotidiana; muchas veces es de la máxima trascendencia darse cuenta de lo que se deduce
de ciertas otras cosas. Pero es un conocimiento que cabe calificar de meramente explicati­
vo, no ampliativo. Es en este sentido que se puede decir quizá que la deducción va de lo
general a lo particular. La deducción parte del contenido general o total de la información
presente en las premisas y extrae o explicita “una parte” del mismo.

2 .2 . F a l a c ia s

Casi todos cometemos errores en la argumentación en algunas ocasiones, algu­


nos en muchas ocasiones y unos pocos prácticamente siempre. En los argumentos de­
ductivos, el error consiste como hemos visto en que las premisas pueden ser verdaderas
y la conclusión falsa, eso es lo que caracteriza a un argumento que pretende ser deducti­
vo y que es inválido. Hay por supuesto muchas formas de argumentar inválidamente,
ARGUMENTOS DEDUCTIVOS E INDUCTIVOS 45

muchos esquemas de inferencia inválidos. Por lo general, sin embargo, ni siquiera quie­
nes casi siempre argumentan mal producen argumentos totalmente descabellados. Con
frecuencia las argumentaciones inválidas siguen ciertos patrones típicos. A estas formas
típicas o usuales de argumentar inválidamente se las denomina fa la c ia s . A veces tam­
bién se denominan así esas otras formas de “argumentar” a que nos referíamos más arri­
ba, en las que no se pretende propiamente construir un argumento en sentido estricto
sino utilizar alguna otra forma de persuasión. Aquí aplicaremos el término sólo cuando
esté presente la intención de producir un argumento en sentido estricto, limitándonos
además de momento a los argumentos deductivos. Y ni siquiera vamos a ver aquí todas
las falacias correspondientes a estos argumentos. Hay muchos tipos de falacias, Aristó­
teles menciona trece en sus R efu ta c io n e s s o fístic a s , y se han identificado más de cien
(cf. Hackett, 1970). Comentaremos brevemente sólo las más conocidas e importantes
para nuestros intereses.

P etició n de p rin cip io . Antes de ver las falacias propiamente dichas, menciona­
remos un tipo de argumentación “insatisfactoria” que no es exactamente una falacia en
el sentido indicado, pues constituye de hecho un patrón formalmente válido, aunque tri­
vial. Se trata de la p e tic ió n de p rin c ip io (p etitio p rin cip ii). Brevemente, se comete una
petición de principio cuando se da por probado lo que se quiere demostrar, esto es,
cuando se incluye (quizá subrepticiamente) la conclusión como una de las premisas. Por
supuesto que es un argumento formalmente válido, pues responde al patrón de inferen­
cia válido indicado a continuación, pero es un argumento insatisfactorio por trivial. Si
éstos se considerasen satisfactorios, no haría falta mucho para argumentar satisfactoria­
mente.

a
Quizá se piense que no se puede ser muy estricto en este punto, pues después de todo en
los argumentos deductivos válidos siempre ocurre que la información de la conclusión
“ya está de algún modo contenida en las premisas”. Bien, pero si deducir satisfactoria­
mente consiste en hacer explícitas consecuencias implícitas, hay una diferencia entre estar
implícitamente en las premisas y ser directamente una de las premisas. En las deduccio­
nes interesantes la conclusión se obtiene por el efecto combinado de varias premisas.
Tampoco éste es el criterio definitivo, pues hay deducciones con una única premisa y, en
cualquier caso, todo argumento se puede reescribir siempre como constituido de una úni­
ca premisa conyuntando las que tenga originalmente. Se comete petición de principio
cuando la conclusión está en p rá ctica m en te su m ism a fo r m a como una de las premisas.
Esta caracterización es reconocidamente vaga; a veces no está claro si se comete esta irre­
gularidad o no, pero hay casos claros, aunque sutiles, de este truco argumentativo. El dis­
curso filosófico contiene interesantes ejemplos en los que se pretende que se están usando
ciertas premisas para establecer determinada conclusión, cuando en realidad ésta se pre­
46 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

supone “casi en su misma forma”, quizá a veces como premisa oculta (por ejemplo, el fa­
moso círculo cartesiano que, en algunas interpretaciones, presupone la existencia de un
Dios no engañador en la “demostración” de su existencia a partir del cogito).
Pasemos ahora ya a las falacias propiamente dichas. El primer grupo de falacias a
destacar son las estrictamente formales.

F alacias fo rm a les. Estas falacias corresponden a esquemas argumentativos cuya


estructura “está clara” (no hay p.ej. problemas de ambigüedad) y tales que muchos usua­
rios no adiestrados en lógica tienden a considerar esquemas de inferencia válidos, pero no
lo son. La más renombrada de este tipo es la fa la c ia de a firm ación d el co n secu en te , cuyo
esquema presentamos más arriba. Que este esquema es inválido se muestra fácilmente
(como proponíamos de ejercicio al lector) construyendo un argumento de esa forma en el
que las premisas puedan ser verdaderas y la conclusión falsa. Un ejemplo típico es el si­
guiente: “si ha llovido las calles están mojadas; las calles están mojadas; por tanto, ha llo­
vido”; es sencillo pensar en una situación en que las premisas son verdaderas y la conclu­
sión falsa. Otra falacia muy similar es la de n egación d el a ntecedente (piense el lector un
ejemplo que muestre su invalidez):

si a, entonces p
no a
no p

Los siguientes dos esquemas también son tomados muchas veces erróneamente como vá­
lidos (compruebe el lector que no lo son):

algunos P son Q ningún P es Q


algunos Q son R ningún Q es R
algunos P son R ningún P es R

Hay muchas más falacias formales, pero no las vamos a ver aquí. Si interviene
más adelante alguna otra lo indicaremos en su momento.

El siguiente grupo importante de falacias tiene que


A m b ig ü ed a d e im precisión.
ver con alguna forma de indeterminación de algunas de las afirmaciones involucradas.
Esta indeterminación puede ser debida a ambigüedad o a vaguedad; la ambigüedad a su
vez puede ser formal o material.
Los casos de ambigüedad formal son aquellos en los que no está clara la forma ló­
gica de alguna de las afirmaciones involucradas, se puede interpretar de varios modos y
en alguno de esos modos el argumento es inválido. Un ejemplo típico es la afirmación de
la forma “todos los P no son Q '\ que se puede interpretar como “no todos los P son Q n o
como “todos los P son no-Q”. Así, un argumento como “todos los programas informáti­
cos no son infalibles, Deep Thinking es un programa informático; por tanto Deep
ARGUMENTOS DEDUCTIVOS E INDUCTIVOS 47

Thinking no es infalible”, es ambiguo; puede corresponder a uno de los dos patrones si­
guientes, sólo el segundo de los cuales es válido.

no todos los P son Q todos los P son no-<2


a es P a es P
a no es Q a no es Q

Cuando se argumenta de esa forma y la primera premisa significa lo primero y no lo se­


gundo, puede creerse que es válido por serlo en la otra interpretación; estamos pues ante
un típico error de argumentación. Otro caso típico de ambigüedad formal tiene que ver
con la acción conjunta de dos cuantificadores, como en la primera premisa del siguiente
argumento: “los alumnos admiran siempre a un profesor, Juan y Luis son alumnos; Juan y
Luis admiran al mismo individuo” (reconstruya el lector las dos interpretaciones posibles
y determine cuál es la válida). Esto basta de momento para ilustrar las falacias de ambi­
güedad formal, llamadas a veces anfibologías.
Las falacias de ambigüedad material se deben a la ambigüedad de alguna de las
expresiones no lógicas del argumento, que pueden significar dos cosas diferentes (pala­
bras como ‘banco’ o ‘gato’). Si en una de las afirmaciones la expresión significa una cosa
y en otra significa otra cosa diferente, el argumento puede ser inválido. Considérese el si­
guiente caso: “algunos animales son gatos, los gatos son metálicos; por tanto, algunos
animales son metálicos”. El argumento tiene dos interpretaciones, correspondientes a los
siguientes esquemas:

algunos A son G algunos A son G


todos los G son M todos los T son M
algunos A son M algunos A son M

En la primera versión el argumento es formalmente válido, pero inadecuado mate­


rialmente al ser falsa la segunda premisa. Si alguien pretende que es adecuado material­
mente, que las premisas son verdaderas, le corresponde la segunda forma, pero entonces
es inadecuado formalmente pues se trata de un esquema inválido. En estos casos se dice
que se ha cometido una fa la c ia de equivocidad. Este ejemplo es muy tonto, pero falacias
de equivocidad más sutiles, en las que muchas veces es muy difícil identificar el doble
sentido de las expresiones utilizadas, abundan en filosofía (por ejemplo, en argumentos
que confunden diversos sentidos de ‘posible’).
Las falacias de ambigüedad material se parecen a otro tipo de falacias materiales,
las de vaguedad o im precisión. Muchos argumentos inadecuados parecen adecuados por­
que contienen premisas imprecisas. Las premisas parecen aceptables justamente por su
imprecisión, pero si no se precisan más el argumento es formalmente inválido; se podrían
precisar de modo que el argumento fuese una inferencia válida, pero entonces las premi­
sas ya no serían aceptables. Mediante una argucia semejante, un obispo español concluía
a principios de los noventa que la campaña del gobierno en favor del uso del preservativo
48 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

producía un aumento del SIDA: “La campaña aumenta el uso del preservativo, pero tam­
bién la promiscuidad sexual. El uso del preservativo disminuye el riesgo de contagio,
pero el aumento de promiscuidad sexual favorece la expansión del SIDA. Por tanto, la
campaña favorece el contagio del SIDA.” Así de vagas las premisas parecen verdaderas,
pero con estas premisas, sin precisarlas más, el argumento es claramente inválido; es sen­
cillo diseñar una situación en la que todas las premisas son verdaderas y la conclusión fal­
sa (cualquiera en la que el efecto positivo del preservativo supere el efecto negativo de la
promiscuidad, el lector puede diseñar una situación tal como ejercicio). Se pueden preci­
sar las premisas de modo tal que el argumento sea formalmente válido, pero la cuestión es
si entonces es materialmente adecuado, esto es, si en dicha interpretación más precisa las
premisas siguen siendo verdaderas.

N o atinencia. Otro tipo de falacia se caracteriza porque las premisas son, de di­
versos modos, “no atinentes”, insuficientes o irrelevantes para establecer la conclusión.
No es claro si se trata de falacias en sentido estricto de ‘argumentación’, o si son más bien
recursos no argumentativos para la persuasión, como los comentados más arriba en los
que se apelaba a la fuerza o a las emociones. En cualquier caso son recursos muy usuales
en muchas discusiones y polémicas pretendidamente argumentativas. Estas falacias se co­
nocen por sus nombres latinos: a d ignorantiam , ad h o m in em , a d verecundiam e ig n o ra­
do elenchi.
En el argumento a d ignorantiam se pretende establecer cierta afirmación sobre el
único fundamento de que no se ha demostrado que es falsa. Algunos creyentes en la as-
trología defienden su tesis de que las posiciones astrales determinan el futuro de las per­
sonas apelando a que no se ha demostrado que no sea así. Pero, por supuesto, de la ausen­
cia de prueba en contra sólo se sigue la (provisional) p o sib ilid a d de que la afirmación sea
verdadera, no su verdad efectiva.
En los argumentos a d hom inem se pretende establecer cierta afirmación atacando
o desautorizando a quien defiende la contraria. Por ejemplo: “no hay un peligro real de
desertización por efecto del agujero de ozono, pues ya se sabe que eso sólo lo defienden
los ecologistas”, o “no es verdad que, como dice Fidel Castro, en Latinoamérica hay ex­
plotación, ¡qué va a decir un comunista!”. Es claro que, sin premisas adicionales, estos ar­
gumentos son falaces pues, como decían los clásicos, las verdades son verdades aunque
las diga el diablo.
Los argumentos a d verecundiam son en cierto modo opuestos a los anteriores.
Estos argumentos son un caso degenerado de la argumentación por autoridad, esto es, de
argumentos que apelan a la opinión de un experto en el tema, como por ejemplo: “el
SIDA crece más en América que en Europa, lo ha dicho el presidente de la Organización
Mundial de la Salud”. A veces esos argumentos son legítimos, cuando está justificada la
premisa implícita de que los juicios del experto sobre el tema en cuestión son correctos.
Pero muchas veces la apelación a la supuesta autoridad carece de fundamento, es una
mera argucia, en cuyo caso estamos ante una falacia a d verecu n d ia m ; la pretensión de
muchos tiranos de que “las cosas son así porque lo digo yo” es un ejemplo extremo, muy
próximo a la mera persuasión por la fuerza (o “argumentaciones” a d b a cu lu m ).
ARGUMENTOS DEDUCTIVOS E INDUCTIVOS 49

La falacia ignoratio elenchi se produce cuando en un argumento que procede co­


rrectamente hacia determinada conclusión, se cambia al final la legítima conclusión por
otra ilegítima diferente pero relacionada, unas veces más general, otras más específica. El
discurso social proporciona buenos ejemplos de ambos casos. Nos encontramos en el pri­
mer caso, por ejemplo, cuando en un argumento cuyas premisas establecerían correcta­
mente que el consumo de heroína es pernicioso, se pretende concluir que el consumo de
cualquier droga es pernicioso. Y en el segundo caso, por ejemplo, cuando en un argumen­
to que concluiría válidamente que se debe rebajar el déficit se concluye que hay que subir
los impuestos. Las conclusiones pretendidas no se siguen sin premisas adicionales.

P rem isas ocultas. Para concluir, conviene distinguir los argumentos falaces de
otros que, aunque en cierto sentido son “incompletos”, no son inválidos. Nos referimos a
los argumentos con premisas ocultas o elípticas. En la mayoría de los argumentos que
realizamos no explicitamos todas las premisas y dejamos que el contexto indique cuáles
son las premisas elípticas que presuponemos. A estos argumentos, que se pueden comple­
tar adecuadamente explicitando premisas implícitas ocultas, se les denomina en tim em a s .
El caso más famoso es cierta interpretación del cogito cartesiano: “Pienso, luego existo.”
Según esa interpretación, se trata de un entimema que tiene como segunda premisa, ocul­
ta, la afirmación “todo lo que piensa existe”, siendo por tanto un argumento deductivo vá­
lido. Considérese el siguiente argumento:

A19 “El Estado no debe ser paternalista, sólo debe prohibir acciones individua­
les que tengan consecuencias directas o indirectas contra terceros. El consu­
mo de drogas tiene consecuencias contra terceros. Algunas de esas conse­
cuencias son producto de la penalización, como la delincuencia vinculada
al tráfico ilegal, los robos para poder costearse el precio derivado de su
prohibición, la degradación y coste del sistema carcelario, o la tensión in­
ternacional entre países productores y consumidores; en este aspecto la
penalización es perjudicial. Otras consecuencias no se deben a la penaliza­
ción, como la ruptura del medio familiar del adicto, su bajo rendimiento la­
boral, las acciones incontroladas bajo efectos de la droga, o la carga econó­
mica que representa para el sistema sanitario público; la penalización tiende
a reducir el consumo y, con ello, este tipo de consecuencias, siendo pues
beneficiosa en este aspecto. Pero los perjuicios de la prohibición son mayo­
res que los que cabe esperar del aumento de consumo que se derivaría de la
despenalización. Por tanto, hay que despenalizar el consumo, producción y
venta de droga.”

Independientemente de que pueda rechazarse por desacuerdo con alguna de las premisas,
este argumento tiene toda la apariencia de ser formalmente correcto. Sin embargo, si lo
formalizáramos resultaría un esquema inválido. El motivo es que no menciona explícita­
mente toda una serie de premisas que supone compartidas por la audiencia del contexto.
Si completamos el argumento con esas premisas ocultas obtenemos un esquema válido.
50 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Pero hay que tener cuidado con esta situación, pues si se acepta este expediente indiscri­
minadamente entonces todos los argumentos podrían ser válidos. En efecto, todo argu­
mento inválido, hasta el más descabellado, puede convertirse en válido si permitimos
completarlo con las premisas adicionales necesarias. De hecho, muchas personas irracio­
nales argumentan, o mejor discuten, así, poniendo y quitando a p o sterio rí premisas a vo­
luntad. Como todo fenómeno pragmático, es difícil precisar cuál es el límite del uso legí­
timo de este recurso, pero ello no significa que no haya usos ilegítimos. Los entimemas se
pueden en general considerar falaces o ilegítimos si las premisas ocultas no son claramen­
te consideradas justificadas por la audiencia.

3. Argum entos inductivos

Los argumentos deductivos son sólo explicativos, mediante ellos no se establece


información material nueva. Si ellos constituyesen el único tipo de argumentación, no po­
dríamos establecer o justificar argumentativamente información nueva. Pero, en cierto
sentido que hay que precisar, a veces justificamos argumentativamente información nue­
va. Por tanto, hay argumentos justificativos no deductivos.
Estos argumentos en los que, aun siendo correctos, la conclusión contiene más in­
formación que las premisas son los argumentos inductivos. Así, contrariamente al carác­
ter meramente explicativo de los deductivos, los argumentos inductivos se caracterizan
por ser a u m en ta tivo s . Esta característica supone que su criterio de validez no puede ser el
mismo que el de los deductivos: si la conclusión contiene, incluso en los argumentos váli­
dos, más información que las premisas, en ellos no se puede pretender que la verdad de
las premisas garantiza plenamente la verdad de la conclusión. En un argumento inductivo
válido es posible cualquier combinación de verdad y falsedad de las afirmaciones involu­
cradas, incluida el que las premisas sean verdaderas y la conclusión falsa. ¿Qué preten­
sión caracteriza entonces estos argumentos? ¿Qué tipo de apoyo se pretende que confie­
ren las premisas a la conclusión? Se pretende sólo que las premisas apoyan o justifican la
conclusión en cierto g ra d o , que la verdad de las premisas hace “probable” la conclusión.
Nuestra pretensión en A2 y A5 era de este tipo; ambos son, de acuerdo con las in ten cio­
nes con que los p resen ta m o s, argumentos inductivos. En adelante, cuando queramos es­
quematizar los argumentos inductivos escribiremos en serie las afirmaciones involucradas
separando la conclusión de las premisas mediante una línea discontinua para connotar que
el apoyo pretendido es sólo parcial.

oq

a„
"P
ARGUMENTOS DEDUCTIVOS E INDUCTIVOS 51

3.1. A r g u m e n t o s in d u c t iv o s y f o r m a d e p r e m is a s y c o n c l u s ió n

Como ya mencionamos, a veces se expresa la diferencia entre deducción e induc­


ción diciendo que la segunda, contrariamente a la primera, “va de lo particular a lo gene­
ral”, Si con ello se quiere decir que en un argumento inductivo válido las premisas son
siempre todas afirmaciones particulares y la conclusión es una afirmación general (esto
es, cuantificacional), no es cierto. Para empezar, hay argumentos con premisas particula­
res y conclusión general, aunque existencial, que son deductivam ente válidos, p.ej. el A20
a continuación. Por otro lado, aunque muchos argumentos inductivos, como A22, tienen
premisas particulares y conclusión general u n iversa l , no siempre es así, la conclusión
puede ser también particular, como en A21. Además, hay argumentos inductivos con pre­
misas generales y conclusión particular, como A5, y también con conclusión general uni­
versal, como A23.

A20 “Sócrates es filósofo. Por tanto, alguien es filósofo.”


A21 “3 es la suma de dos primos. 5 también. 7 también. 9 también. 11 también.
13 tam bién.... 4817 también. Por tanto, 4819 es la suma de dos primos.”
A22 “3 es la suma de dos primos. 5 también. 7 también. 9 también. 11 también.
13 tam bién.... 4817 también. Por tanto, todo impar mayor que 1 es la suma
de dos primos.”
A23 “Todos los cuervos observados son negros. Por tanto, todos los cuervos son
negros.”

En los argumentos inductivos válidos, por tanto, es posible cualquier combinación


de afirmaciones particulares y generales en premisas y conclusión. La caracterización de
la inducción como “paso de lo particular a lo general”, aplicada a estos argumentos, ex­
presa sólo que en ellos la conclusión contiene información nueva respecto de las premi­
sas, sólo en ese sentido es más general que aquéllas.
Quizá se piense que en los casos con premisas generales mencionados (A5, A23),
éstas son generales sólo en apariencia, pues son equivalentes a una conjunción finita de
afirmaciones particulares (como en A21). En primer lugar, dicha equivalencia no las con­
vierte formalmente en particulares; pero es cierto que esos casos no serían esenciales pues
siempre se podrían sustituir por otros argumentos equivalentes. En segundo lugar, y lo que
es realmente importante, las premisas pueden ser generales y no equivalentes a una conjun­
ción finita de particulares. Estos son los casos que incluyen premisas probabilistas o esta­
dísticas, como en los casos A24 y A25 (para esto y lo que sigue, cf. los argumentos
A24-A30 que siguen a continuación). Puede parecer que hay argumentos inductivos que
contienen esencialmente alguna premisa general no estadística y no equivalente a una con-
yunción de afirmaciones particulares, como la segunda premisa de A26. Pero estos casos
no son inductivos “puros”, pues aunque la pretensión última es inductiva contienen algún
paso intermedio que es deductivo; estos argumentos son mixtos, se pueden expresar como
combinación de un argumento inductivo y otro deductivo (hágalo el lector con A26). Por
otro lado, no siempre que aparecen premisas probabilistas el argumento es (pretende ser)
52 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

inductivo, A27 y A28 tienen premisas probabilistas y son deductivos (en el caso de A28
con premisas ocultas pertenecientes a la teoría de la probabilidad). En general, el argumen­
to será (pretende ser) inductivo cuando algunas premisas son probabilistas o estadísticas y
la conclusión no lo es; pero no siempre ocurre así, A29 es deductivo con una premisa esta­
dística y conclusión no estadística. Tampoco es el caso que siempre que hay premisas pro­
babilistas y la conclusión también es probabilista o estadística, el argumento es deductivo,
por ejemplo A25 pretende ser inductivo y su conclusión es estadística.

A24 “En la ruleta, la probabilidad de acertar alguna vez jugando alternativamen­


te a rojos y negros durante al menos cincuenta partidas, es muy cercana a 1.
Juan jugó cien partidas alternativamente a rojos y negros. Por tanto, acertó
alguna vez.”
A25 “La probabilidad de que un obeso tenga problemas cardíacos es de 0,5. Mis
alumnos de este año son todos obesos. Por tanto, el 50 % de ellos tendrá
problemas cardíacos.”
A26 “Todos los libros que ha escrito hasta ahora S. King han sido b est sellers .
Los b est sellers acaban convirtiéndose en guiones cinematográficos. Por
tanto, el próximo libro de S. King se llevará al cine.”
A27 “La probabilidad de que un obeso tenga problemas cardíacos es mayor que
0,5. Juan es obeso. Por tanto, la probabilidad de que Juan tenga problemas
cardíacos es mayor que 0,5.”
A28 “La probabilidad de que al extraer una carta de una baraja salga oros es de
1/4. La probabilidad de que salga un as es de 1/12. Por tanto, la probabili­
dad de que salga el as de oros es de 1/48.”
A29 “El 40 % de los diputados son socialistas. Hay exactamente 200 diputados.
Por tanto, hay 80 diputados socialistas.”
A30 “La probabilidad de que un fumador de larga duración padezca alguna en­
fermedad pulmonar crónica es extremadamente alta. Juan es fumador de
larga duración. Muy probablemente, por tanto, Juan padecerá alguna enfer­
medad pulmonar crónica.”

En general, pues, hay muy diversas combinaciones de argumentos deductivos e


inductivos con premisas o conclusiones probabilistas. La presencia de afirmaciones pro­
babilistas no sirve por tanto para identificar en general el tipo de argumento de que se tra­
ta. Hasta A29 no hemos utilizado en los ejemplos un marcador especial para la expresión
de la pretensión inductiva en lenguaje natural; hemos usado, como en la pretensión de­
ductiva, el genérico ‘por tanto’, y hemos dejado que el contexto, o nuestras declaraciones
explícitas, indiquen la naturaleza inductiva de los argumentos que pretendíamos presentar
como tales. En la práctica argumentativa cotidiana muchas veces se añade algo al marca­
dor genérico para indicar que el argumento pretende ser inductivo; al ‘por tanto’ se añade
‘(muy) probablemente’ (o alguna otra expresión parecida). En general el recurso funciona
bastante bien; por ejemplo, si modificamos A5 con este expediente no hay ninguna duda
de que pretendemos que sea inductivo. Pero cuando las premisas incluyen afirmaciones
ARGUMENTOS DEDUCTIVOS E INDUCTIVOS 53

probabilistas, el expediente puede no ser suficiente y a veces son posibles las dos inter­
pretaciones. Por ejemplo, A30 se puede interpretar naturalmente de cualquiera de los dos
modos indicados a continuación, el primero deductivo y el segundo inductivo, ambos vá­
lidos. Por tanto, ni siquiera sabiendo que el argumento es válido es siempre posible iden­
tificar si es deductivo o inductivo. Si en la formulación del argumento se usan expresio­
nes como ‘probablemente’ al presentar la conclusión, se abren dos posibilidades interpre­
tativas: que dicha expresión forme propiamente parte de la conclusión; o que no forme
parte propiamente de ninguna afirmación y sea una marca de la pretensión de que la infe­
rencia es inductiva.

A30-D La probabilidad de que un fumador de larga duración padezca alguna en­


fermedad pulmonar crónica es extremadamente alta.
Juan es fumador de larga duración.
La probabilidad de que Juan padezca alguna enfermedad pulmonar cró­
nica es extremadamente alta.

A30-I La probabilidad de que un fumador de larga duración padezca alguna en­


fermedad pulmonar crónica es extremadamente alta.
Juan es fumador de larga duración.
Juan padecerá alguna enfermedad pulmonar crónica.

3.2. V a l id e z in d u c t iv a

La pretensión que caracteriza a los argumentos inductivos también puede ser, como
en los deductivos, satisfecha o no, y en función de ello se consideran válidos o inválidos.
Como ya mencionamos, algunos autores prefieren reservar ‘válido’ sólo para los argumen­
tos deductivos y utilizar ‘correcto’ o ‘fuerte’ para los inductivos. En cierto sentido ello es
preferible, pues ‘válido’ no se dice igual de los argumentos inductivos que de los deducti­
vos. Pero para ello basta cualificar el tipo de validez, y usar ‘validez deductiva’ y ‘validez
inductiva’ según sea el caso. Por otro lado, utilizar en ambos casos la misma expresión
(adecuadamente cualificada en cada caso) expresa la idea de que hay algo común en los dos
tipos de validez, a saber, que se ha satisfecho adecuadamente cierta pretensión, aunque en
cada caso ésta sea distinta. Aquí seguiremos ateniéndonos a esta práctica.
La disciplina que se ocupa de los criterios de validez de los argumentos inducti­
vos, de las condiciones en las que se cumple efectivamente su pretensión, es la lógica in ­
ductiva. Esta disciplina es mucho más difícil y problemática que la lógica deductiva, tan­
to que para muchos autores está condenada al fracaso. De algunos de esos problemas nos
ocuparemos por extenso en el capítulo 12. Por el momento bastarán como introducción
las consideraciones siguientes.
Hemos dicho que lo que se pretende en los argumentos inductivos no es que la
54 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

verdad de las premisas garantiza plenamente la verdad de la conclusión, sino sólo que la
apoya en cierto grado, que las premisas no hacen cierta la conclusión sino sólo “proba­
ble”. Mediante el entrecomillado, queremos indicar que la noción de probabilidad usada
en esta caracterización general es una noción preteórica intuitiva e informal. No pretende
referir a alguna noción técnica específica de alguna teoría o concepción particular de la
probabilidad. Estas nociones técnicas son justamente el recurso mediante el que algunos
autores construyen su propia lógica inductiva como elaboración y precisión de la caracte­
rización general que hemos dado. De momento, por tanto, el lector deberá recurrir sólo a
sus propias intuiciones sobre esta noción. Y ya la noción intuitiva de probabilidad mues­
tra algunas peculiaridades de los argumentos inductivos. La primera se deriva del carácter
gradual de la probabilidad.
En cualquier acepción que se quiera, la probabilidad es algo que no se da bipolar­
mente según un “todo o nada”. La verdad corresponde a las afirmaciones bipolarmente,
una afirmación es verdadera o no lo es, no es “más o menos verdadera”, o “verdadera en
cierto grado”, a no ser que ello sea justamente sólo otro modo de decir que es probable.
Una afirmación verdadera no puede ser m ás verdadera que otra también verdadera. Ello
no ocurre con la probabilidad. Quizá pueda haber un sentido en que una afirmación sim­
plemente es probable o no lo es, cuando la probabilidad no es nula, pero es un sentido de­
rivado del sentido usual, gradual. Lo esencial es que si una afirmación es probable (tiene
probabilidad no nula), puede serlo más o menos, en d iversos grados: una afirmación pro­
bable puede ser más probable que otra también probable. Esto tiene consecuencias para
la noción de validez inductiva. Los argumentos inductivos son válidos si es efectivamente
satisfecha la pretensión de que la verdad de las premisas hace probable la conclusión.
Pero como, relativamente a la verdad de las premisas, la conclusión puede ser más o me­
nos probable, ese carácter gradual de la probabilidad se traslada a la satisfacción de la
pretensión, esto es, a la validez inductiva. No hay argumentos deductivos más o menos
válidos, un argumento deductivo válido no puede ser más válido que otro. La validez de­
ductiva es cuestión de todo o nada. Eso no pasa con la validez inductiva. Un argumento
inductivo puede ser m ejo r (m ás fu e rte ) que otro, si en el primero las premisas confieren
más apoyo a la conclusión que en el segundo; o un argumento inductivo puede ser sólo un
p o c o válido (muy débil), o m uy válido (muy fuerte), etc. Cuál es el grado mínimo de apo­
yo de las premisas a la conclusión para considerar al argumento “suficientemente válido”,
y cómo se debe medir dicho grado, son los principales problemas de la lógica inductiva
(sobre los que nos detendremos en el cap. 12). Provisionalmente, hablaremos aquí de ar­
gumentos inductivos válidos / inválidos sin más, en el sentido de “el grado de apoyo es
claramente suficiente / insuficiente”. Este sentido es inaceptablemente vago y de momen­
to sólo podemos apelar a las intuiciones, y a la benevolencia, del lector.
Hemos dicho que lo característico de la validez inductiva es el grado de apoyo o
probabilidad que las premisas confieren a la conclusión. Debe quedar claro que lo que im­
porta aquí no es la probabilidad de la conclusión sin más, no importa cuán probable es la
conclusión “en sí misma”, independientemente de las premisas (incluso si tiene sentido
hablar de probabilidad de una afirmación sin relativizarla a otras, sobre esto volveremos
en el cap. 5 §5). Lo que importa es la probabilidad de la conclusión relativam ente a (la
ARGUMENTOS DEDUCTIVOS E INDUCTIVOS 55

verdad de) las p re m isa s . En los argumentos deductivos la verdad de la conclusión no de­
termina la validez del argumento, puede haber argumentos deductivos inválidos con con­
clusión verdadera (y premisas también verdaderas). Análogamente, en los argumentos
inductivos la alta probabilidad de la conclusión “en sí misma” no determina que el argu­
mento sea válido; puede haber argumentos inductivos inválidos con conclusión muy pro­
bable (y premisas verdaderas). Por ejemplo, el siguiente es inductivamente inválido y la
conclusión es muy probable (caso de que tenga sentido hablar de probabilidades absolu­
tas): “Todos los días hasta la fecha ha salido el sol. Por tanto, en la próxima tirada de la
ruleta saldrá un número diferente de 1.” Lo que importa para la validez inductiva, insisti­
mos, es la probabilidad de la conclusión relativam ente a la verdad de las p rem isa s (lo
que más adelante denominaremos probabilidad condicionada, cf. caps. 5 y 12).
Hemos visto que la dificultad más inmediata de la lógica inductiva es el carácter
prim a fa c ie gradual de la validez inductiva. Otra no menos importante tiene que ver con
la cuestión de su carácter “formal”. En principio, toda lógica es fo rm a l. No se estudia tan­
to la validez de inferencias concretas cuanto patrones o esquemas de inferencia válida,
pues la validez no depende de los aspectos materiales de las inferencias. La lógica deduc­
tiva es el mejor ejemplo de ello. En la lógica inductiva, sin embargo, no está claro en qué
consiste exactamente su carácter formal. La invalidez inductiva absoluta sí parece ser for­
mal en un sentido inmediato pero poco interesante. Considérese, como ejemplo, el “argu­
mento” (supuestamente inductivo) mencionado en el párrafo anterior, o el siguiente (tam­
bién, supongamos, pretendidamente inductivo): “los presidentes estadounidenses han sido
todos varones hasta el momento, por tanto el próximo par de zapatos que me compre me
dará buen resultado”. Pero estos casos tan claros, por absurdos, no son interesantes. El
problema lo plantean argumentos mínimamente interesantes, por ejemplo A2 y A5. Se­
gún qué entendamos por forma lógica, las afirmaciones de A2 y A5 tienen la misma for­
ma lógica, ambos argumentos tendrían la misma estructura. Pero imaginemos, respecto de
la primera premisa de A2, que sólo he comprado un único par de zapatos antes en dicha
zapatería; es claro que en tal caso no se pueden equiparar ambos argumentos en validez o
fuerza inductiva. Parecería, entonces, que la validez inductiva depende, en algún sentido a
precisar, de algunos aspectos “cuasi-materiales” y que por tanto la lógica inductiva no es
exactamente formal.
La anterior conclusión es sin embargo apresurada. A2 y A5 tienen la misma es­
tructura, la misma forma lógica, sólo si por forma lógica de una afirmación entendemos
aquí aproximadamente lo mismo que entendemos en la lógica deductiva. La forma lógica
es el esquema que queda cuando abstraemos todas las expresiones salvo las partículas ló­
gicas, esto es, salvo los componentes de los que depende la validez de la inferencia. Pero
en ese caso la forma lógica inductiva de una afirmación no tiene por qué coincidir, o
aproximarse, a su forma lógica d ed u ctiva , pues los componentes de los que dependen am­
bos tipos de inferencias no son los mismos. Por tanto, no es que la lógica (validez) induc­
tiva no sea formal, sino que la forma lógica inductiva es extremadamente compleja y
toma en consideración algunos aspectos que en la lógica deductiva tienden a considerarse
materiales; por ejemplo, los sistemas de lógica inductiva toman en cuenta el número
de casos particulares que sustentan una afirmación general (como las primeras premisas
56 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

de A2 y A5); algunos de ellos toman en cuenta además la calid a d de los casos particula­
res, otros incluso el nexo causal involucrado. Todo ello hace que esta disciplina sea extre­
madamente difícil de desarrollar satisfactoriamente, y que, a pesar de haber nacido casi al
mismo tiempo que la lógica deductiva, apenas haya avanzado y no se disponga todavía de
una versión estándar aceptable para todos.

3.3. F a l a c ia s

Las dificultades para el estudio de la validez inductiva se trasladan al de las fala­


cias de este tipo de argumentos. Es difícil establecer en muchos casos si un argumento in­
ductivo, que no sea totalmente descabellado, es (suficientemente) válido o no. Todavía lo
es más establecer patrones de inferencias inductivas inválidas típicas. A pesar de ello,
algo se puede decir, con todos los matices derivados de la discusión anterior.
El primer error inductivo sobre el que hay que advertir tiene un patrón similar
a una de las falacias deductivas. Vimos que una inferencia deductiva inválida tomada a
menudo por válida es la falacia de afirmación del consecuente. Quizá se piense que la
falacia se deriva de que la pretensión deductiva es excesiva, que la inferencia sí es legí­
tima en su versión inductiva, esto es, si sólo pretendemos que la afirmación del conse­
cuente hace altamente probable el antecedente. Pero no. La afirmación del consecuente
no es ni un argumento deductivo válido ni tampoco un buen argumento inductivo. Un
ejemplo típico para mostrar esto, y que reaparecerá más adelante, es el de la paresis,
fase avanzada de la sífilis que desarrolla un porcentaje muy pequeño de hombres que
han contraído dicha enfermedad. Supongamos que Juan tiene sífilis y consideremos el
siguiente argumento:

Si Juan tiene paresis entonces tiene sífilis


Juan tiene sífilis
Juan tiene paresis

Las premisas son verdaderas y sin embargo la conclusión es muy improbable (re­
lativamente a las premisas). La inferencia inductiva es pues inválida, la verdad de las pre­
misas no hace (muy, bastante) probable la conclusión. Contra lo que se suele creer, y en
este sentido es una falacia, la ocurrencia del consecuente no hace altamente probable el
antecedente. Y lo mismo ocurre con la versión, un poco más sofisticada, con premisas es-
tadístico-probabilistas, incluso si la correlación probabilista es tan alta como queramos.
Considérese el siguiente caso:

El 99 % de los ingleses admira a María Callas


Plácido Domingo admira a María Callas
Plácido Domingo es inglés
ARGUMENTOS DEDUCTIVOS E INDUCTIVOS 57

Otra falacia inductiva típica es la de insuficiencia de datos, como ocurriría con A2


en el caso de que la muestra previa haya sido escasa. El caso límite de generalización
inadecuada responde al siguiente esquema.

El único caso de P conocido hasta el momento es Q


Todos los P son Q

Sin embargo a veces estamos dispuestos a considerar la inferencia no totalmente desenca­


minada, “aceptablemente válida”, incluso si el número de casos previos es relativamente
escaso, sobre todo si la conclusión no es general sino sólo acerca del próximo caso. Por
ejemplo, consideremos resultados de actividades que requieren calidad y adiestramiento,
y tales que normalmente sus autores mantienen durante cierto tiempo la capacidad de rea­
lizarlas satisfactoriamente, actividades como la producción artística, la investigación
científica o la práctica deportiva. Que las tres primeras monedas que he extraído de mi
bolsillo sean plateadas no es motivo inductivo suficiente para que lo sea la próxima. Pero
que las tres primeras piezas musicales de cierto compositor sean obras maestras confiere
suficiente fundamento inductivo a que la próxima al menos no sea mala; si en las prime­
ras tres carreras de 100 m un atleta baja de 10 s, está inductivamente fundado esperar, por
ejemplo, que en la siguiente no supere los 11 s. De todas formas nuestras intuiciones no
son totalmente claras al respecto; quizá podría pensarse que estos casos también son fala­
ces, a no ser que se interpreten como conteniendo premisas ocultas consideradas ausentes
en los otros casos que sí nos parecen claramente falaces.
Este tipo de argumentos, si no son falaces sin añadir premisas adicionales, sugiere
a algunos autores que el peso de la validez / invalidez inductiva no descansa sólo en el
número de casos previos sino en la calidad de los mismos. Una versión específica de ello
es tomar en consideración nexos causales. Entonces, otra forma típica de inducción erró­
nea consiste en errar en los nexos causales. Un modo usual de confusión se da cuando
coinciden accidentalmente hechos inesperados. Por ejemplo, es sabido que ciertos aconte­
cimientos no directamente económicos, como una repentina, aunque no grave, enferme­
dad de un mandatario es muchas veces seguida de una bajada de la bolsa; estos casos, y
otros más raros, son indicio de que la “causalidad económica es a veces inescrutable”. Si
después de un desastre deportivo nacional hay una bajada súbita de la bolsa, tras otro de­
sastre deportivo de igual magnitud alguien puede concluir apresuradamente que también
bajará la bolsa. Las falacias por erróneas conexiones causales se pueden producir incluso
si las relaciones estadísticas son extremadamente altas.
Estas cuestiones nos introducen ya en problemas filosóficos sustantivos relaciona­
dos con la causalidad, las leyes, la explicación, etc., cuyo estudio excede la finalidad
introductoria de este capítulo. No vamos a detenernos ahora en ellas puesto que serán tra­
tadas en otros lugares (caps. 5, 7 y 12). Para concluir, comentaremos un patrón argumen­
tativo inductivo inválido cuya invalidez es particularmente interesante para cuestiones
que hemos de ver más adelante, principalmente la explicación estadística, las leyes pro-
babilistas y el problema de la inducción. En tanto que inferencia inválida, se trata de una
58 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

falacia inductiva (aunque no está claro que sea un error argumentativo “típico” en el sen­
tido de que las personas no adiestradas suelen cometerlo).
En los argumentos deductivos el siguiente patrón argumentativo de introducción
de condición a ntecedente es válido:

Todos los A son B


Todos los A y C son B

Por ejemplo: “Todos los filósofos son aburridos. Por tanto, todos los filósofos alemanes
son aburridos.” Lo mismo sucede con un patrón con conclusión particular derivado del
anterior:

Todos los A son B


a es A y a es C
a es B

Sin embargo, en lógica inductiva el patrón análogo al segundo no es válido:

Prácticamente todos los A son B


a es A y a es C
a es B

Por ejemplo: “La gran mayoría de las mujeres tienen hijos. Sor Remedios es mujer y
monja. Muy probablemente, por tanto, sor Remedios tiene hijos.” Y sin embargo el si­
guiente patrón sí es inductivamente válido:

Prácticamente todos los A son B


at sA
a es B

Quizá se piense que el ejemplo de sor Remedios muestra lo contrario: “La gran mayoría
de las mujeres tienen hijos. Sor Remedios es mujer. Muy probablemente, por tanto, sor
Remedios tiene hijos.” Pero no es así, este argumento inductivo es perfectamente (muy)
válido (a no ser que consideremos que la partícula ‘sor’ en el nombre de la mujer introdu­
ce como premisa implícita la premisa adicional de que sor Remedios es monja). Que las
premisas sean verdaderas y la conclusión falsa sólo muestra que en los argumentos induc­
tivos válidos, a diferencia de los deductivos, la verdad de las premisas no garantiza la ver­
dad de la conclusión. Pero esto ya lo sabíamos. Precisamente así habíamos introducido la
diferencia entre validez deductiva e inductiva.
Pues bien, si uno es inductivamente válido y el otro no, es justamente porque de
“todos los A son B ” se deduce “todos los A y C son B”, mientras que de “la práctica totali­
dad (la mayoría, el 99 %, etc.) de los A son B” ni se deduce ni se induce “la práctica to­
ARGUMENTOS DEDUCTIVOS E INDUCTIVOS 59

talidad (la mayoría, el 99 %, etc.) de los A y C son B Este hecho tiene como consecuencia
otra diferencia entre la validez deductiva y la inductiva, diferencia que en el fondo no es
más que otra versión de la anterior: mientras que en la lógica deductiva podemos “conyun-
tar” las conclusiones de diversos argumentos si combinamos las premisas, en la lógica in­
ductiva no. Si de “ai y ... y a ,” se concluye deductivamente ph y de “a„+) y ... y a,„” se con­
cluye deductivamente p2, entonces necesariamente de “ai y ... y a„ y a„+i y ... y a m” se
concluye deductivamente “p] y p2”. Sin embargo, aunque de “ai y ... y a n” se concluya in­
ductivamente p h y de “a,(+! y ... y a „ s e concluya inductivamente p2, no necesariamente de
“ai y ... y a , y a„+i y ... y a,„” se concluye inductivamente “p! y p2”. Esta peculiaridad es lo
que Hempel denomina a m bigüedad inductiva , sobre la cual nos extenderemos en otros lu­
gares (cf. cap. 7 sobre la explicación y cap. 12 sobre la inducción).
C a p ít u l o 3

CONTRASTACIÓN DE HIPÓTESIS

En este capítulo vamos a estudiar los procedimientos de contrastación de hipóte­


sis científicas. Las hipótesis científicas, y su contrastación, plantean numerosas cuestio­
nes filosóficamente sustantivas, como las relativas a la causalidad, la inducción, las le­
yes científicas, su organización en teorías, etc. Esta primera aproximación pretende ser
estrictamente m e to d o ló g ic a , vamos a limitarnos aquí a analizar la metodología de la
contrastación de hipótesis sin entrar en problemas epistemológicos y ontológicos sus­
tantivos. En particular, este estudio puramente metodológico va a obviar las siguientes
cuestiones:

a) La elaboración o invención de hipótesis. Esto se tratará parcialmente en el ca­


pítulo 12 dedicado a la inducción.
b ) La naturaleza de las hipótesis. Vamos a suponer que lo que se somete a con­
trastación son “hipótesis” (empíricas) en el sentido más general del término, esto es, cual­
quier afirmación, simple o compleja, que tenga consecuencias empíricas constatables. No
vamos a distinguir de momento entre grandes agregados de hipótesis, como la teoría new-
toniana, o leyes aisladas, como la de dilatación de los metales, o hipótesis en un sentido
más básico que no reciben el calificativo de ley, como la de Semmelweis sobre el origen
de la fiebre puerperal. De las leyes nos ocuparemos en el capítulo 5 y de las teorías en los
capítulos 8, 9, 10 y 13.
c) La naturaleza de los datos. Supondremos que los datos en relación a los cua­
les se contrasta la hipótesis son “neutrales” o “aproblemáticos”. Algunos comentarios que
haremos sobre las hipótesis auxiliares mostrarán ya que este supuesto es discutible, pero
pospondremos la discusión explícita del mismo a los capítulos 8 y 12.
d) El carácter aproximadvo que, en la actividad científica real, tienen las afirma­
ciones o hipótesis así como las observaciones y mediciones mediante las que aquéllas se
contrastan.
e ) Aspectos específicos de la contrastación de las hipótesis cuya predicción es
esencialmente estadística o probabilista, como ocurre por ejemplo en las hipótesis causa­
les sobre las correlaciones entre el consumo de tabaco y algunas formas de cáncer y afee-
62 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

d o n e s d e co ra zó n . A lg u n o s a sp e c to s d e esta c u e stió n se tratarán en el c a p ítu lo 5 d e d ic a d o


a las le y e s y e n el 7 d e d ic a d o a la e x p lic a c ió n .
f) Las consecuencias de la contrastación para la dinámica científica, e.e., las ac­
ciones que realizan o actitudes que adoptan los científicos tras la contrastación, así como
la supuesta fundamentación, o no, de dichas acciones y actitudes en los resultados de la
contrastación. Estas cuestiones se tratarán en el capítulo 12 dedicado al problema de la in­
ducción y la evaluación de teorías y en el capítulo 13 dedicado al cambio teórico.
g ) Relacionado con el punto anterior, la evaluación epistemológica de la con­
trastación. No vamos a tratar aquí de si cabe o no atribuir ciertas propiedades epistémicas
a las hipótesis en función del resultado de la contrastación, ni de si, caso de que quepa tal
atribución, cuáles son esas propiedades y qué problemas filosóficos suscitan. De ello se
tratará en el capítulo 12.

Las dos últimas restricciones son especialmente importantes ¿Qué queda, se dirá,
después de prescindir de todas estas cuestiones, y especialmente de las dos últimas? Pues
quedan los aspectos puramente estructurales y metodológicos. Los científicos siguen
aproximadamente una misma práctica a la hora de contrastar sus afirmaciones con la
experiencia. Realizan sus afirmaciones de modo tal que de ellas se siguen ciertas predic­
ciones sobre hechos empíricos particulares constatables, y reconocen que la presencia o
ausencia del hecho predicho constituye p rim a fa c ie evidencia a favor o en contra de sus
afirmaciones. Quizá tengan después buenos motivos para relativizar los efectos de esa
evidencia en sus acciones y actitudes. Quizá los filósofos tengan o no razón acerca de si
en base a esa evidencia es o no posible atribuir a las afirmaciones determinadas propieda­
des epistémicas. Pero antes de estas importantes cuestiones hay que clarificar los elemen­
tos, estructura y procedimientos de la práctica en cuestión, de la “puesta a prueba” con la
experiencia. A esto nos referimos con la dimensión puramente metodológica de la con­
trastación. Aunque los aspectos filosóficamente más interesantes queden provisionalmen­
te aplazados, este estudio previo contiene ya suficientes elementos de interés para la com­
prensión de una parte esencial de la práctica científica.
La caracterización de los procesos de contrastación se puede presentar de diversos
modos. Se puede presentar la estructura de tales procesos en forma de un argumento o de
una serie de ellos, o presentarlo más bien como un programa o proceso algorítmico de de­
cisión. Originalmente se tendía a presentarlo del primer modo (cf. p.ej. Popper,
1935-1958, caps. IV y X y 1963, cap. 1 y Apéndice; Hempel, 1966a, cap. 3; Salmón,
1966, y el clásico Giere, 1979, cap. 6), pero la generalización en los últimos años de los
modelos cognitivos y computacionales ha motivado enfoques más algorítmicos (el caso
paradigmático es Giere, 1991, revisión sustancial en términos cognitivistas del original,
1979). No hay grandes o sustantivas diferencias entre uno y otro modo de presentar o re­
construir el proceso de contrastación, las preferencias responden en gran medida a crite­
rios estéticos o de orientación metacientífica general (logicistas versus cognitivistas). Lo
importante, independientemente de la presentación que se prefiera, es que en el proceso
de contrastación intervienen una serie de elementos, que estos elementos están en ciertas
relaciones y que en el proceso se han de satisfacer una serie de condiciones. Veremos pri­
CONTRASTACIÓN DE HIPÓTESIS 63

mero cuáles son esos elementos y condiciones, y con ellos reconstruiremos después el
proceso de contrastación. Para esto último, vamos a seguir aquí en general el modelo ar­
gumentativo clásico, pero incluiremos también una versión algorítmica simplificada a
modo de resumen final. La presentación de la metodología de la contrastación va precedi­
da de una serie relativamente amplia y variada de episodios históricos, que tienen la fun­
ción de servir de ejemplos para la presentación de las diversas nociones y de proporcionar
material para que el lector contraste su comprensión de los conceptos básicos aplicándo­
los a esos casos a modo de ejercicios.

1. Algunos episodios históricos

1 .1 . M e c á n ic a a r is t o t é l ic a

Como es sabido, para Aristóteles el movimiento sólo se produce ante la presencia


de una fuerza actuante. Generalizando sobre efectos dinámicos cotidianos, principalmente
sobre la tracción (dos bueyes mueven más rápido un carro que uno; un buey mueve más
rápido un carro que dos carros), Aristóteles formula una especie de ley mecánica general:
la velocidad es directamente proporcional a la fuerza actuante e inversamente proporcio­
nal a la cantidad de materia y a la resistencia o rozamiento del medio. Para dar cuenta de
hechos conocidos, esta teoría era completada con una hipótesis “de umbral”: dados
un cuerpo y un medio, por debajo de cierto umbral la fuerza no produce movimiento (un
hombre sólo tirando de un barco no lo mueve). En el siglo siguiente, Arquímedes, el crea­
dor de la polea, la palanca y la estática de sólidos, refutó dicha hipótesis al mover (según
la tradición) con una sola mano, mediante un sistema de poleas, un barco totalmente car­
gado en el puerto de Siracusa.

1 .2 . E s f e r a s h o m o c é n t r ic a s

El primer modelo de sistema astronómico geocéntrico es el de las esferas homo-


céntricas. Este sistema es propuesto inicialmente por Eudoxo y Calipo, discípulos de Pla­
tón, y desarrollado posteriormente por Aristóteles. El sistema, ideado para dar cuenta de
los movimientos aparentes de los astros, consiste en una serie de esferas concéntricas en­
cajadas unas en otras, con movimientos rotacionales con diferentes ejes, velocidades y di­
recciones que se van acumulando; los diferentes planetas están “clavados” en algunas de
esas esferas. En este modelo la distancia de cada uno de los planetas a la Tierra es por
tanto siempre la misma. Puesto que se aceptaba que el brillo de los astros depende sólo de
su distancia a la Tierra, no debería apreciarse ningún cambio de brillo en la observación
nocturna. Sin embargo, al menos Venus y Marte manifestaban un claro cambio de brillo a
lo largo del año. Este hecho fue considerado un problema para el modelo homocéntrico
por Apolonio e Hiparco, quienes propusieron y desarrollaron como alternativa el modelo
de epiciclos, deferentes y excéntricas, en el que la distancia de los planetas a la Tierra es
64 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

variable. Otros astrónomos consideraron sin embargo que la evidencia se podía acomodar
haciendo depender el brillo no sólo de la distancia sino de la densidad de las esferas y
postulando diferentes densidades.

1 .3 . R o t a c ió n d e l a T ie r r a

El sistema heliocéntrico sustituye el movimiento de las esferas celestes en torno a


la Tierra estática e inmóvil por el movimiento de rotación diario de la Tierra sobre sí mis­
ma y el de traslación anual alrededor del Sol, en torno al cual giran también los otros pla­
netas. El movimiento de rotación da cuenta de los movimientos aparentes diarios y el de
traslación de los movimientos anuales a través de la eclíptica. Ya en la antigüedad Aris­
tarco (siglo iii a.C.) había propuesto el modelo heliocéntrico, pero fue desestimado por
presentar diversas dificultades empíricas. Una de las principales objeciones iba dirigida
contra la rotación de la Tierra, cuya posibilidad planteó por primera vez Heráclides de
Ponto (siglo iv a.C.). Si la Tierra girase constantemente sobre su eje, se objetaba desde la
física aristotélica dominante, al lanzar un objeto hacia arriba debería caer al suelo en un
punto diferente y retrasado respecto del original, pues durante el intervalo temporal el
lanzador, sujeto a la superficie de la Tierra, se habría movido con ella. Pero nada así se
observaba. Como mostraron los físicos del ím petus de final de la Edad Media, esta obje­
ción descansa sobre el supuesto cuestionable de que los movimientos no se acumulan. Si,
como se manifiesta en los barcos en movimiento al dejar caer un objeto desde el mástil, el
movimiento de traslación horizontal se conserva y “combina” con el movimiento vertical
de caída, la objeción pierde su peso.

1 .4 . P a r a l a je e s t e l a r

Otra objeción tradicional, y para muchos definitiva, al sistema heliocéntrico, en


este caso a su hipótesis del movimiento anual de la Tierra en torno al Sol, tenía que ver
con la aparente ausencia de paralaje estelar. Al girar la Tierra en torno al Sol, desde posi­
ciones opuestas de la órbita, e.e. cada seis meses, se deberían observar modificaciones en
la forma aparente de muchas constelaciones por efecto de la perspectiva. Pero nada así se
observaba. Este hecho ya era conocido por el primer defensor conocido del heliocentris-
mo, Aristarco (siglo ii i a.C.), quien parece ser que justificó esta evidencia contraria a su
teoría postulando que el radio de la órbita terrestre era despreciable comparado con la
distancia a la esfera de las estrellas fijas (la esfera en la que se suponía que estaban “in­
crustadas e inmóviles” las estrellas). Copérnico utiliza la misma defensa en el siglo xvi,
aumentando para ello casi doscientas veces el diámetro del universo estimado hasta en­
tonces. Esto le parecía una estrategia inaceptable a Tycho Brahe, quien, disponiendo po­
cos años después de observaciones incomparablemente más precisas, seguía sin observar
paralaje. De ahí no infería Tycho la validez del sistema geocéntrico tradicional. Tycho
propuso un sistema geocéntrico mixto, con el Sol y la Luna girando en torno a la Tierra y
CONTRASTACIÓN DE HIPÓTESIS 65

el resto de planetas girando en torno al Sol, que implicaba también, como el tradicional,
la ausencia de paralaje. Ni siquiera Galileo con su telescopio pudo observar este fenóme­
no, que no sería detectado sino hasta 1838.

1.5. F ases de V enus

Es tradicional considerar que con las observaciones de los cielos mediante telesco­
pio realizadas por Galileo el heliocentrismo recibe un impulso definitivo. Sin embargo, mu­
chas de esas observaciones, como la de las lunas de Júpiter, no eran directamente contrarias
al modelo geocéntrico tradicional. Por eso los partidarios del heliocentrismo recibieron
como una confirmación definitiva la observación por Galileo en 1610 de las fases de Ve­
nus. Según el modelo geocéntrico tradicional, Venus debería verse desde la Tierra, aproxi­
madamente, con la misma forma luminosa siempre. Según el modelo heliocéntrico, Venus
debe presentar cambios considerables en la superficie iluminada, deben observarse fases
crecientes y menguantes muy marcadas. En 1610 Galileo observó con su telescopio que la
forma luminosa de Venus cambiaba desde un disco prácticamente negro hasta otro ilumina­
do casi en su totalidad, lo que se consideró una victoria definitiva del heliocentrismo (aun­
que algunos aristotélicos rechazaron la refutación aduciendo que el telescopio no era fiable
como instrumento de observación del mundo supralunar). El fenómeno, sin embargo, no le
hubiera parecido tan definitivamente favorable al heliocentrismo a Tycho Brahe, muerto en
1601, pues su propio sistema mixto también predecía fases en Venus. Así pues, el fenóme­
no sólo constituye evidencia clara contraria del modelo geocéntrico tradicional no tychea-
no, no proporciona una evidencia clara favorable al sistema heliocéntrico.

1 .6 . E l baróm etro de T o r r ic e l l i

En la época de Galileo, y ya desde antes, se sabía que en un pozo la bomba no


puede elevar la columna de agua mucho más de 10 m por encima de la superficie. Algu­
nos aristotélicos explicaban el fenómeno apelando al h o rro r vacui. Galileo ensayó contra
ellos cierta explicación, pero no tuvo éxito. Torricelli, discípulo de Galileo, propuso si­
guiendo a Baliani la siguiente explicación: el mar de aire que rodea la tierra ejerce, por su
peso, una presión sobre la superficie del pozo, que es la que empuja el agua hacia arriba
cuando se libera el pistón; el límite de altura se debe a que para esa altura la presión del
agua iguala la del aire. Para contrastar su conjetura, predijo que en un tubo lleno de mer­
curio, al invertirse y sumergirse en un recipiente con esa sustancia, la columna de mercu­
rio descendería hasta alcanzar 1/14 de la altura para el agua, pues la densidad del mer­
curio es 14 veces la del agua. La prueba resultó exactamente como había predicho.
Años más tarde Pascal (que había repetido el experimento de Torricelli con vino
obteniendo la altura predicha de aproximadamente 18 m) realizó una confirmación adi­
cional. Según la hipótesis de Torricelli, la columna de mercurio debe ser mayor en la base
de una montaña que en su cima, pues la columna de aire envolvente decrece con la altura.
66 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Predijo que la diferencia debería ser aproximadamente de 1 cm por cada 200 m de desni­
vel. En 1648 su cuñado Périer (Pascal era un enfermo crónico) realizó la prueba en el
Puy-de-Dóme y observó los resultados esperados. Pascal consideró el resultado una refu­
tación decisiva de la teoría aristotélica y una confirmación de la de Torricelli. Sin embar­
go, algunos aristotélicos se defendieron apelando a una supuesta disminución del h o rror
vacui con la altura.

1.7. El c o m e t a H alley

A finales del siglo x v i i se aplica la teoría newtoniana al estudio de los cometas,


cuerpos celestes tradicionalmente considerados misteriosos por sus apariciones aparente­
mente irregulares. La teoría es compatible tanto con que los cometas describan elipses
muy excéntricas (con los focos muy separados) como con que describan parábolas; en el
primer caso el astro pasa varias veces por una misma región, en el segundo no. En 1682
se produjo la visita de uno de esos cometas, y Halley, entre otros, observó y anotó cuida­
dosamente los datos del mismo. Halley defendía la hipótesis de que al menos ese cometa
era de órbita elíptica y, por tanto, recurrente. Repasó los datos astronómicos disponibles
de los 150 años anteriores, con más de veinte visitas de cometas, y vio que al menos en
dos casos (1530 y 1606) podría tratarse del mismo cometa. Sobre la base de esos datos
predijo que, si no ocurría nada extraño (p.ej. que su trayectoria se viera afectada por la
presencia de un astro cercano), el cometa aparecería nuevamente a finales de diciembre
de 1758. El día de Navidad de 1758 apareció efectivamente de nuevo un cometa en el cie­
lo visible, que se identificó con los anteriores y que desde entonces lleva su nombre. El
episodio se consideró una validación no sólo de la hipótesis sobre la órbita elíptica del co­
meta sino también, en general, de toda la teoría newtoniana.

1 .8 . F l o g is t o

La teoría del flogisto, desarrollada durante el siglo xvm por Stahl, explica la com­
bustión atribuyendo a los cuerpos combustibles una sustancia, el flogisto, que éstos libe­
ran al arder. La teoría daba cuenta de diferentes fenómenos; por ejemplo, explicaba que
una vela encendida encerrada en un recipiente acabara apagándose puesto que el aire se
satura de flogisto y ya no permite más liberación de esa sustancia proveniente de la vela.
A finales de siglo, Lavoisier, que se oponía a la teoría del flogisto, diseña un experimento
para contrastarla. Una consecuencia inmediata de la teoría es que los cuerpos combusti­
bles pierden materia al quemarse, por lo que los restos más las cenizas deben pesar menos
que el cuerpo íntegro antes de la combustión. En el experimento de Lavoisier se coloca
una determinada cantidad de sustancia combustible (p.ej. mercurio) sobre un sólido flo­
tante en agua y se encierra bajo una campana de cristal. Mediante una lupa se enciende él
mercurio. De acuerdo con la teoría se tendrían que observar dos cosas: a) el cuerpo flo­
tante está menos sumergido tras la combustión, pues la cantidad restante de sustancia jun­
CONTRASTACIÓN DE HIPÓTESIS 67

to con las cenizas debe pesar menos que la cantidad inicial; b) el volumen de aire dentro
de la campana debe aumentar como efecto de la asimilación de flogisto, y con ello el ni­
vel del líquido encerrado debe ser más bajo que al comienzo. La realización del experi­
mento produjo justamente los resultados opuestos.

1 .9 . F ie b r e p u e r p e r a l

Hacia 1840, en la Primera División de Maternidad del Hospital General de Viena,


había una mortandad alarmante producto de una enfermedad que por su sintomatología se
denominaba fie b r e p u e rp e ra l o posparto (8,2 % de muertes en 1844, 6,8 en 1845 y 11,4
en 1846). En la Segunda División de Maternidad, el porcentaje era muy inferior y aproxi­
madamente estable (2,3, 2 y 2,7 respectivamente). Después de buscar durante años la cau­
sa y probar soluciones infructuosamente, en 1847 Semmelweis, uno de los médicos de la
División Primera, realizó una nueva conjetura al observar que un colega había muerto con
síntomas parecidos tras cortarse con un bisturí usado para realizar una autopsia de una
embarazada: las muertes podían deberse a la irrupción de “materia cadavérica” (infeccio­
sa) en la sangre. Las diferencias se deberían a que a menudo él, sus colegas y sus alumnos
intervenían a las mujeres de la División Primera inmediatamente después de realizar au­
topsias, mientras que en la División Segunda eran atendidas mayoritariamente por coma­
dronas. Ellos eran los transmisores de la materia infecciosa. Si ésa era la causa, deberían
desaparecer las diferencias entre ambas divisiones, e incluso bajar algo el nivel de la Se­
gunda, si se desinfectaban antes de intervenir (y ningún factor extraño anulaba el poder
desinfectante de la sal). Ordenó que todo el personal se lavara con sal clorada, un fuerte
desinfectante, antes de atender a las pacientes. En 1848 la mortandad fue de 1,27 % en la
División Primera y de 1,33 % en la Segunda.

1 .1 0 . N e PTUNO Y V U L C A N O

Durante los siglos x v ill y XIX la dinámica newtoniana, con su teoría de la gravita­
ción, se había aplicado desde sus inicios con notable éxito a la astronomía, aunque presentaba
también algunas anomalías importantes. Uno de los principales problemas a mediados del si­
glo XIX era el de la órbita de Urano, que difería de los valores previstos por la teoría bastante
más de lo que eventuales errores de medida podían explicar. La mecánica celeste estaba bas­
tante bien contrastada, de modo que tenía que haber una solución acorde con la teoría. Algu­
nos astrónomos (Adams y Leverrier) conjeturaron que las anomalías en la órbita de Urano
podían deberse a la presencia en sus alrededores de un astro de gran tamaño hasta entonces
desconocido. Aplicando las leyes de la mecánica celeste a los datos de la órbita de Urano,
calcularon cuál debía ser la órbita aproximada del supuesto astro. En 1846 Leverrier descu­
brió el nuevo planeta, Neptuno, en una posición y momento acordes con la órbita prevista.
Bajo la influencia del notable éxito obtenido en el caso de la órbita anómala de
Urano y el descubrimiento de Neptuno, los astrónomos aplicaron el mismo expediente a
68 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

otra anomalía recalcitrante, la órbita del planeta más interno, Mercurio. Las anomalías se­
rían explicables si existiera otro planeta entre Mercurio y el Sol. Leverrier calculó de nue­
vo la supuesta órbita del nuevo planeta, al que llamó ‘Vulcano’, pero ni él, ni nadie des­
pués de él, lo ha descubierto.

1 .1 1 . L a s t e o r ía s d e l a l u z

Desde los orígenes de la revolución científica, la naturaleza de la luz ha sido motivo


de fuerte controversia. A finales del siglo xvn se establecen dos teorías de la luz rivales.
Una, la teoría corpuscular defendida por Newton, sostiene que los haces de luz están for­
mados por “corpúsculos”, pequeñas partículas luminosas. Otra, la teoría ondulatoria inicia­
da por Huygens, considera a la luz un fenómeno ondulatorio análogo al sonido, esto es,
perturbaciones en un medio que se transmiten como ondas. Algunos fenómenos eran expli­
cados igual de bien por ambas (reflexión, refracción), de los restantes, unos los explicaba
de forma más natural la teoría corpuscular (polarización) y otros la ondulatoria (superposi­
ción, difracción). Durante el siglo XVIII, y bajo la influencia de la estela de Newton, se im­
puso en general la teoría corpuscular, pero a principios del siglo XIX la teoría ondulatoria
recibió nuevo impulso de la mano de Young y Fresnel. Las espadas se mantuvieron en alto
hasta mediados de siglo. Según la teoría corpuscular de la luz (y dadas las leyes mecánicas
generales), la velocidad de la luz debe ser mayor en vidrio o agua que en aire; de acuerdo
con la hipótesis ondulatoria (y las leyes de la teoría ondulatoria general), ocurre justo lo
contrario. Cuando en 1850 Foucault realizó la prueba comparando las velocidades en el
aire y en el agua, resultó ser mayor en el aire, y aproximadamente en la cantidad predicha
por la teoría ondulatoria. A partir de entonces se impuso casi unánimemente el modelo on­
dulatorio de la luz, reforzado por su congruencia con los trabajos posteriores de Maxwell
sobre electromagnetismo. Esta dominancia se quiebra a principios del siglo XX, cuando se
descubren nuevos fenómenos aparentemente explicables sólo en términos corpusculares.

1 ,1 2 . E l é t e r y l o s e x p e r im e n t o s d e M ic h e l s o n y M orley

A finales del siglo xix, la teoría ondulatoria concebía la luz como una vibración
transversal en un medio universal, el éter , que tenía dos características fundamentales: de­
bía ser penetrable por la materia y estacionario. De existir, el éter constituye entonces un
sistema de referencia a b so lu to respecto del cual medir el movimiento “real” de los cuer­
pos. En 1881, siguiendo una sugerencia teórica de Maxwell (quien no obstante la consi­
deraba irrealizable prácticamente), Michelson diseña y realiza un experimento destinado a
medir la velocidad absoluta de la Tierra. El aparato consta (aproximadamente) de un emi­
sor de luz hacia dos espejos a igual distancia y que forman con él un ángulo recto. Si el
éter es el medio permeable estacionario en el que se propaga la luz con velocidad finita,
el tiempo de ida y regreso de un rayo de luz lanzado en dirección del movimiento de la
Tierra debe ser diferente que el del otro perpendicular. La diferencia de tiempos debe mani-
CONTRASTACIÓN DE HIPÓTESIS 69

testarse (de un modo que no podemos explicar ahora) en un desplazamiento de las bandas
de interferencia al rotar el sistema de espejos, montado sobre un flotador de mercurio para
evitar distorsiones; a partir de este desplazamiento se calcula la velocidad de la fuente de
emisión. Éste es el informe de Michelson: “No hay desplazamiento de las bandas de in­
terferencia. La consecuencia de la hipótesis de un éter estacionario se muestra incorrecta,
y la conclusión que necesariamente sigue es que la hipótesis es errónea” (Michelson,
1881, p. 128). En colaboración con Morley, Michelson repitió el experimento tres veces
en los años siguientes con igual resultado. Algunos, sin embargo, lo interpretaron de otro
modo. Incluso si hay éter, puede obtenerse ese resultado si los aparatos se “contraen” en
la dirección del movimiento. Ésta es la tesis de la contracción de Lorentz y Fitzgerald.

1.13. E l ADN

Hasta los años cincuenta, el ADN se concebía como una cadena de nucleótidos,
compuestos cada uno de tres moléculas (azúcar, base y fosfato). El primer modelo de
1952 que Watson y Crick conjeturaron para la estructura del ADN era de triple hélice. De
la estructura y composición, junto con ciertas propiedades y leyes químicas conocidas, se
podía inferir la cantidad de agua contenida en determinadas muestras del ácido. Las medi­
das experimentales daban sin embargo como resultado cantidades diez veces mayores,
motivo por el que abandonaron su primer modelo. Cuando propusieron en 1953 el mo­
delo de doble hélice, consideraron una ventaja del mismo que las cantidades de agua pre­
dichas con el nuevo modelo coincidieran con las medidas experimentales, pero no la
tomaron como definitiva pues sabían que se podían obtener las mismas predicciones in­
troduciendo diversas complicaciones en el modelo de triple hélice simple anterior. Lo que
sí consideraron definitivo fue el dato proveniente de las fotografías con rayos X. El mo­
delo de doble hélice predecía unas imágenes en rayos X específicas muy improbables si
el ADN fuese otro tipo de cadena. Esa imagen era justamente la que R. Franklin había ob­
tenido en sus fotografías un año antes.

1 .1 4 . L a e x t in c ió n d e l o s d in o s a u r io s

Hay acuerdo generalizado acerca de que los dinosaurios se extinguieron hace 65


millones de años por los efectos de un calentamiento global extremadamente fuerte de la
corteza terrestre. Pero hay un considerable desacuerdo sobre el origen de dicho calenta­
miento. Dos son las hipótesis rivales. Según una de ellas, el calentamiento fue producto
del impacto contra la Tierra de un enorme meteorito, o cometa, que liberó una cantidad de
energía 6.000 millones de veces la bomba atómica de Hiroshima. Según la otra, fue el re­
sultado de un período de numerosas, intensas y extraordinariamente fuertes erupciones
volcánicas. Ambas teorías predicen una presencia generalizada, en los estratos sedimenta­
rios de aquella era en diversos lugares de la corteza terrestre, de partículas de cuarzo frac­
turadas. En el primer caso, por efecto de la colisión y de la onda expansiva; en el según-
70 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

do, por el efecto combinado de las erupciones y las altas presiones. Sin embargo, el tipo
de fractura predicho no es exactamente igual, la fractura por impacto tiene unos patrones
específicos muy improbables si se ha producido de otro modo. Los datos geológicos más
recientes, correspondientes a muy diferentes lugares de la corteza, coinciden en que el
tipo de fractura de las partículas de cuarzo presente en los sedimentos es el predicho por
la hipótesis del impacto;

1 .1 5 . D e r iv a c o n t in e n t a l

Hasta los años sesenta, había dos hipótesis rivales en pugna sobre el origen de los
continentes. La primera, surgida a finales del siglo pasado y ligeramente dominante en­
tonces, es la teoría contracción!sta: la corteza estaba originalmente en estado líquido debi­
do a las altas temperaturas y por efecto del enfriamiento se solidifica, se contrae y se “res­
quebraja” dando lugar a las formas actuales de los continentes (que por tanto nunca se
han “movido”). La explicación alternativa, desarrollada por Wegener hacia 1915, es la
teoría de la deriva continental: la primera masa sólida era al principio única (Pangea) y
tras la fractura los trozos resultantes se desplazan horizontalmente; los continentes actua­
les no han tenido siempre la misma forma, y de hecho siguen en movimiento. Los princi­
pales indicios favorables a la deriva eran la complementan edad de muchas costas conti­
nentales, la presencia de registro fósil común en África y Sudamérica, y la presencia de
jóvenes cadenas montañosas a lo largo de la costa oeste americana. Sin embargo, la teoría
contraccionista tenía sus propias explicaciones de estos hechos. La principal dificultad
con la deriva radicaba en la aparente ausencia de fuerzas horizontales. Esta dificul­
tad queda subsanada por la teoría de las convecciones propuesta por Hess en los sesenta:
en el interior del planeta hay corrientes geológicas de convección, como en un líquido
hirviendo. Esta nueva versión de la teoría de la deriva predice la presencia de ciertos pa­
trones magnéticos específicos en los sedimentos de los fondos marinos, extremadamente
improbables y sorprendentes para los contraccionistas. Los datos sobre el magnetismo re­
cogidos a mediados de los sesenta coinciden plenamente con los anunciados por la teoría
de la deriva, que después de ello fue inmediata y generalmente aceptada por la comunidad
científica.

1 .1 6 . L a r e l a t iv id a d g e n e r a l

Una de las afirmaciones más sorprendentes, para la visión clásica, de la teoría


gravitatoria relativista es que la luz no viaja en línea recta en el sentido usual. En las
proximidades de una masa, los rayos de luz se curvan por los efectos gravitatorios. Una
consecuencia de ello es la siguiente: si entre la Tierra y un emisor puntual de luz se en­
cuentra un cuerpo de gran masa alineado con los anteriores, desde la Tierra el punto
emisor se observa en forma de anillo luminoso (e.e. la sección del cono convergente
formado por los rayos curvados al pasar cerca de la gran masa). Ésta es una de las pre-
CONTRASTACIÓN DE HIPÓTESIS 71

dicciones más extrañas de la teoría, y completamente improbable sin ella. Recientemen­


te se ha observado en un telescopio de radio un fenómeno con esa apariencia. Tras suce­
sivas pruebas, los investigadores han descartado que la imagen sea resultado de interfe­
rencias o producto de una fuente directa de esas características (p.e. los restos de una
supernova). Parece una de las confirmaciones más impresionantes de las teorías
de Einstein.

2. Elem entos de la contrastación

Esta larga serie de episodios históricos responden a un patrón de contrastación co­


mún. Empezaremos viendo aquí cuáles son los elementos involucrados en este tipo de
episodios. El lector debe tratar de identificar estos elementos en los ejemplos históricos
que dejemos sin comentar.

2 .1 . H ip ó t e s is ( H ) y S upuestos A u x il ia r e s ( S A )

La hipótesis es la afirmación que se somete a prueba, postulada para dar cuenta


de determinado fenómeno y acerca de la cual buscamos evidencia a favor o en contra. Ya
hemos indicado que no vamos a detenernos ahora en la estructura fina de las hipótesis.
Como muestran los ejemplos, las hipótesis pueden ser muy variadas: teorías enteras com­
plejas, como en los casos de las fases de Venus, el flogisto, las teorías de la luz o la deriva
continental; o partes centrales de teorías, como en el caso del anillo de Einstein o el del
éter; o leyes más o menos específicas, como la de la presión atmosférica; o incluso hipó­
tesis concretas relativamente aisladas, como en el episodio de la fiebre puerperal.
Es importante señalar que no siempre está claro cuál es la hipótesis que explícita­
mente se somete a prueba. Por ejemplo, en los casos del cometa Halley y de Neptuno, paj
rece que las hipótesis enjuego son, respectivamente, que el cometa tiene órbita elíptica y
no parabólica, y que existe un nuevo planeta con determinada órbita. Pero el éxito se ex­
tendió a la mecánica celeste en su totalidad, que de algún modo también se consideraba
en juego. Esto nos conduce al siguiente elemento de la contrastación.
La hipótesis central sometida a prueba no basta en general para derivar una pre­
dicción contrastadora. En el caso del paralaje, la observación del mismo no se sigue sólo
de la teoría heliocéntrica, hace falta suponer además que la distancia de la Tierra a la esfe­
ra de las estrellas fijas no es despreciable, a efectos observacionales, comparada con el
diámetro de giro. En su estudio del cometa, Halley supone que las perturbaciones debidas
a Júpiter son despreciables. En el caso de la fiebre puerperal, el supuesto adicional es que
la sal clorada elimina los agentes infecciosos. En el experimento de Michelson, se supo­
nen ciertos hechos aceptados sobre la relación entre velocidad de transmisión y bandas de
interferencia, además de (muy implícitamente) que los materiales no se contraen con el
movimiento. Junto con supuestos específicos como éstos, las contrastaciones incluyen
frecuentemente otros supuestos auxiliares muy generales del tipo “ningún factor extraño
72 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

desconocido afecta el proceso”. Por ejemplo, en el caso de la fiebre puerperal se supone


que ningún agente extraño anula el poder desinfectante de la sal clorada, o en el del co­
meta Halley se supone que la trayectoria no es afectada significativamente por otros cuer­
pos celestes desconocidos. En general, la contrastación suele presuponer cláusulas como
“si nada extraño se produce”. La suposición de Michelson (si realmente era tan implícita)
de que no se produce contracción podría colocarse en este cajón de sastre. Pero hay que
tener cuidado con este tipo de cláusulas pues, como veremos, por su vaguedad y generali­
dad son susceptibles de usos perversos.
No siempre es fácil distinguir entre hipótesis y supuestos auxiliares. Éste es el mo­
tivo de la relativa indefinición de la hipótesis en algunos casos. En el caso de Halley, una
parte clara de la hipótesis es que el cometa es de órbita elíptica, y un supuesto claramente
auxiliar es que las perturbaciones debidas a los otros astros conocidos son despreciables.
Pero no está claro si el conjunto de las leyes de la mecánica celeste con cuya ayuda se
realiza la predicción forma parte de la hipótesis o más bien de los supuestos auxiliares. A
juzgar por la lección extraída del nuevo paso del cometa, parece que también estaba en
juego la teoría general. Pero no hay límites claros. El caso de Neptuno se parece al del co­
meta Halley, por lo que tomaríamos la mecánica newtoniana como parte de la hipótesis,
pero el episodio de Vulcano muestra que en esos casos no se ponía a prueba la teoría con
cuya ayuda se hace la predicción, pues la no observación de Vulcano se consideró eviden­
cia contraria sólo contra su existencia, no contra la teoría newtoniana. En general, la dife­
rencia entre hipótesis y supuestos adicionales específicos (leyes o teorías complementa­
rias) es vaga, contextual y fuertemente pragmática. Qué sea la hipótesis se deriva de las
intenciones presentes en el contexto de la contrastación: la hipótesis es aquella afirmación
(o conjunto de afirmaciones) para evaluar la cual se ha tenido la intención de realizar la
contrastación. Por tanto, lo que son hipótesis y supuestos auxiliares en un contexto pue­
den invertir su papel en otro. Pero la vaguedad y la dependencia del contexto no elimina
la distinción. El lector debe ir acostumbrándose a que va a ser así en la mayoría de distin­
ciones que seguramente considera nítidas, y también a que ello no disminuye un ápice su
interés filosófico, simplemente hace las cosas más difíciles.

2.2. P r e d ic c ió n (P) y C o n d ic io n e s I n ic ia l e s (Cf)

La predicción constituye la “piedra de toque” de la contrastación. Debe ser una afir­


mación empírica constatable experimentalmente de modo más o menos “inmediato”. Aun­
que sea una trivialidad, hay que insistir en la necesidad de que se realice una predicción si
lo que queremos es contrastar, y no meramente afirmar, una hipótesis; por ejemplo, algu­
nas personas sostienen la hipótesis de las visitas extraterrestres para dar cuenta de ciertos
restos arqueológicos, pero no hacen la menor predicción constatable. Por otro lado, la con­
dición de inm ediatez de la constatación experimental es, aunque vaga, importante para dife­
renciar la predicción de la hipótesis, pues en cierto sentido la hipótesis es ya ella misma
constatable empíricamente, a saber, m ediatam ente , a través de la predicción.
Se puede caracterizar la predicción de dos modos. Uno la presenta en forma de
CONTRASTACIÓN DE HIPÓTESIS 73

im plicación contrastadora (/) (cf. p.ej. Hempel, op. cit.). En esta caracterización, la pre­
dicción es una afirmación condicional del tipo “en tales y cuales circunstancias empíricas
específicas se observará tal fenómeno”. Por ejemplo: “al lavarse el personal las manos
con sal clorada, se producirá antes de seis meses un descenso significativo de la mortan­
dad”; “según los datos registrados en 1530, 1606 y 1682, el cometa aparecerá en determi­
nada región del cielo a finales de diciembre de 1758”; “haciendo rotar el sistema de espe­
jos de cierto modo, se observarán desplazamientos en las bandas de interferencia”; etc. El
otro modo de presentar las cosas consiste en separar el antecedente y el consecuente de la
anterior implicación contrastadora distinguiendo a) la p red icció n propiamente dicha (P),
esto es, el hecho simple que se espera observar, de b) las condiciones iniciales (C l ), los
hechos-condiciones particulares antecedentes que deben darse para que se dé lo predicho.
Ambas caracterizaciones son equivalentes, l equivale a C I->P. Por ejemplo, en el caso de
la fiebre puerperal, las condiciones iniciales (más destacadas) son que el personal se lava
las manos con sal clorada, y la predicción propiamente dicha es que se producirá un des­
censo significativo de la mortandad; en el caso del cometa Halley C í son los datos obser­
vados en los años 1530, 1606 y 1682, y P es que aparecerá un cometa a finales de diciem­
bre de 1758. Como hemos dicho, estos dos modos de presentar las cosas son equivalen­
tes, su diferencia es sólo cuestión de matiz o énfasis. Al decir que la predicción es una
implicación contrastadora estamos enfatizando el hecho de que lo que la hipótesis predice
por sí sola (junto con SA) es un estado de cosas condicional. Aquí, sin embargo, vamos a
seguir por lo general la segunda opción puesto que esquematiza de forma más transparen­
te la complejidad de la implicación contrastadora; cuanto más atómicamente puedan ca­
racterizarse los elementos de la con tras tación, tanto mejor.
La predicción se describe casi siempre como un hecho particular, como sucede por
ejemplo en los casos del cometa Halley, de Neptuno o de la fiebre puerperal. A veces, sin
embargo, en algunos episodios la predicción se describe en términos generales. Por ejem­
plo, “las imágenes fotográficas de ADN tienen tal patrón” o “los restos más las cenizas de
un combustible inflamado pesan menos que la pieza original”. Es inmediato ver que estas
primeras versiones generales de la predicción implican (un número ilimitado de) otras pre­
dicciones particulares que son las que se constatan empíricamente. De todos modos, en
ocasiones es relevante que la predicción sea general, en cuyo caso es especialmente necesa­
rio repetir la contrastación varias veces, siendo un supuesto auxiliar que nada incontrolado
produce la coincidencia de resultados (cf. el caso del anillo de Einstein).

2 .3 . D a t o s , e x p e r im e n t a c ió n y o b s e r v a c ió n

La predicción es un hecho posible, y detectable si efectivamente ocurre. Los datos


son los hechos efectivamente detectados en el momento de la contrastación, cuya coinci­
dencia o no con la predicción constituye la evidencia positiva o negativa para la hipótesis.
En el caso de Arquímedes, el hecho observado es el movimiento del barco; en el caso del
paralaje, la coincidencia en las formas aparentes de las constelaciones observadas con seis
meses de diferencia; en el caso de Neptuno, la presencia de un cuerpo en determinado lu­
74 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

gar en determinado momento; en ei de Vulcano, la ausencia de un cuerpo tal; etc. Una


condición esencial que han de satisfacer los datos es que los procedimientos para su reco­
gida o detección no presupongan la verdad o la falsedad de la hipótesis, en caso contrario
estaríamos ante estrategias autoconfirmadoras o autorrefutadoras. Normalmente el proce­
so de recogida de datos es muy complejo y, si no se va con cuidado, a veces se puede in­
cumplir esta condición. Este riesgo es mayor en los casos de experimentos complicados,
pero también está presente en la observación directa. Como veremos en otros lugares
(caps. 8 a 11), es esencial que el análisis de la estructura de las teorías y de su base de
contrastación recoja esta condición.
Los datos se detectan mediante la observación. La observación está vinculada casi
siem pre a la realización de un experimento, en cuyo caso parte al menos de las condicio­
nes iniciales las constituyen las condiciones de realización del experimento. Pero a veces
se observa sin experimentar en sentido estricto. En ese caso se espera que las condiciones
iniciales se produzcan espontáneamente comprobando luego si se da o no también la pre­
dicción. Esto ocurre cuando algunos de los factores intervinientes no son, por diferentes
motivos, accesibles o manipulables. El motivo más inmediato es la imposibilidad física o
tecnológica. No podemos coger el cometa y moverlo de aquí para allá a discreción para
contrastar nuestras predicciones. Halley tuvo que morir sin ver confirmada su hipótesis
porque sólo le cabía esperar a 1758 para realizar la observación. Éste es el tipo de limita­
ciones al que se refiere Hempel cuando habla de contrastaciones no experimentales
(cf. 1966a, §3.1). Pero muchas veces la imposibilidad no es tecnológica sino “moral”. Esto
ocurre cuando la realización de un experimento es técnicamente posible pero involucra la
manipulación de personas u otras entidades de modos que se consideran inaceptables según
los valores de la comunidad. Los casos paradigmáticos corresponden a algunas ciencias so­
ciales y a la investigación biomédica. La contrastación del doctor Semmelweis podía haber
tenido fácilmente un carácter experimental más riguroso, por ejemplo si hubiera mantenido
como grupo de control a un grupo de pacientes de la División Primera tratadas con personal
sin desinfectarse para ver si continuaban muriendo a igual ritmo. Pero es obvio que este
tipo de mejora experimental es considerado moralmente inaceptable.
La distinción entre “simple observación” y “observación con experimento” es otra
de las que no se pueden considerar radicales. Entre los casos de Halley, que aprovecha
condiciones que ocurren espontáneamente, y de Michelson, que involucra un complejo
experimento, hay ciertamente una gran diferencia, pero entre medio hay muchos otros
que no están tan claros. Un ejemplo es el mismo caso del doctor Semmelweis, pues en
cierto sentido muchos afirmarían que sí hizo un “experimento” (quizá técnicamente mejo-
rable) en la acepción coloquial del término. O incluso el de Halley, pues aunque no mani­
pulara el cometa mismo la contrastación incluye muchos aspectos experimentales com­
plejos que suponen la manipulación de ciertos aparatos, muestras, etc. La distinción en
cuestión es por tanto gradual, y cuanto más experimental es una observación más parecen
ser los supuestos teóricos auxiliares que intervienen en la contrastación. Sobre estos te­
mas, la posibilidad o no de observación pura y sus consecuencias epistemológicas, entre
ellas el riesgo de caer en estrategias autojustificadoras, volveremos más adelante en los
capítulos dedicados a la estructura de las teorías y al problema de la inducción.
C0NTRASTAC1ÓN DE HIPÓTESIS 75

3. Condiciones para la contrastación

En la presentación de los diversos elementos involucrados en la contrastación he­


mos mencionado de pasada algunas relaciones entre ellos. Vamos a explicitar ahora en
detalle qué relaciones deben mantener para que se den las condiciones apropiadas para
una buena contrastación. Las condiciones en cuestión se refieren a los dos resultados po­
sibles que pueden proporcionar los datos, esto es, que la predicción ocurra o que no ocu­
rra. Como veremos, la relación entre los diversos elementos en ambos casos es de dife­
rente tipo.

3.1. C o n d ic ió n r e l a t iv a a l a o c u r r e n c ia d e l a p r e d ic c ió n

En este primer caso la condición es que la predicción debe ser un estado de cosas
cuya ocurrencia es implicada por los restantes elementos 77, SA y C7:

C1 H y S A y C I implican (conjuntamente) P.

(En la versión de Hempel la condición es “77 y SA implican 7”, pero puesto que la impli­
cación contrastadora 7 de Hempel es en realidad “si C I entonces F \ su condición es lógi­
camente equivalente a C l.) Así, por ejemplo, en el caso del cometa Halley, CI tiene la si­
guiente forma: “Si el cuerpo celeste en cuestión es un cometa de trayectoria elíptica, las
leyes de la mecánica celeste de Newton son correctas, y las posiciones del cuerpo celeste
en 1530, 1606 y 1682 son tales y cuales (y además no hay distorsiones en su trayectoria
producidas por motivos desconocidos), de todo ello se sigue que el cuerpo reaparecerá en
nuestro cielo visible a finales de diciembre de 1758.”
¿Qué estatuto lógico debe tener Cl para que sea una buena condición de contras­
tación? Es absolutamente esencial darse cuenta de que la implicación contenida en Cl no
puede consistir meramente en una implicación (un condicional) material. La implicación
en cuestión debe ser una implicación lógica, Cl debe ser lógicam ente verdadero. La pre­
dicción no debe ser simplemente el consecuente de un condicional material verdadero
cuyo antecedente es H a S A a CI. El condicional en cuestión debe ser una verdad lógica,
esto es, P debe d educirse de la conyunción de 77, SA y CI. En el ejemplo dado, la apari­
ción de un astro en el firmamento en la fecha indicada se infiere mediante un proceso de­
ductivo a partir de la hipótesis de la órbita elipsoidal de los cometas, de las leyes de New­
ton y de las posiciones iniciales (y suponiendo que no intervienen factores extraños).
Quizá se piense que este matiz no es importante para la caracterización de los pro­
cesos de contrastación, que en la metodología de la contrastación es suficiente que Cl ex­
prese simplemente un condicional material verdadero. Pero no es así. Si no se precisa este
punto, la referencia explícita a algunos supuestos auxiliares sería superflua y, con ello, la
identificación de los elementos involucrados en la contrastación sería incompleta. Si bas­
tara que Cl expresara un condicional material verdadero, para que se satisficiera Cl
bastaría, por ejemplo, que fuese verdadera P , o que fuese falsa 77, en cuyo caso SA y C I
76 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

podrían ser cualquier cosa, o simplemente “no estar”. Por tanto, enfatizar que C1 no ex­
presa un condicional materialmente verdadero sino lógicamente verdadero es enfatizar la
necesidad de recoger en los supuestos auxiliares todas las hipótesis adicionales necesarias
para inferir deductiva m en te la predicción, y lo mismo respecto de las condiciones inicia­
les. Por otro lado, debe notarse que atendiendo a esta caracterización, C1 es extremada­
mente sencilla de comprobar. Sólo hace falta saber si hemos deducido correctamente la
predicción de los restantes elementos. Así es como se procede en los casos históricos.
Otra característica que debe tener C1 para ser una condición adecuada de contrasta-
ción es que H , SA y C l ocurran esencialm ente. Esto significa que P se deduce de todos
ellos tomados conjuntamente pero de ninguno de ellos por separado, ni siquiera de dos
de ellos. Los tres elementos del antecedente, no sólo la hipótesis principal, han de ser esen­
ciales en la derivación de la predicción. Algunos autores añaden la exigencia de que la hi­
pótesis en juego explique el hecho predicho. No vamos a incluir ni comentar ahora esta exi­
gencia. La relación entre hipótesis, explicación y deducción será estudiada en el capítulo 7.

3 .2 . C o n d ic ió n r e l a t iv a a l a n o o c u r r e n c ia d e l a p r e d ic c ió n

C l no es suficiente para una contrastación completamente satisfactoria. Si sólo te­


nemos en cuenta las condiciones establecidas en ese caso para la ocurrencia de la predic­
ción, los resultados pueden ser muy limitados. La cuestión es la siguiente. Una hipótesis
puede por supuesto predecir hechos que también son predichos por otras hipótesis dife­
rentes, nada malo hay en ello, al contrario. Ése no es el problema; el problema no es que
una hipótesis prediga hechos que también predicen otras hipótesis alternativas, sino usar
esa clase de hechos como predicciones para realizar la contrastación. No es adecuado in­
tentar contrastar una hipótesis mediante predicciones que comparte con otras hipótesis di­
ferentes. En esas condiciones la contrastación es (parcialmente) insatisfactoria. Para una
contrastación plenamente satisfactoria la predicción debe estar “especialmente ligada” a
la hipótesis que se contrasta. La cuestión es cómo precisar esta segunda condición.
La condición no puede consistir en que de la falsedad de la hipótesis se deduzca,
dados 5!A y C l, la no ocurrencia de la predicción: (1) “no H y SA y C l implican (deduc­
tivamente) no P". (1) es equivalente a (2) “si SA entonces: no -H implica que en condi­
ciones C l no ocurre P ”, esto es, de los supuestos auxiliares se infiere que ninguna otra
hipótesis, conocida o d esco n o cid a , predice lo mismo que H . Esta afirmación es extrema­
damente fuerte y difícilmente aceptable; supuestos auxiliares de este calibre no pueden
permitirse en el proceso de contrastación. Sin embargo, algo aparentemente próximo,
pero en realidad mucho más débil y de naturaleza totalmente distinta, sí parece que esta­
mos dispuestos a aceptar al contrastar una hipótesis (aunque la naturaleza de esa acepta­
ción es extremadamente difícil de precisar).
La clave la dan algunos pasajes de los relatos de los episodios históricos. Se trata
de afirmaciones del tipo: “pero tales patrones de magnetismo en los sedimentos submari­
nos serían muy improbables de otro modo”; “no es esperable ese tipo de fracturas en el
cuarzo por otros motivos”; “la imagen anular en el ordenador del telescopio de radio era
CONTRASTACÍÓN DE HIPÓTESIS 77

inesperada”. La condición en cuestión, implícita en estos pasajes, es que la predicción es


muy improbable o inesperada de no ser por la hipótesis, esto es, que si la hipótesis no fue­
se correcta la predicción sería muy improbable o inesperada. Podemos expresar esta con­
dición, exigida explícitamente por diversos autores (cf. p.ej. Popper, 1935-1958, apéndice
*IX y 1963, apéndice §2; Salmón, 1966, p. 265 y Giere, 1979, cap. 6, 3 y 1991, cap. 2,
§8), del siguiente modo:

C2 Si no-// y SA y C/, entonces muy probablemente no-P.

No hay duda de que algo así se supone en los casos de contrastación, el problema
es dar una interpretación satisfactoria de ello, determinar el estatuto exacto de la implica­
ción involucrada en C2. Aquí haremos sólo unos comentarios generales y dejaremos la
cuestión como un problema parcialmente abierto que se retomará en el contexto del pro­
blema de la inducción (cap. 12).
En primer lugar, en este caso no se puede tratar de que la alta probabilidad de
no-P se deduce de no-//, SA y CI. Esto supondría que mediante //, SA y C I estamos ha­
ciendo afirmaciones sobre lo que predicen o dejan de predecir otras hipótesis, conocidas o
desconocidas. Puesto que H claramente no hace eso, y C I tampoco, sólo podría hacerlo
SA. Por tanto, considerar que C2 expresa una inferencia deductiva es tanto como aceptar
que entre los supuestos auxiliares se incluyan afirmaciones como “es muy probable que
sólo H prediga que dadas C I ocurre P ”. Pero ello parece excesivo. Una cosa es que entre
los supuestos auxiliares incluyamos afirmaciones vagas y extraordinariamente generales
como “ningún cuerpo celeste desconocido afectará en estos años la órbita del cometa sig­
nificativamente”, o “ningún agente desconocido contrarrestará el efecto desinfectante de
la sal clorada”. Otra cosa es que aceptemos entre los supuestos la afirmación de que muy
probablemente la predicción sólo se sigue de nuestra hipótesis. Eso es efectivamente un
“supuesto” en la contrastación, por eso se recoge como segunda condición, pero ello no
significa que sea una hipótesis auxiliar comparable al uso de leyes complementarias o in­
cluso a las condiciones extraordinariamente generales sobre la ausencia de perturbaciones
desconocidas. Parece una expectativa de otro tipo, no asimilable a los supuestos auxilia­
res. Por tanto, si la improbabilidad de la predicción en caso de falsedad de la hipótesis no
se puede considerar un supuesto auxiliar, la improbabilidad de la predicción no se infiere
deductivamente de no-//, SA y CI.
Otra posibilidad sería que C2 exprese una inferencia lógico-inductiva. Esto es,
que el “probablemente” pertenezca al condicional y que éste exprese entonces una infe­
rencia inductiva: la no ocurrencia de la predicción se infiere inductivamente de la false­
dad de la hipótesis, más SA y CI. Pero esto tampoco puede ser. Eso significaría que antes
de la contrastación, como con d ició n para someter a prueba la hipótesis, presuponemos la
validez del siguiente argumento inductivo:

no H
SA y C I
no P
78 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

A pesar de que las intuiciones sobre lógica inductiva son débiles, los episodios
históricos no presentan indicios para considerar que an tes de que la contrastación tenga
lugar se haya realizado ya algún tipo de argumento inductivo. Con C1 es diferente, pues
en los episodios históricos claramente se nos informa de que se ha calculado, inferido o
deducido cierto hecho a partir de la hipótesis, junto con SA y CI\ en la “preparación” de la
contrastación sí se realizan ciertas inferencias deductivas, recogidas en C l. Pero nada in­
dica que en la preparación de la contrastación se realice tal inferencia inductiva. Así pues,
C2 no expresa tampoco una inferencia inductiva. Por otro lado, nótese que, según qué ló­
gica inductiva usemos, si C2 expresara dicho argumento inductivo, podríamos estar ante
una especie de petición de principio. Si en la lógica inductiva vale la contraposición, en­
tonces ese argumento equivale a este otro:

P
SA y C l

Pero, como veremos, éste es justamente (parte de) el argumento para la confirmación de hipó­
tesis, que es inductivam ente inválido a m enos que incluyamos C2 com o prem isa adicional.
Si la condición C2 para la contrastación no expresa ni una inferencia deductiva ni
una inductiva, entonces debe tomarse como un enunciado probabilista condicional sim­
plemente verdadero. La dificultad ahora con C2, en tanto que enunciado probabilista que
se pretende que es simplemente verdadero, es cómo se comprueba su cumplimiento. Vi­
mos que C l es muy sencillo de comprobar, pues expresa una inferencia deductiva, y sa­
bemos muy bien cómo comprobar esas cosas. Si C2 expresara una inferencia inductiva,
aunque resultaría muy complicado tendríamos al menos una idea de en qué consistiría su
comprobación: consistiría en lo que la lógica inductiva (de haberla) dijera. Pero ¿cómo
comprobar C2 en tanto que mera verdad material? En algunos casos es fácil comprobar
que es falsa: cuando se conoce al menos otra hipótesis H ' incompatible con H y de la cual
también se infiere P. Por ejemplo, en el caso de las fases de Venus, la ocurrencia de este
fenómeno se deriva tanto del sistema heliocéntrico de Copémico como del sistema mixto
de Tycho. Por tanto es fácil saber en algunos casos, como éste, que la condición no se
cumple. Pero, ¿cuándo podemos establecer que se cumple? ¿Es suficiente simplemente
que se desconozca la existencia de otras hipótesis incompatibles con H pero con las mis­
mas predicciones para considerar bien fundada C2?
La respuesta a esta cuestión depende de elementos pragmáticos muy difíciles de
precisar. Pero no hay duda de que en algunos casos la aceptación de C2 es razonable, en
especial cuando la predicción es un hecho completamente inesperado hasta entonces, que
nadie había pensado que ocurriera. Por ejemplo, el anillo de Einstein, los patrones magné­
ticos de Hess, o la misma reaparición del cometa Halley. ¿A quién se le podría haber ocu­
rrido que a finales de 1758 aparecería un cometa en determinada región del cielo visible?
Y sin embargo, ni siquiera en esos casos parece haber garantías plenas de que se cumple
C2. Por ejemplo, se puede predecir la misma aparición conjeturando la existencia de una
serie específica de diferentes cometas parabólicos (resultado quizá de la desintegración de
CONTRASTACIÓN DE HIPÓTESIS 79

cierto astro). Se dirá que eso no es jugar limpio, a p o sterio ri siempre es posible idear hi­
pótesis diferentes que predigan lo mismo; la gracia es hacerlo “el primero”. Bien, en parte
es cierto que es un expediente en principio ilegítimo, semejante al de las hipótesis a d hoc
que comentaremos más adelante. Pero eso no elimina el hecho de que, estrictamente ha­
blando, y si C2 se considera relativa a cualquier hipótesis alternativa p o sib le , entonces C2
es falsa en ese caso, aunque hayamos creído justificadamente en ella.
El problema radica en que no es razonable considerar que para determinar el
cumplimiento o no de C2 debemos tomar en consideración c u a lq u ier h ip ó tesis a lte rn a ­
tiva p o s ib le . C2 se ha de considerar relativa sólo a hipótesis alternativas q u e está n en
ju e g o en el co n texto en el que se rea liza la co n tra sta ció n . Esto es, hipótesis alternativas
presentes (o “fácilmente concebibles”) y “aceptables como alternativas” dados los pre­
supuestos del contexto (esto es, no demasiado extravagantes, ni claramente contradicto­
rias con otras hipótesis muy bien asentadas, etc.). Lo que dice C2, intuitivamente, es
que dado el conocimiento y las propuestas presentes en ese contexto específico, nada
hace esperable que ocurra P a menos que H sea cierta; e.e. no hay hipótesis alternativas
tomadas en consideración en ese contexto que también predigan P. Ello hace que las
condiciones de aceptación de C2 sean relativamente vagas y fuertemente dependientes
del contexto y de sus presupuestos teóricos. Esto conduce de lleno a cuestiones filosófi­
cas sustantivas sobre los presupuestos teóricos involucrados en los procedimientos de
contrastación; puesto que la finalidad en este capítulo es puramente metodológica, no
vamos a ocuparnos aquí de estos problemas epistemológicos, cuyo estudio queda apla­
zado a otros capítulos (cf. esp. cap. 12).
Por último, la discusión muestra que C1 y C2 no son ambas igualmente imprescindi­
bles para la realización de una buena contrastación. Mientras C1 es siempre necesaria, C2 no.
De hecho hemos visto algunos episodios, como el de las fases de Venus, en que claramente
es incumplida y, como veremos, ello no impide proceder a una buena contrastación con re­
sultados lim itados . Si nos limitamos a los casos de evidencia negativa o refutación, C1 es su­
ficiente. Pero si la contrastación ha de ser eficiente sean cuales sean los datos resultantes, in­
cluida la evidencia positiva, entonces C2 sí es necesaria. Quizá se piense que por razones
análogas se podría defender entonces que C1 no es necesaria en los casos de evidencia positi­
va. Pero no es así, pues C2 ha de establecer que la falsedad de H implica muy probablemente
la falsedad de P, siendo P un hecho predicho p o r la hipótesis H, esto es, cumpliéndose Cl.

4. Resultado de la contrastación

Veamos ya qué consecuencias tienen los datos observados para la contrastación de


la hipótesis. Reconstruiremos el establecimiento de estas consecuencias en forma de argu­
mentos. Comenzaremos con el caso en que los datos constituyen evidencia en contra de la
hipótesis, veremos después el opuesto, la evidencia a favor, y presentaremos una especie
de algoritmo a modo de resumen. Concluiremos comentando un tipo de contrastaciones
específicas, aquellas en que un mismo dato se utiliza para contrastar hipótesis rivales. Re­
cuérdese que la condición C l ha de satisfacerse siempre.
80 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

4.1. E v id e n c ia n e g a t iv a ( r e f u t a c i ó n ). E s t r a t e g ia s ad hoc

Es difícil resistirse a la fuerza de episodios como los del flogisto: la teoría predice que
el material pesará menos después de la combustión, se hace el experimento y se encuentra
que pesa más, por tanto la evidencia empírica es contraria a la teoría. Puede que haya buenos
motivos filosóficos para matizar, cuestionar o rechazar algunas consecuencias epistemológi­
cas que aparentemente se siguen de episodios como éste, pero no hay duda de que la predic­
ción incumplida constituye prim a fa cie evidencia contraria a la hipótesis enjuego. El modo
en que se establece que la evidencia es negativa o contraria a la hipótesis tiene la forma de un
argumento que concluye que la hipótesis no es correcta. Encontramos este argumento formu­
lado implícitamente en muchos episodios científicos. Incluso a veces es formulado explícita­
mente, como vimos en el caso de Michelson: “No hay desplazamiento de las bandas de inter­
ferencia. La consecuencia de la hipótesis de un éter estacionario se muestra incorrecta, y la
conclusión que necesariamente se sigue es que la hipótesis es errónea.”
El argumento contrario a la hipótesis que parece sugerir Michelson es un argu­
mento deductivo muy sencillo que responde a la forma m odus tollens, que tiene como
premisas a) que la hipótesis tiene como consecuencia cierto hecho, y b ) que el hecho no
ocurre, y como conclusión c ) que la hipótesis es errónea:

si H entonces P
(*) no P
(#) no H

Éste es efectivamente un argumento deductivo válido, pero no es exactamente el que esta­


blece que la evidencia es negativa. Como vimos más arriba, la primera premisa es más
complicada, la predicción no se sigue de la hipótesis sola. La primera premisa es en reali­
dad la condición C l. Tendríamos entonces el siguiente argumento:

(C1) ú H y S A y C l entonces P
(*) no P
(#) no H

Pero ahora este argumento deductivo es inválido. Lo que se sigue de las dos pre­
misas por m odus tollens no es la falsedad de H sino de todo el antecedente complejo:

(Cl) Ú H y S A y C l entonces P
(*) no P
(+) no {H y SA y Cl)

Puesto que “no {H y S A y C/)” es equivalente a “no H o no SA o no C T \ para obtener le­


gítimamente como conclusión la negación de la hipótesis, hay que añadir como premisa
adicional la ocurrencia de SA y Cl;
CONTRASTACIÓN DE HIPÓTESIS 81

[R E F J
(C 1) si H y SA y C l entonces P
(*) no P
(**) SA y C I
(#) no H

Así, el argumento [REF] para la refutación de hipótesis es un argumento deductivo válido


complejo que tiene como premisas C l, (*) y (**). De las dos primeras establece provisio­
nalmente (+) por m o d u s tollens, y de ésta conclusión intermedia y (**) establece final­
mente (#).
Éste es el patrón al que responden los episodios del flogisto y, según propio testi­
monio de Michelson, del éter. Pero a él también deberían responder otros episodios en los
que, ante aparentemente la misma situación, no se concluye (#), no se acepta que la evi­
dencia es contraria a la hipótesis. Contemplemos el caso del paralaje estelar. Del helio-
centrismo, decían los geocentristas, se infiere que en determinadas posiciones se debe ob­
servar paralaje, pero no se observa, por tanto la hipótesis heliocéntrica es errónea. No,
respondían los copernicanos (y parece que ya Aristarco). La existencia de paralaje en
ciertas condiciones iniciales se sigue de la hipótesis sola, pero la o bservación del mismo
no. Que se deba observar paralaje se sigue de la hipótesis heliocéntrica y del supuesto adi­
cional de que el diámetro de la órbita terrestre es significativo observacionalmente en
comparación con la distancia a la esfera de las estrellas fijas. Es cierto que no se observa
paralaje, pero todo lo que se sigue de ello, suponiendo que las condiciones iniciales estén
bien comprobadas, es que o el heliocentrismo o el supuesto adicional sobre las distancias
comparativas, al menos uno de ambos, es falso. Para concluir que es la hipótesis helio­
céntrica la que es falsa hay que establecer previamente que son verdaderos, además de las
C/, los supuestos auxiliares, entre ellos el referente a las distancias comparativas. Y eso
es precisamente lo que rechazaban los copernicanos.
Como se ve, los supuestos auxiliares pueden dar mucho juego a la hora de no
aceptar la refutación de una hipótesis. En este caso los copernicanos aceptan la validez
del argumento [REF], pero rechazan su conclusión al considerar que la tercera premisa es
falsa, que uno de los supuestos auxiliares es falso. ¿Es eso una estrategia legítima o una
simple estratagema elusiva? Seguramente hoy nos parece legítimo; después de todo los
copernicanos han acabado teniendo razón. La relación entre dichas distancias impedía la
observación del paralaje a simple vista, no mediante potentes telescopios (instrumentos
que ni Copérnico ni Tycho conocían), y de hecho así se detectó en 1838 (constituyendo
una confirmación tardía, y en ese momento completamente superflua, del heliocentris­
mo). Pero en su época se consideró, p.e. por Tycho, una escapatoria ilegítima.
Cuando tras una contrastación negativa se apela a este tipo de hipótesis auxiliares
para salvar la hipótesis central de la refutación, decimos que se trata de hipótesis a d h o c ,
e.e. especialmente destinadas a defenderse de la refutación. Entiéndase bien, no se intro­
ducen en sentido estricto después de la contrastación. Recordemos que entre los SA suele
haber uno muy general y vago del tipo “nada extraño ocurre o interfiere” o “nada más
afecta al resultado predicho”. Las hipótesis a d hoc explotan este cajón de sastre diciendo
82 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

que ése es el supuesto auxiliar que ha fallado. Pero, claro, esos supuestos no dicen sim­
plemente de modo indeterminado que algo no contemplado originalmente influye en la
predicción. Dan una propuesta específica. En este sentido sí son “posteriores” a la con-
trastación, son una precisión a p o sterio ri de elementos (supuestamente) determinantes
para la predicción cuya influencia se excluía por esa cláusula general en SA.
Un caso típico de hipótesis a d hoc ilegítima se produjo en el episodio del flogisto.
Hubo defensores de la teoría del flogisto que la pretendieron defender de la refutación de
Lavoisier diciendo que el flogisto tiene masa negativa. Efectivamente, si el flogisto tuvie­
se masa negativa el experimento daría el mismo resultado aun siendo cierta la hipótesis
de que los combustibles se inflaman liberando flogisto. La estrategia es la siguiente. Entre
los supuestos auxiliares se puede considerar que, camuflado en la cláusula “nada anormal
pasa, de nada más depende la predicción”, hay uno que afirma que “el flogisto es nor­
mal”, esto es, tiene masa positiva. De la contrastación negativa se sigue que o la hipótesis
de la combustión liberando flogisto, o el supuesto auxiliar oculto de que el flogisto tiene
masa positiva, al menos uno de ambos es falso. Y los partidarios del flogisto mantienen
que el supuesto falso es el segundo, con lo que la hipótesis principal podía ser verdadera.
Esta estrategia es formalmente semejante (si ignoramos hechos posteriores) a la de los co-
pernicanos con el paralaje, pero suena bastante peor que aquélla. Postular en aquella épo­
ca masas negativas parecía claramente una estratagema elusiva, aunque no olvidemos que
hoy día hay teorías muy serias que lo hacen.
A veces se califica de a d hoc cualquier hipótesis introducida, utilizando los SA
más genéricos mencionados, para salvar de la refutación la hipótesis principal. Otras ve­
ces se califica así a la hipótesis adicional sólo si su introducción se considera ilegítima.
Usemos los nombres que usemos, debe quedar claro tras los ejemplos vistos que la dife­
rencia entre hipótesis a d hoc legítimas e ilegítimas es, una vez más, cuestión de grado.
Depende de elementos pragmáticos muy variables y difusos. Hay algunos casos muy cla­
ros, como la quiromancia, la astrología y otras paraciencias. En la (escasa) medida en que
hacen predicciones concretas, si se les presenta un episodio refutador siempre se sacan
una hipótesis a d hoc de la manga. Pero usualmente no es tan claro. La defensa de los co-
pernicanos parece hoy bastante aceptable, pero ¿nos lo parecería en su época?, ¿y en la de
Aristarco? La defensa de los partidarios del flogisto parece inaceptable, ¿como la del as­
trólogo? ¿Qué decir del experimento de Michelson? A él le pareció una refutación clara
de las hipótesis centrales en juego, pero a Maxwell le pareció que se podían salvar si se
producían ciertos efectos de contracción con la velocidad, semejantes a los que más tarde
se seguirían de las teorías de Einstein. No hay una respuesta general sencilla y nítida para
este tipo de cuestiones; la posición razonable en cada caso depende de elementos pragmá­
ticos muy variables de cada contexto específico. Por supuesto que esto no quiere decir
que “todo vale”; por pragmático no hay que entender dependiente de cualquier aspecto
contextual sino, principalmente, dependiente del contexto científico, esto es, de las posi­
bilidades de integración teórica con hipótesis bien establecidas.
Cuestionar el cumplimiento de los supuestos auxiliares es la estrategia más común
para eludir la refutación de la hipótesis. Pero no es la única. Hemos dicho que casi siem­
pre las condiciones iniciales de experimentación o simple observación son comprobadas
CONTRASTACIÓN DE HIPÓTESIS 83

y aceptadas sin mayores problemas. Pero a veces, cuando la confianza en la hipótesis es


extremadamente fuerte y no se ve ningún supuesto auxiliar que pueda ser incorrecto, se
puede llegar a replantear la aceptación del cumplimiento de las condiciones iniciales. Es
entonces cuando se insiste, una y otra vez, en que algo ha ido mal en el diseño experi­
mental. Cuando Millikan presentó la hipótesis de la unidad de carga eléctrica, Ehrenhaft
repitió los experimentos de Millikan, consistentes en la medición de las velocidades de
descenso y ascenso de partículas de aceite cargadas eléctricamente moviéndose entre las
placas de un condensador. Ehrenhaft obtuvo resultados que, en su opinión, refutaban la
hipótesis de Millikan. Éste, que consideraba su hipótesis bien establecida experimental­
mente, adujo en algunos de los casos el incumplimiento de las condiciones correctas de
experimentación, por ejemplo, que las partículas se habían desviado del foco óptico, o
que habían perdido su forma esférica. Los resultados posteriores mostraron que la actitud
de Millikan era razonable. Pero también puede ser a veces una estrategia puramente elusi­
va. Los creyentes del Tarot dicen que para que la lectura adivinatoria de las cartas sea co­
rrecta se deben mantener las piernas sin cruzar para dejar circular la energía vital; una es­
trategia muy utilizada ante predicciones mínimamente precisas que resultan incumplidas
es que, inadvertidamente, en algún momento se cruzaron las piernas.

4 .2 . E v id e n c ia p o s it iv a (c o n f ir m a c ió n )

Es difícil resistirse a la fuerza de episodios como el del cometa Halley: la teoría


predice la aparición de cierto cuerpo celeste en una región precisa del cielo en un período
determinado, algo que parece completamente inesperado de otro modo; se realiza la com­
probación y efectivamente la predicción es correcta; por tanto la evidencia empírica es fa­
vorable a la hipótesis. Puede que haya buenos motivos filosóficos para matizar, cuestio­
nar o rechazar algunas consecuencias epistemológicas que aparentemente se siguen de
episodios como éste, pero no hay duda de que la predicción exitosa constituye p rim a fa -
cie evidencia fa v o ra b le a la hipótesis en juego.
El modo en que se establece que la evidencia es positiva o favorable a la hipótesis
tiene la forma de un argumento que concluye que la hipótesis es correcta. Pero, a diferen­
cia del caso anterior, el argumento ahora no es deductivo. El argumento no es:

(Cl) si H y SA y C l entonces P
____________(*) P ___________
(#) H tySAyC I)

Esto no es un argumento deductivo válido; como vimos en el capítulo precedente, es un


caso dt fa la c ia de a firm ación d el consecuente. El argumento utilizado en la confirmación
de hipótesis no es deductivo sino inductivo. Quizá se piense que este argumento inductivo
consiste simplemente en debilitar la pretensión del anterior, esto es, en la versión inducti­
va de la afirmación del consecuente:
84 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

(Cl) ú H y SA y C I entonces P
(*) P
"(#)'" ~H ~(y~SA y"~CI)

Pero no es así. Cuando estudiamos los argumentos inductivos vimos que la afir­
mación del consecuente no es tampoco en general una inferencia inductiva válida. El ar­
gumento inductivo que establece que la evidencia es favorable a la hipótesis no usa como
premisa Cl sino C2. Es aquí donde entra en juego el que la predicción sea improbable de
ser falsa la hipótesis. Ahora bien, el argumento inductivo no concluye directamente H
de C2 y P:

(C2) si no H y SA y C I entonces muy probablemente no P


(*) P
______

Éste es un argumento inductivo inválido. Lo que se sigue inductivamente de estas premi­


sas es lo siguiente:

(C2) si no H y SA y C I entonces muy probablemente no P


(*) P
(+) no (no H y SA y CI)

Puesto que “no (no H y S A y C/)” es equivalente a “/ / o no SA o no C P , para obtener le­


gítimamente H como conclusión hay que añadir como premisa adicional la ocurrencia se­
gura de SA y CI:

[CONF]
(C2) si no H y SA y C I entonces muy probablemente no P
(*) P
(**) SA y C I
______

Así, el argumento [CONF] para la confirmación de hipótesis es un argumento in­


ductivo válido complejo que tiene como premisas C2, (*) y (**). De las dos primeras se
establece provisionalmente (+) por una inferencia in d u ctiva , y de ésta conclusión interme­
dia y (**) se establece finalmente (#) mediante una inferencia deductiva. [CONF] es por
tanto un argumento mixto, con una parte inductiva y otra deductiva. El argumento com­
pleto se debe considerar inductivo puesto que al menos una de sus inferencias lo es, el
paso inductivo imprime carácter inductivo a todo el argumento.
Recuérdese que este argumento depende esencialmente de C2, y será tanto mejor
como argumento inductivo cuanto más justificada esté C2, cuanto más improbable sea la
predicción caso de ser falsa la hipótesis. Éste es el aspecto más problemático de la meto­
CONTRASTACiÓN DE HIPÓTESIS 85

dología de la confirmación, pues como vimos más arriba la naturaleza de C2 y de su com­


probación es extremadamente problemática. Aparte de las intuiciones, como en el caso de
Halley, no está en general claro cómo se establece C2. Lo que sí está claro a veces es que
no se cumple. Si ése es el caso, si hay buenos motivos para no aceptar C2, entonces la
predicción exitosa no conduce a la conclusión de que la evidencia es favorable a la hipó­
tesis; la contrastación no es concluyente. Éste es el caso de las fases de Venus, cuya
observación Tycho no hubiera considerado suficiente para confirmar la hipótesis helio­
céntrica pues también se predecían en su sistema mixto. Por último, y al igual que en la
refutación, otro modo de eludir la conclusión de que la predicción exitosa constituye evi­
dencia favorable a la hipótesis es objetar a la premisa (**), esto es, sostener que algún su­
puesto auxiliar es incorrecto o alguna condición inicial ha fallado.

4 .3 . A l g o r it m o -R esum en

El cuadro de la página siguiente resume a modo de algoritmo la metodología de la


contrastación. Las flechas indican que el paso en cuestión es argumentativo; si la flecha
es continua, la inferencia es deductiva; si es discontinua, la inferencia es inductiva (las
conclusiones están contenidas en las elipses). Nótese que el diagrama incluye también los
diversos modos en que la contrastación puede considerarse insuficiente, esto es, las cir­
cunstancias en las que la predicción fallida no se considera evidencia contraria o la pre­
dicción exitosa no se considera evidencia favorable.

4 .4 . P r e d ic c io n e s in a d e c u a d a s

Cuando presentamos la predicción como uno de los elementos de la contrastación,


no mencionamos algunas condiciones que es razonable exigir. El incumplimiento de estas
condiciones constituye un tipo de falacia de contrastación semejante en su carácter “tram­
poso” al uso ilegítimo de las hipótesis a d hoc. No las mencionamos entonces porque se
percibe mejor su necesidad tras haber visto en detalle las condiciones y el mecanismo de
la contrastación.
La primera de estas condiciones que debe satisfacer la predicción P es la precisión.
Si la predicción es imprecisa o vaga la contrastación se presta a todo tipo de recursos ilegí­
timos. Un caso paradigmático lo constituyen los horóscopos. Es usual leer en las secciones
de horóscopos de los periódicos “predicciones” del tipo “este mes le pasará algo importan­
te”, o “este mes recibirá apoyo de una persona cercana”. Predicciones tan vagas no sirven
para la contrastación. Por un lado, por su imprecisión es prácticamente imposible establecer
firmemente que no se cumplen. Por otro, de su “cumplimiento” no se puede concluir legíti­
mamente apoyo alguno a la hipótesis, en este caso que las posiciones astrales influyen cau­
salmente en nuestras vidas. Intuitivamente se ve que ello es así, pero después de estudiar
las condiciones para una contrastación satisfactoria, podemos establecer este punto con más
precisión. Este tipo de predicciones no cumplen C2: no es cierto que la predicción sea im-
86 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

¿S e deduce P de H, SA y C!7 NO Contrastación ¡nviable

NO Datos inconcluyentes

NO Datos inconcluyentes

NO Datos inconcluyentes

F ig . 3.1. C ontraslación de la hipótesis H m ed ia n te la p re d ic c ió n P con su p u esto s a u x ilia res SA


y co n d icio n es in iciales CI.
CONTRASTACIÓN DE HIPÓTESIS 87

probable si la hipótesis es falsa; por su vaguedad, la interpretación mínima les confiere tal
amplitud que son altamente probables en cualquier circunstancia. En realidad, en algunos
casos no es claro que se satisfaga siquiera C l, pues muchas veces la hipótesis enjuego no
desempeña un papel efectivo en el establecimiento de la predicción.
Un caso semejante al anterior es el de la p red icció n m últiple disyuntiva P = P\ o
P2o ... o P n. En sentido estricto, no es una predicción vaga, pues si cada P¡ está bien deter­
minada, también lo está la predicción global P. Cada P¡ puede ser precisa, pero su disyun­
ción puede resultar inaceptablemente amplia si las P¡ son muchas o parcialmente comple­
mentarias. Un caso extremo de esta segunda posibilidad es que entre todas las P„ o sim­
plemente dos de ellas, cubran todas las alternativas posibles. En ese caso no se ha hecho
ninguna predicción empírica propiamente dicha, pues P es una verdad lógica. Lo que hay
entonces no es una predicción vaga o inaceptablemente amplia sino, simplemente, ausen­
cia de predicción. Otro caso de ausencia de predicción, presente también a menudo en las
paraciencias, consiste en predecir sólo posibilidades: “el año próximo puede hacer un via­
je”. Si la posibilidad se interpreta en sentido estricto, se predice simplemente una pero­
grullada, esto es, no se p red ice nada. Puede ser que la posibilidad se interprete como
probabilidad, pero entonces sin más precisiones es un caso de vaguedad, o de amplitud
inaceptable.
Una última observación sobre recursos ilegítimos que involucran la predicción.
En el caso que vamos a exponer, la estratagema no afecta a contrastaciones aisladas sino
a series de ellas. La estratagema en cuestión consiste en repetir incansablemente la pre­
dicción hasta que sucede. Los seguidores de muchos equipos de fútbol suelen predecir
cada año que su equipo ganará el campeonato, y si efectivamente un año el equipo lo
gana, no es extraño oír a algunos ufanarse del acierto. Cuentan que un futurólogo procla­
mó que había predicho el cra ck económico de 1929, pero resultaba que llevaba diez años
prediciendo cada año que el año siguiente iba a haber un desastre financiero. De acuerdo
con la metodología vista, en estos casos se trata simplemente de varias contrastaciones
sucesivas en las que los resultados refutadores son abrumadoramente más numerosos que
los confirmadores.

4 .5 . C o n t r a s t a c io n e s c r u c ia l e s

Para concluir esta sección comentaremos brevemente un tipo especial de contras-


tación, aquél en el que están enjuego dos hipótesis alternativas rivales. A estas contrasta­
ciones se las considera contra sta cio n es cruciales porque supuestamente deben servir para
decidir entre ambas hipótesis; cuando la comprobación de la ocurrencia o no de la predic­
ción se realiza mediante experimentación, se habla entonces de experim entos cruciales.
En las contrastaciones cruciales las hipótesis rivales se enfrentan entre sí con res­
pecto a la m ism a predicción. Una de las hipótesis, H, predice con ayuda de los supuestos
auxiliares SA que en las condiciones C l se dará P. La hipótesis rival H ' predice, con ayu­
da de sus propios supuestos S A \ que en las mismas condiciones iniciales C l se dará no-P.
La ocurrencia o no de P debe eventual mente proporcionar evidencia en favor de una y en
88 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

contra de otra. Un ejemplo típico de contrastación crucial es el relativo a las teorías ondu­
latoria y corpuscular de la luz con el experimento crucial realizado por Foucault en 1850
sobre la velocidad de transmisión de la luz en aire y en agua. En este caso el resultado se
aceptó en general como una confirmación de la teoría ondulatoria y una refutación de la
teoría corpuscular.
Técnicamente, una contrastación crucial entre dos hipótesis no es más que la com­
binación de dos contrastaciones de dos hipótesis que hacen predicciones contradictorias
sobre el mismo fenómeno. Por tanto se aplica punto por punto todo lo que hemos visto en
los apartados anteriores. Se aplica en especial lo relativo al cumplimiento de C2. Esta
condición se debe cumplir respecto a cada una de las hipótesis para que el resultado, sea
cual sea, pueda considerarse la refutación de una y la confirm ación de la otra. El incum­
plimiento de esta condición hace que algunos casos que parecen contrastaciones cruciales
en realidad no lo sean, o puedan no ser considerados así por quienes no reconocen que se
cumple esta condición. Esto es lo que ocurre en el episodio de las fases de Venus. En
principio se podría considerar una contrastación crucial entre el geocentrismo clásico y el
heliocentrismo, siendo el resultado final contrario al primero y favorable al segundo. Pero
Tycho no hubiera estado dispuesto a considerarlo así. Estaba de acuerdo en que las fases
de Venus refutan el geocentrismo clásico, pero no en que confirman el heliocentrismo,
pues el fenómeno observado es predicho también por su propia teoría geocéntrica mixta.
Tycho no aceptaría en este caso C2 y defendería que por tanto la contrastación es incon­
cluyente a efectos confirm atorios.
Además de lo relativo a C2, a los experimentos cruciales se aplican también las
posibles estrategias elusivas basadas en el rechazo de SA y CI. Éste es el tipo de escapato­
rias en que piensa Hempel cuando niega la existencia de experimentos cruciales stricto
sen su : “ni siquiera la más cuidadosa y amplia contrastación puede nunca refutar una de
entre dos hipótesis y probar la otra; por tanto, estrictamente interpretados, los experimen­
tos cruciales son imposibles en ciencia” (1966a, cap. 3 §3). Pero a continuación matiza:
“un experimento como el de Foucault [...] puede ser crucial en un sentido menos estricto,
práctico: puede mostrar que una de entre dos teorías rivales es inadecuada en importantes
aspectos, y puede proporcionar un fuerte apoyo a la teoría rival; y, en cuanto resultado,
puede ejercer una influencia decisiva sobre el sesgo que tome la subsiguiente labor teóri­
ca y experimental” (ibid .).

5. Consideraciones finales

Hasta aquí hemos estudiado la metodología de la contrastación de hipótesis. Otra


cosa son las actitudes que se pueden tomar, que los científicos pueden tomar, frente a sus
resultados. La aceptación de los resultados de la contrastación depende de muchos facto­
res, entre otros, de la ca n tid a d , la calid a d y la variedad de las contrastaciones realizadas.
Usualmente una sola contrastación no basta, pues siempre hay lugar para las casualida­
des. Por ello, como en el caso de Michelson y Morley, se suele considerar necesario repe­
tirlas un número su ficiente de veces (de nuevo los límites de esta suficiencia son pragmá­
CONTRASTACIÓN DE HIPÓTESIS 89

ticos y difusos); repetirlas si la contrastación es experimental y se puede reproducir, o rea­


lizar otras análogas si no se pueden repetir mediante experimento., A veces, sin embargo,
una contrastación se puede considerar suficiente si es de “extraordinaria calidad”. La ca­
lidad de las contrastaciones depende de muchos factores, especialmente del rigor del
diseño experimental y del grado de precisión de la predicción y lo inesperado de la mis­
ma. Por último, la variedad de las predicciones es también un valor fundamental. Recien­
temente unos investigadores de Harvard han afirmado encontrar evidencia empírica
contra la hipótesis, hasta ahora generalmente aceptada, según la cual las mutaciones bio­
lógicas son procesos azarosos. Los principales resultados empíricos corresponden a unas
pruebas realizadas sobre un tipo específico de bacterias. Algunos científicos han aconse­
jado prudencia hasta que no se comprueben resultados semejantes en otras bacterias o,
mejor todavía, en otros organismos. Uno de los principales motivos de la rápida expan­
sión y aceptación de la teoría newtoniana era la inmensa variedad de fenómenos a los que
se aplicaba y con los que se podía contrastar.
Estos factores que influyen en la aceptación o no de los resultados corresponden a
características internas de las contrastaciones. Hay sin embargo otros factores también in­
fluyentes que no tienen que ver directamente con el proceso mismo de contrastación sino
con algunas cualidades de la hipótesis, principalmente la sim p licid a d , belleza e in teg ra ­
ción teórica. La simplicidad parece ser un principio metodológico generalmente acepta­
do: si en todo lo demás son iguales, prefiérase la hipótesis más sencilla. Entre las ventajas
de su sistema, Copémico aducía como una de las fundamentales su simplicidad en com­
paración con el monstruo en el que se había convertido el modelo geocéntrico de epici­
clos y deferentes, aunque en este caso concreto se trató de una argucia propagandística,
pues para que el sistema copernicano original funcionara había que complicarlo casi de
igual modo. En el episodio de las fases de Venus, la evidencia empírica era contraria al
geocentrismo tradicional, pero no inmediatamente favorable al heliocentrismo pues el sis­
tema mixto de Tycho predecía lo mismo. Sin embargo casi nadie apostó por el sistema de
Tycho por considerarlo innecesariamente más complicado (a pesar de que tenía algunas
ventajas claras entonces, como por ejemplo la predicción de la ausencia de paralaje). Una
de las cosas que convenció a Kepler de lo correcto de su hipótesis de las órbitas elípticas
era la enorme simplificación del sistema heliocéntrico que permitía. La simplicidad está
relacionada con otro de los factores que puede influir en la suerte de una hipótesis, su
“belleza”. La simplicidad es un valor a la vez epistémico y estético, además de ventajas
de cálculo confiere a la hipótesis cierta belleza. Pero la simplicidad no es el único valor
estético; hay otros que, aunque más subjetivos y variables, pueden ser en ocasiones deter­
minantes. Por último, otro valor fundamental es la posibilidad de integrar la hipótesis con
otras hipótesis o teorías generales del mismo o diferente ámbito. A finales del siglo xix se
consideró que la integración de la teoría ondulatoria de la luz en el electromagnetismo de
Maxwell proporcionaba a aquélla nueva fuerza. El principal motivo por el que, a pesar
de no haber evidencia en favor, algunos físicos actuales defienden la existencia del gravi-
tón (partícula que transmitiría la fuerza gravitatoria) es la posibilidad de unificar el trata­
miento de las cuatro fuerzas fundamentales (electromagnética, nuclear débil, nuclear fuer­
te y gravitatoria).
90 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Otros factores que influyen en las actitudes que los científicos tornan ante las hi­
pótesis tienen un carácter más social. En este caso, lo que se considera valioso de la hipó­
tesis es su coherencia con determinadas creencias socialmente extendidas o con determi­
nadas ideologías vinculadas con el poder político o económico (como el catolicismo en
Europa hasta el siglo xvn o el materialismo dialéctico en los países comunistas en el si­
glo xx). Para algunos teóricos de la ciencia actuales, los sociologistas radicales, estos fac­
tores sociales son los únicos realmente determinantes. En algunas ocasiones así lo parece,
como en el actual resurgir de las biologías creacionistas en Estados Unidos. Pero en gene­
ral son sólo elementos que se añaden a los factores anteriores más directamente determi­
nantes. Sobre algunas de estas cuestiones volveremos en el capítulo dedicado a la evalua­
ción de las teorías y el problema de la inducción.
C a p ít u l o 4

LOS CONCEPTOS CIENTÍFICOS

Los conceptos son las unidades más básicas, y por ello mismo imprescindibles, de
toda forma de conocimiento humano, y en especial del conocimiento científico. Podemos
concordar con Kant en que la experiencia humana, si no pasara a través del tamiz de un
sistema conceptual, sería “ciega”, es decir, no nos permitiría com p ren d er lo que experi­
mentamos. Cuanto más articulado y complejo sea el sistema de conceptos que utilicemos
para dar cuenta de una parcela determinada de nuestra experiencia, tanto más articulado y
eficaz será también nuestro conocimiento de la realidad derivado de esa parcela. Esta co­
rrelación es especialmente válida para la forma de conocimiento que calificamos de
“científica”, y es por ello que el estudio de las formas en que se presentan los conceptos
científicos tiene una importancia de primer orden para la filosofía de la ciencia.
En este capítulo trataremos primero someramente de la cuestión de la naturaleza
de los conceptos en general, para luego analizar los tres tipos principales de conceptos
que pueden distinguirse en la articulación del conocimiento científico: conceptos clasifi-
catorios, conceptos comparativos y conceptos métricos. Estos últimos, los conceptos mé­
tricos, característicos de las teorías cuantitativas, son sin duda los más útiles para la arti­
culación y desarrollo del conocimiento científico. En este capítulo, sin embargo, nos limi­
taremos a una primera aproximación muy general a los mismos. En el capítulo dedicado
específicamente a la medición (cap. 6) se tratarán con más detalle tanto su estructura
como su función.

1. ¿Qué es un concepto?

La naturaleza de los conceptos en general es una de las cuestiones más difíciles de


la filosofía y de más amplia tradición, que se remonta por lo menos a Platón. Es una cues­
tión íntimamente ligada al llamado p ro b lem a de los universa les , y sobre la que ha habido,
y continúa habiendo, un sinfín de controversias. Esta cuestión atañe a aspectos centrales
tanto de la ontología como de la teoría general del conocimiento, estando involucrados
prácticamente todos los grandes temas de la filosofía teórica. Puesto que en este libro no
92 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

podemos entrar en los temas específicos de dichas ramas de la filosofía, soslayaremos en


la medida de lo posible los aspectos estrictamente metafísicos y epistemológicos, y nos
centraremos fundamentalmente en aspectos estructurales y metodológicos; en filosofía de
la ciencia no interesa tanto la temática de los conceptos en general, cuanto el carácter es­
pecífico de los conceptos científicos y sus diferentes formas. Por esta razón, tampoco pre­
tenderemos aquí defender alguna posición determinada en la ontología y la epistemología
de los conceptos, sino que nos limitaremos en este apartado a formular algunos supuestos,
a modo de “hipótesis de trabajo”, de los que partimos para nuestra tarea de analizar los di­
versos tipos de conceptos científicos. Las únicas posiciones filosóficas que rechazamos
explícitamente son a ) un nominalismo extremo según el cual sencillamente no existen los
conceptos o éstos no son sino expresiones verbales de los seres humanos, y b ) la idea de
que hay conocimiento “no conceptual”; esta última posición, incluso si fuese defendible
de algún tipo de conocimiento, es claramente inadmisible en relación con el conocimiento
científico.

P rim er supuesto: Los conceptos son entidades, en principio identificables, a las


que tienen acceso los seres humanos en tanto sujetos epistémicos y que les permiten a és­
tos conocer el mundo real y orientarse en él. La presencia de conceptos es condición ne­
cesaria de todo conocimiento, y en especial del conocimiento científico. Un sistema con­
ceptual es uno de los dos constituyentes esenciales de todo sujeto epistémico, y muy en
especial del sujeto de conocimiento científico (el otro es un sistema de órganos o instru­
mentos sensoriales que canalizan la experiencia).
Aunque ya hemos dicho que aquí no podemos entrar en la discusión de qué son
exactamente los conceptos como entidades, sí podemos decir que partimos del supuesto
de que no son objetos em píricos, al modo por ejemplo de los objetos físicos o de los fenó­
menos psíquicos. Tentativamente, podríamos adscribirlos al “reino de los sentidos” del
que habla Frege o al “tercer mundo” (junto al mundo físico y al psíquico) del que habla
Popper, y que es característico del conocimiento objetivo del ser humano. Sin embargo,
estas caracterizaciones deben quedar aquí al nivel de vagas metáforas. Baste señalar que
asumimos que los conceptos no son entidades localizadas espaciotemporalmente como lo
son los objetos físicos, ni tampoco acotadas temporalmente como lo son las entidades del
mundo psíquico. En este sentido, podemos decir que los conceptos son entidades a b stra c­
tas . Por el momento, no necesitamos mayor precisión para lo que sigue.

Segundo su p u esto :Los sujetos epistémicos contraponemos en cierto modo un


sistema de conceptos al “mundo real” que es su objeto.
Naturalmente, éste no es el lugar para determinar lo que entendemos por “mundo
real”, cuestión que excede los presentes límites. Podemos contentarnos con asumir que el
mundo real (“externo”) es todo aquello que no se identifica con el sujeto epistémico, y
que este mundo está compuesto de diversas clases de objetos. La naturaleza exacta de es­
tos objetos no es, en este contexto, una cuestión relevante. Nos limitamos a observar que
por “mundo real” no ha de entenderse necesariamente sólo la totalidad de los objetos físi­
cos ni mucho menos sólo la totalidad de los objetos detectables por nuestros sentidos.
CONCEPTOS CIENTÍFICOS 93

Cuáles sean los “objetos reales” considerados dependerá, entre otras cosas, de conviccio­
nes ontológicas fundamentales que tampoco podemos discutir aquí. Si creemos que los
puntos espaciales son reales, entonces el mundo real constará no sólo de cosas tales como
astros, gatos y moléculas, sino también de puntos espaciales; si creemos que los números
son reales, entonces contendrá también números; si creemos que las formas geométricas,
las estructuras formales, las propiedades de los objetos físicos y las relaciones entre ellos
son reales, entonces el mundo real también contendrá todas estas cosas, y así sucesiva­
mente. Lo único que importa constatar aquí es que, sean cuales sean los objetos reales, si
logramos conocerlos y reconocerlos es gracias, entre otras cosas, a los conceptos de que
disponemos. Los conceptos nos permiten identificar, diferenciar, comparar, etc., los obje­
tos de los que consta el mundo real. Ello ocurre fundamentalmente a través de una opera­
ción intelectual que llamamos subsunción. Por ella, diversos objetos quedan subsumidos
bajo un mismo concepto; un concepto su b su m e uno o varios objetos (en general muchos).
Otro modo equivalente de decir que un concepto subsume un objeto es decir que el objeto
cae bajo el concepto, o que el concepto se ap lica al objeto.
Por ejemplo, subsumimos diversos objetos de observación nocturna bajo el con­
cepto astro, diversos objetos de nuestra indagación matemática bajo el concepto núm ero
p rim o , o diversas relaciones identificables bajo el concepto sim etría. Podemos decir en­
tonces, ante un objeto particular, que ese objeto cae bajo el concepto correspondiente: por
ejemplo, que la Luna cae bajo el concepto de astro, que el 3 cae bajo el concepto de nú­
mero primo y que la fraternidad cae bajo el concepto de relación simétrica. También po­
demos decir que el concepto de astro se aplica a la Luna, el Sol, Mercurio, Venus, etc.;
que el concepto de número primo se aplica a los números 1, 2, 3, 5, 7, 11, etc.; que el
concepto de simetría se aplica a las relaciones de fraternidad, igualdad, semejanza, etc.
Todo objeto cae bajo algún concepto. Incluso si admitimos la posibilidad de obje­
tos por principio inaccesibles al sujeto epistémico y que por tanto no caen bajo ningún
concepto usual, ellos serán subsumibles bajo el concepto objeto inaccesible a l c o n o ci­
m iento hum ano. En cambio, hay muchos conceptos bien constituidos bajo los cuales es
dudoso o probablemente falso que caiga algún objeto; por ejemplo, el concepto habitante
del sol tiene perfecto sentido pero no subsume ningún objeto. A estos conceptos que no se
aplican a ningún objeto se les suele denominar ‘conceptos vacíos’. Los conceptos vacíos,
cuando son usados con la pretensión de aplicarse de hecho a objetos, como el concepto
flo g isto , suponen un “acto epistémico fallido”. Pero también pueden usarse para otros fi­
nes no epistémicos, como los artísticos, por ejemplo en la ficción literaria; en estos casos
el concepto no tiene valor epistémico pero sí artístico. O también pueden usarse para
fines estrictamente filosóficos, como cuando decimos que el concepto habitante d el so l es
vacío.
Desde un punto de vista científico, en cualquier caso, los conceptos que interesan
son aquellos que se usan con la pretensión de subsumir objetos realmente existentes,
como los conceptos flo g is to y o xíg en o , aunque el primero es vacío y el segundo no (o eso
creemos hoy). Debe quedar claro que si en su día se consideró interesante científicamente
el concepto de flogisto fue porque se consideraba (erróneamente) que se aplicaba a algo.
Una vez se demuestra que no es ése el caso, el concepto deja de interesar a fines científi-
94 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

eos. Por tanto, supondremos que los conceptos con los que nos las tenemos que haber
aquí, los conceptos científicos, son conceptos (pretendidamente) no vacíos.
Esquemáticamente podemos representar la correlación entre los dos “mundos”, el
real y el conceptual, como se muestra en la figura 4.1.

SISTEMA CONCEPTUAL

MUNDO REAL

Fio. 4.1.

Tercer supuesto: En el primer supuesto hemos establecido que los conceptos son,
en cierto modo, entidades abstractas, no localizables espaciotemporalmente y por tanto no
identificables con objetos físicos. De ello se sigue, entre otras cosas, que los conceptos no de­
ben identificarse con palabras o en general expresiones de un lenguaje dado, las cuales son, a
fin de cuentas, entidades físicas. Por ello tampoco debemos identificar la tarea del análisis
conceptual con la de un análisis puramente lingüístico (como han querido algunos filósofos).
Dicho esto, no obstante, también debemos advertir que hay una íntima conexión en­
tre un sistema de conceptos y un sistema lingüístico, entre conceptos y palabras. La rela­
ción que existe entre ambos tipos de entidades es una relación semánticamente muy impor­
tante: la expresión. Las palabras, o en general los términos de un lenguaje, expresan con­
ceptos. Y como no tenemos un acceso sensorial directo a los conceptos, pero sí a las pala­
bras, es por ello que el análisis lingüístico a fin de cuentas sí puede resultar relevante para
el análisis conceptual, en el sentido de que nos puede dar indicaciones acerca de la estructu­
ra conceptual subyacente al lenguaje. Las palabras nos remiten a los conceptos, nos permi­
ten apresarlos y comunicarlos en la mayoría de los casos, aunque quizá no en todos, pues
debemos admitir la posibilidad de conceptos inexpresables (o no bien expresables) median­
te el repertorio de palabras existente en una lengua dada. Conviene notar que la relación de
CONCEPTOS CIENTÍFICOS 95

expresión es (idealmente) una función, esto es, un mismo término lingüístico (idealmente)
sólo expresa un único concepto; en caso contrario estamos ante un fenómeno de ambigüe­
dad lingüística en el que la misma entidad físico-lingüística encubre, por así decir, dos sig­
nificantes diferentes (como ‘banco’ o ‘gato’ en castellano). Por otro lado, la conversa no es
cierta: la expresión no es una función biunívoca, pues puede haber palabras diferentes que
expresen el mismo concepto; esto es lo que ocurre con las expresiones sinónimas, tanto de
diferentes lenguas como de una misma lengua (como ‘burro’ y 'asno’ en castellano).
Las expresiones lingüísticas de una lengua, sus términos, palabras o frases, son
objetos reales en principio comparables a otros objetos empíricos como astros o gatos.
Pertenecen también al mundo real. Pero la relación entre los términos del lenguaje y los
conceptos que ellos expresan es muy distinta de la relación entre un objeto real y el con­
cepto que lo subsume. Por ello conviene enriquecer el esquema anterior del siguiente
modo. (La fig. 4.2 recoge el hecho de que diferentes términos pueden expresar un mismo
concepto. Por otro lado, en tanto que objetos del mundo real, los términos mismos pueden
ser subsumidos a su vez por otros conceptos, por ejemplo conceptos como térm ino p r e d i­
cativo, térm ino singular, a d jetivo , etc. No incluimos este hecho en el gráfico para no difi­
cultar la visualización de los otros hechos que ahora queremos destacar.)

SISTEMA CONCEPTUAL

MUNDO REAL

FlC. 4.2.

Naturalmente, no todos los componentes de una lengua dada son aptos para expre­
sar conceptos. Por ejemplo, es muy dudoso que lo sean la mayoría de los llamados “térmi­
nos sincategoremáticos” (artículos, preposiciones, etc.). También puede ocurrir que, aun
cuando dos o más palabras expresen conceptos, su combinación (aunque sea gramatical­
mente correcta) no exprese ningún concepto. Así, las palabras castellanas ‘redondo’ y
‘triángulo’ expresan ciertamente cada una un concepto, pero su combinación gramatical­
mente correcta ‘triángulo redondo’ seguramente no expresa ninguno (de expresarlo sería un
96 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

concepto necesariamente vacío). También se suele admitir (aunque esto es más discutible)
que los nombres propios o términos singulares, como ‘Marilyn Monroe’ o da capital de
España’ no expresan conceptos (aunque este último incluye un término conceptual).
En el contexto de los lenguajes científicos, que es el que a nosotros nos interesa
aquí, podemos partir de la observación de que prácticamente todos los términos
no-sincategoremáticos introducidos expresan un concepto. Y estos términos tienen casi
unánimemente una determinada forma lógica: son predicados. Con ello pasamos a nues­
tro siguiente supuesto.

C uarto su p u esto :En los lenguajes científicos, los términos que expresan con­
ceptos tienen (casi) siempre la forma lógica de predicados n-ádicos, con n > 1.
Los conceptos más simples serán aquellos expresables mediante predicados moná-
dicos (como luego veremos, éste es el caso de los conceptos clasificatorios); los conceptos
más complejos se expresarán mediante relatores diádicos, triádicos, o incluso más compli­
cados. En cualquier caso, dado que, en un contexto científico, las expresiones que más inte­
resan son las predicativas, podemos aplicar todo el arsenal simbólico de la lógica de predi­
cados para formalizar las conexiones entre conceptos en nuestro sistema conceptual. Por
ejemplo, la relación entre los conceptos hum ano y m ortal quedará fijada en la fórmula pre­
dicativa

Vx (H x M x),

donde lH ’ es la a b reviación del p red ica d o ‘es h u m a n o ’ y ‘M ’ la de ‘es mortal’. O bien


podremos expresar la “verdad conceptual” de que, si una persona es progenitora de otra,
la segunda no lo será de la primera, mediante la fórmula

Vx, y { x P y —> -vy Px),

donde ‘P ’ es la abreviación del predicado relacional ‘es progenitor de’.


Ahora bien, de las disciplinas formales no es sólo la lógica de predicados la que
contribuye decisivamente al análisis conceptual; otra rama de las ciencias formales muy
útil a nuestros fines, sobre todo en un contexto científico, es la teoría de conjuntos. La ra­
zón de ello es que, para muchos fines del análisis conceptual, aunque no para todos, con­
viene sustituir el tratamiento de los conceptos mismos (o de los predicados que los expre­
san) por el de las extensiones de los mismos, esto es, por el de los conjuntos de objetos
que caen bajo cada concepto. Con eso llegamos a nuestro último supuesto, que es el que
fundamenta este recurso a las extensiones en el análisis conceptual.

Q uinto supuesto: Existen conjuntos (en el sentido de la teoría estándar de conjun­


tos) y la extensión de un concepto cualquiera es un conjunto en ese sentido, el conjunto de
los objetos que caen bajo él (o de los pares de objetos, si es binario; o de los tríos, etc.).
Por supuesto, no todo conjunto es la extensión de un concepto; por ejemplo, el
conjunto formado por Marilyn Monroe, el número 3 y el planeta Neptuno no es la ex­
CONCEPTOS CIENTÍFICOS 97

tensión de ningún concepto, aunque, desde el punto de vista de la teoría de conjuntos, es


un conjunto tan bien formado como cualquier otro. Quizá sería más cauteloso decir sólo
que conjuntos como ése no son la extensión de ningún concepto “razonable”, pues en
cierto sentido se podría defender que sí hay un concepto correspondiente, a saber, el
concepto ser M a rilyn M o n ro e o s e r el n ú m ero 3 o ser el p la n e ta N ep tu n o . Es seguro que
éste no es un concepto “razonable”, y es más que dudoso que se pueda considerar si­
quiera un concepto legítimo, más bien es algo así como “un conjunto disfrazado de
concepto”, o incluso “un mero predicado”. Aclarar esta cuestión a fondo requiere un
análisis del concepto de co n cep to en el que no podemos entrar aquí. En cualquier caso,
consideraremos en general que tales supuestos conceptos son, cuando menos, “per­
versos”.
Cuando disponemos de conjuntos que sí son extensiones de conceptos dados, les
podemos aplicar a ellos los principios y las operaciones de la teoría de conjuntos, y esta­
blecer o revelar así indirectamente determinadas conexiones entre los conceptos que tie­
nen tales extensiones. Denotaremos en general la extensión de un concepto C mediante el
signo ‘C \ Así, por ejemplo, podemos reformular conjuntistamente la relación entre
el concepto de humano y el de mortal mediante sus extensiones:
A A

HcM.
Y el enunciado sobre la asimetría de la relación de progenie se convierte en:

PnF-' =0

Ahora bien, no siempre es adecuado sustituir la consideración directa de los con-


A A

ceptos por la consideración sobre sus extensiones. En general, si vale H c M, entonces


una afirmación que incluye el predicado ‘í f implica otra consistente en sustituir en la pri­
mera el predicado ‘H ’ por el predicado ÍM \ Por ejemplo, si es cierto que Luisa tropezó
con un hombre, entonces también es cierto que Luisa tropezó con un mortal. Pero no
siempre ocurre así. Por ejemplo, si Judas cree que Jesús es hombre entonces, por mucho
que siga valiendo de hecho H c: M, puede no ser cierto que Judas crea que Jesús es mortal
(el motivo, obviamente, es que Judas puede no creer que de hecho ocurra H c M , o inclu­
so creer que de hecho no ocurre). Los contextos o formas de discurso en los que no es le­
gítima la sustitución de las relaciones entre extensiones por las relaciones entre los co­
rrespondientes conceptos, son los denominados contextos o discursos intensionales, por
oposición a los contextos exten sio n a les , en los que sí vale tal sustitución; así, típicamente
los contextos que incluyen operadores epistémicos (como ‘creer’) o modales (como ‘posi­
ble’ o ‘necesario’) son intensionales. Aunque muchas de las cuestiones metacientíficas
son susceptibles de un análisis puramente extensional, en algunos casos especialmente
importantes, como en el análisis de la explicación o de las leyes, intervienen esencialmen­
te fenómenos intensionales. Éste no es el caso, sin embargo, de nuestra actual finalidad, el
análisis de la estructura lógica de los diversos tipos de conceptos científicos. Por tanto, en
el resto de este capítulo adoptaremos una perspectiva puramente extensionalista, es decir,
98 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

consideraremos siempre legítimo sustituir los conceptos por sus extensiones, con lo cual
tendremos siempre a nuestra disposición todo el instrumental de la teoría de conjuntos
para llevar a cabo un análisis conceptual lo más sistemático y preciso posible.
Desde esta perspectiva extensionalista, denominaremos ‘representación’ a la reía-
ción que se da entre un conjunto y el concepto del cual es extensión: si la extensión del
concepto C es el conjunto C, diremos que C representa a C. Nótese que esta relación no es
una función, esto es, un mismo conjunto puede representar conceptos diferentes. El motivo
es que puede haber diferentes conceptos con la misma extensión, que se aplican a los mis­
mos objetos, por ejemplo los conceptos anim al racional y bípedo im plum e. Pues bien, si
admitimos la hipótesis ontológica de que los conjuntos son entidades reales (al menos tan
reales como los números y las formas geométricas), entonces convendrá enriquecer nuestro
esquema de la relación entre los conceptos y el mundo del siguiente modo. (La fig. 4.3 re­
coge el hecho de que diferentes conjuntos pueden representar un mismo concepto. Por otro
lado, en tanto que objetos del mundo real, los conjuntos pueden a su vez ser subsumidos
por otros conceptos, por ejemplo conceptos como conjunto fin ito , conjunto con m á s de
ocho elem entos , conjunto infinito , etc. No incluimos este hecho en el gráfico para no difi­
cultar la visualización de los otros hechos que ahora queremos destacar.)

En los apartados que siguen estableceremos una distinción tripartita entre tres
grandes clases de conceptos científicos (y los correspondientes términos que los expre­
san), atendiendo a su estructura lógico-matemática característica, la cual, a su vez, refleja
el diverso carácter y valor metodológico de cada una de estas clases de conceptos. La dis­
tinción en cuestión está conectada con el tradicional problema de distinguir entre un siste­
CONCEPTOS CIENTÍFICOS 99

ma conceptual cualitativo y uno cuantitativo para las ciencias, si bien, como veremos,
permite reformular esta cuestión de manera más exacta y matizada que la formulación tra­
dicional. Estos tres grandes tipos de conceptos son: los clasificatorios, los com parativos
(o topológicos ) y los m étricos.
A los conceptos de los dos primeros tipos se les puede considerar “cualitativos”,
mientras que los del último, los métricos, son “cuantitativos”. Se ha discutido mucho so­
bre sus respectivas ventajas y desventajas, sobre si determinadas disciplinas deberían ten­
der al uso de conceptos cualitativos o bien cuantitativos, etc. Sin pretender negar que en
esta discusión se han señalado algunos aspectos que constituyen problemas genuinos de
metodología, como veremos más adelante, antes de entrar a fondo en ella es conveniente
hacer las siguientes aclaraciones.

a) La distinción entre lo cualitativo y lo cuantitativo se ha tomado con frecuen­


cia como una distinción fundamentalmente ontológica, cuando debería en realidad tomar­
se como una distinción epistem ológica, basada ante todo en la estructura conceptual con
la que nosotros conceptualizamos la realidad. A veces se afirma que hay propiedades o
fenómenos del mundo real que son en sí mismos cualitativos y otros que son en sí mis­
mos cuantitativos; es decir, se supone que la realidad es en ciertas partes cualitativa y en
otras cuantitativa, y que nuestro uso de conceptos cualitativos o cuantitativos depende del
tipo de realidad que estemos investigando, por lo que no podemos o no debemos aplicar
conceptos cuantitativos a una parte cualitativa de la realidad, o a la inversa. También es
frecuente que se haga una división entre disciplinas científicas según que estudien aspec­
tos cuantitativos o bien cualitativos de la realidad; por ejemplo, se suele decir que la física
es una ciencia que estudia los aspectos cuantitativos, mientras que las ciencias sociales
estudiarían aspectos puramente cualitativos, que por su misma naturaleza no pueden ser
tratados cuantitativamente. Todo esto son confusiones derivadas de la confusión básica
entre el plano ontológico y el epistemológico. Ni el mundo globalmente considerado, ni
ninguna parcela del mismo es en sí misma cualitativa o cuantitativa. Carece de sentido
decir que un fenómeno o proceso real es en sí mismo cualitativo o cuantitativo. No es la
realidad misma o un fenómeno particular lo que es cualitativo o cuantitativo, sino el
modo como lo describimos, es decir, el aparato conceptual que utilizamos para aprehen­
derlo. Depende esencialmente del sujeto epistémico, y no de la realidad misma, sea ésta
lo que sea, el que usemos conceptos de una u otra clase para subsumirla bajo ellos. A ve­
ces es más provechoso, o más sencillo, usar un tipo de conceptos que otro tipo. El domi­
nio de experiencia de que se trate no es lo que decide por sí solo esta cuestión, aunque es
cierto que hay aspectos de la realidad que, al menos de momento, “no se dejan” concep-
tualizar cuantitativamente de m odo interesante (sobre esto volveremos en la sección final
del capítulo 6 dedicado a la medición).
b) A veces se otorga una prioridad absoluta a los conceptos cuantitativos frente
a los cualitativos, e incluso se piensa que una disciplina cualquiera no es realmente cientí­
fica mientras no use conceptos cuantitativos. Y en este contexto se suele seguir, conscien­
te o inconscientemente, la idea kantiana de que en una disciplina hay tanta ciencia como
matemáticas hay, con lo cual, además, se suele identificar el nivel de matematización de
100 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

una disciplina con su nivel de cuantificación. Y, en consecuencia, muchos investigadores


de áreas aún poco desarrolladas, especialmente en las ciencias sociales, tratan de introdu­
cir conceptos cuantitativos aun cuando ello sea a veces muy forzado. Hay, en esta tenden­
cia o actitud, por lo menos dos confusiones que conviene aclarar. En primer lugar, es cier­
to que una disciplina científica se desarrollará tanto más rápida y eficientemente cuanto
más claros y exactos sean sus conceptos y más rigurosa su construcción, y ello implica en
muchos casos la necesidad o la conveniencia de utilizar un lenguaje matemático. Pero
matematizar no es equivalente a usar conceptos cuantitativos. Hay muchas ramas de las
matemáticas, desde la topología hasta la teoría de grafos pasando por la teoría de grupos,
que pueden ser útiles a las ciencias empíricas (y que de hecho ya han sido aplicadas con
éxito en algunas áreas) y que sin embargo no presuponen conceptos cuantitativos. Estos
últimos son, como veremos, una forma muy especial de construcciones matemáticas. En
segundo lugar, la introducción de conceptos cuantitativos no es la panacea que promueve
automáticamente el desarrollo de una teoría. Ni siquiera son siempre necesarios. Hay mu­
chos ejemplos de uso de conceptos cuantitativos en las ciencias sociales que no han apor­
tado el desarrollo esperado. Y hay casos, como el de la taxonomía clásica en biología, que
han significado grandes avances en el conocimiento científico sin que en ellos se haya he­
cho uso de conceptos cuantitativos. En conclusión, si bien es cierto que los conceptos
cuantitativos son los más útiles para el desarrollo rápido de la ciencia (por razones que
veremos más adelante), hay que juzgar con cautela y de modo pragmático en esta cues­
tión, y no rechazar dogmáticamente una disciplina como no-científica por el simple hecho
de que no aparezcan conceptos cuantitativos en ella.

Tras estas consideraciones podemos iniciar ya el estudio de cada uno de los dife­
rentes tipos de conceptos. Como se verá, hay relaciones de correspondencia muy estre­
chas entre ellos. Aunque en sentido estricto no podemos decir que un concepto métrico es
también un concepto comparativo, o que uno comparativo es también clasificatorio, sí
hay un sentido más lato en que ello es cierto: cada concepto métrico se corresp o n d e con
un concepto comparativo, y cada concepto comparativo con uno clasificatorio. Así, un
mismo concepto en términos intuitivos, como por ejemplo m asa, se puede reconstruir me-
tateóricamente como un concepto clasificatorio, como uno comparativo o como uno mé­
trico. En este sentido el concepto de masa es a la vez de los tres tipos. Veremos que ello
no siempre es posible: aunque a todo concepto métrico le corresponde otro comparativo y
a todo comparativo uno clasificatorio, las conversas no son ciertas, hay conceptos compa­
rativos a los que no corresponde ninguno métrico, y conceptos clasificatorios a los que no
les corresponde ninguno comparativo. Así pues, los conceptos métricos son los más fuer­
tes, después vienen los comparativos y por último los clasificatorios. Empezaremos nues­
tro análisis por estos últimos, los más débiles, y después iremos progresando en fuerza
expresiva (como fuente histórica, el trabajo clásico es Hempel, 1952).
CONCEPTOS CIENTÍFICOS 101

2. Conceptos clasificatorios

Los conceptos clasificatorios son los usados más comúnmente en la vida cotidia­
na. Son los primeros que se aprenden. La gran mayoría de conceptos que emplea un niño
son herramientas para subsumir los objetos que lo rodean de acuerdo a ciertos criterios
vagamente especificados, generalmente basados en ejemplos y relaciones de analogía.
Así es como el niño aprende a usar conceptos clasificatorios de color {rojo, azul, etc.),
conceptos clasificatorios de forma (red o n d o , cu a d ra d o , etc,), conceptos clasificatorios de
temperatura (ca lien te, tib io , fr ío ), de animales y plantas {perro, águila, p á ja ro , árbol),
de sustancias {oro, agua), de objetos de uso (m esa, p la to , m artillo) y muchos otros. Este
enorme acervo de conceptos sigue siendo usado por el adulto en las situaciones normales
de su vida cotidiana, y sólo es en contextos especiales, particularmente los científicos,
cuando se nota la insuficiencia de los conceptos clasificatorios y hay que pasar a otro tipo
de conceptos. Clasificar es la manera más simple y directa de subsumir múltiples y diver­
sos objetos bajo un mismo concepto y aprehender rasgos interesantes del mundo que nos
rodea, y en una amplia variedad de situaciones nos basta con ello para dar cuenta de las
cosas y transmitir información.
Desde el punto de vista de su forma lógica, los términos que expresan conceptos
clasificatorios son muy simples: son predicados monádicos. Desde el punto de vista con-
juntista, la extensión de un concepto clasificatorio es un conjunto simple, sin estructura
interna. La idea básica que se halla tras estos conceptos es la de clasificación. Clasificar
cierto dominio de objetos no es más que agruparlos en grupos disjuntos, ninguno de ellos
vacío, y tales que entre todos los grupos estén todos los objetos del dominio en cuestión.
Una clasificación de un dominio es simplemente, en términos conjuntistas, una partición
del mismo. Pues bien, si dicha partición se realiza mediante criterios sistem áticos, enton­
ces es preciso recurrir a ciertos conceptos, a una colección de conceptos que den los crite­
rios de agrupación. Estos son los conceptos clasificatorios, elementos de un sistema con­
ceptual que conjuntamente generan una partición del dominio de aplicación. La siguiente
definición semiformal expresa esta idea.

D efinición 4 .1 :

Un concepto C es un concepto clasificatorio para el dominio (no-vacío) de objetos


D si y sólo si pertenece a un sistema de conceptos {Cj, ..., Cn}, con n > 1, que
cumple las dos siguientes condiciones:
(1) Los objetos de D se subsumen bajo cada C, (1 < i < n) de acuerdo a criterios
sistemáticos.
(2) Las extensiones de cada C¡ (1 < i < n) constituyen, tomadas en su conjunto,
una partición de D.

Muchas pretendidas clasificaciones violan claramente los dos requisitos menciona­


dos. Un caso extremo y divertido, pero además interesante porque revela de manera insupe­
rable el modo como no debe hacerse una clasificación, es la supuesta “enciclopedia china”
102 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

que Jorge Luis Borges nos presenta en su relato El idioma analítico de John W ilkins , según
la cual “los animales se dividen en: a) pertenecientes al Emperador, b) embalsamados,
c) amaestrados, d) lechones, e) sirenas, f ) fabulosos, g) perros sueltos, h) incluidos en esta
clasificación, i) que se agitan como locos, j ) innumerables, k) dibujados con un pincel finí­
simo de pelo de camello, /) etcétera, m ) que acaban de romper el jarrón, n ) que de lejos pa­
recen moscas”.1 Es obvio que esta pretendida clasificación no cumple con los dos requisi­
tos arriba mencionados ni siquiera de manera aproximada. En efecto, no se puede detectar
en absoluto ningún criterio siguiendo el cual se haya construido esta clasificación de los
animales de modo sistemático, sino que es patente la absoluta arbitrariedad de la caracteri­
zación de los diversos grupos; por otro lado, las condiciones formales de una partición tam­
poco se cumplen, ya que hay clases vacías (como las categorías e) y /)), animales que pue­
den pertenecer a dos clases distintas (por ejemplo, que pertenezcan a a) y b) a la vez) o a
ninguna de las mencionadas (en realidad, la mayoría de los animales).
Naturalmente, ningún científico en su sano juicio propondría en serio una clasifi­
cación como la de la “enciclopedia china” de Borges. Sin embargo, en muchas clasifica­
ciones que se proponen en contextos científicos, si las analizamos con cuidado, encontra­
remos disonancias como las ejemplificadas jocosamente por Borges, aunque naturalmente
mucho menos obvias. Así, es frecuente que haya disputas entre los propios científicos so­
bre el criterio o los criterios que haya que seguir para construir la clasificación sistemáti­
camente; y en cuanto a su carácter de partición, suelen admitirse más o menos velada-
mente y de mala gana algunas “excepciones”. No se trata de negar, por supuesto, el valor
que puedan tener en un momento dado del desarrollo de una disciplina clasificaciones
que no cumplan exactamente con los requisitos mencionados; pero la comunidad científi­
ca debe ser consciente del carácter provisional de una clasificación no plenamente satis­
factoria y ello debe servir de estímulo para buscar mejores métodos de construcción de
clasificaciones.
Dado que fijar una partición sobre un dominio es lo mismo que determinar cierta
relación de equivalencia que “induzca” la partición, en vez de proceder directamente a
definir cada una de las clases que supuestamente van a constituir la clasificación, en mu­
chos casos lo más expedito y controlable es determinar primero en general una relación
empírica (atendiendo a criterios empíricamente controlables y sistemáticos) entre los ob­
jetos del dominio que queremos clasificar, de la cual suponemos o comprobamos que es
una relación de equivalencia. Si logramos identificar una relación con tales característi­
cas, ya habremos dado el paso esencial, puesto que una relación así nos inducirá automá­
ticamente una partición perfecta sobre el dominio estudiado. Y, además, no sólo obten­
dremos la partición deseada, sino que ésta habrá sido establecida a través de un criterio
sistemático, universal, que es el determinado por las condiciones empíricas expresadas
por la misma relación de equivalencia. Veamos algunos ejemplos.
Después de una larga historia de intentos de clasificar los cuerpos en sustancias
por sus diversas propiedades químicas, actualmente disponemos de una relación de equi­
valencia, apoyada en condiciones empíricamente controlables, que determina la partición

1. Cf. J. L. Borges: O bras com pleta s , Emecé, Buenos Aires, 1974, p. 708.
CONCEPTOS CIENTÍFICOS 103

de cierto dominio de cuerpos en verdaderas clases de equivalencia que son lo que llama­
mos “elementos químicos”. La relación de equivalencia en cuestión es la de igualdad en
el número de protones en los átomos respectivos; más precisamente, la relación R E que
buscamos entre cuerpos puede definirse así:

“Dados dos cuerpos, x, y: x R Ey syss los átomos de x tienen el mismo número


de protones que los átomos de y.”

Obviamente, ésta es una relación de equivalencia. Las condiciones empíricas para


establecer esta relación las proporciona la física atómica. Está claro que esta clasificación
no agota todos los cuerpos existentes en la Naturaleza; pero dentro del ámbito relativa­
mente restringido de los cuerpos que son sustancias puras no ulteriormente disociables en
sustancias químicamente distintas, la división en elementos es una buena partición.
Otro ejemplo es el siguiente. Desde los principios de la rama de la lingüística que
conocemos como ‘fonología’, hubo interés en segmentar el discurso hablado en unidades
mínimas de significación, es decir sonidos constituyentes de una palabra que no pudieran
modificarse sin que un hablante normal de la lengua en cuestión sintiera que se ha cam­
biado de palabra. De tales sonidos se dice que poseen un “valor distintivo”. Así, el sonido
castellano “11” tiene el mismo valor distintivo que “y”, porque en el discurso hablado no
se distingue la palabra “halla” de “haya” (a pesar de que puede haber ciertas diferencias
dialectales o hasta individuales en la forma como se pronuncian dichos sonidos). En cam­
bio, “11” tiene diferente valor distintivo que “1”, pues si en la palabra “olla” sustituimos la
“11” por “1”, obtenemos “ola”, que todo hispanohablante reconocerá como una palabra de
significado distinto. A las clases de equivalencia de sonidos que tienen el mismo valor
distintivo se las llama “fonemas”. Y la relación de equivalencia R F que da lugar a la parti­
ción en fonemas podríamos definirla así:

“Para dos sonidos cualesquiera jc, y: x R F y syss el valor distintivo de x es el


mismo que el de y para un hablante normal.”

Ésta es una relación que se puede determinar y controlar por métodos empíricos
de carácter general (fonéticos, estadísticos), y el hecho de que sea o no efectivamente una
relación de equivalencia (en particular, de que sea transitiva) es una cuestión empírica,
pero que parece bastante bien confirmada.
La historia que está detrás de estos dos ejemplos, y de muchos otros que podría­
mos mencionar, así como los problemas empíricos y teóricos que suscita el estableci­
miento y control de las relaciones de equivalencia en cuestión, muestran que no es fácil
fijar de una vez por todas cuál de varias relaciones de equivalencia que se presentan como
posibles en un dominio dado es efectivamente el candidato más adecuado para obtener la
clasificación que tenemos en mente. El proceso de selección de la relación de equivalen­
cia adecuada es a veces un proceso muy largo y costoso, para el que ni siquiera está claro
que se haya llegado a una conclusión satisfactoria. Este proceso puede incluso llegar a
formar parte de los esfuerzos centrales de una disciplina. Un buen ejemplo de ello es el
104 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

caso de la taxonomía biológica, en particular de la clasificación de los organismos en es-


pedes. En un principio, el criterio básico de clasificación de los organismos fue sus diver­
sas características morfológicas. Sin embargo, con el progreso de los estudios comparati­
vos y los análisis de detalle, pronto se vio que en muchas ocasiones es difícil decidir cuá­
les de las características morfológicas deben ser consideradas como las esenciales a una
especie, o bien la decisión se tomaba de manera arbitraria (es decir, no sistemática). Por
ello se buscó un mejor método de clasificación, basado en el criterio universal de la capa­
cidad reproductiva. Así, en los P rincipios de zoología sistem á tica de Ernst Mayr encon­
tramos que una especie se define como “un grupo de [organismos de] una población natu­
ral que se aparean actual o potencialmente, y que están reproductivamente aislados de
otros grupos semejantes”. Tratemos de fijar más precisamente la relación de equivalencia
que subyace a esta partición de los organismos en especies. La relación podría definirse
así en primera instancia:

“Dados dos organismos cualesquiera x, y: x pertenece a la misma especie que y


syss x puede aparearse reproductivamente con y bajo condiciones normales.”

En una elucidación más rigurosa hay que tomar en cuenta el hecho banal de que x
e y pueden tener el mismo sexo o incluso ser el mismo organismo. Si usamos *S‘ como
abreviatura notacional de ‘pertenece a la misma especie que’, y ‘A ‘ como abreviatura de
‘es apareable reproductivamente con’, entonces podremos definir la relación que busca­
mos de la siguiente manera:

Vx,y: xS y <^def 3 z ((xAz v x = z) a (yA z v y = z ))

Admitiendo que el aparearse reproductivamente es una relación simétrica, es fácil


ver que la relación así definida es una relación de equivalencia (dejamos la prueba de ello
al lector como ejercicio).
Ahora bien, si pretendemos aplicar esta relación universalmente nos enfrentare­
mos a problemas difíciles de resolver en algunos casos concretos. A veces será difícil de­
cidir cuáles son las “condiciones normales” que deben darse para que se posibilite un apa­
reamiento reproductivo; asimismo, está claro que el criterio no es aplicable a los organis­
mos asexuados, y sin embargo, también queremos clasificar éstos en especies; finalmen­
te, la existencia de híbridos también nos puede provocar algún problema. En consecuen­
cia, si bien la propuesta de una relación de equivalencia para los organismos basada en el
criterio de apareamiento reproductivo es muy útil en una gran mayoría de casos, todavía
no es perfecta, dado que habrá casos en que su aplicación será dudosa cuando no imposi­
ble. En particular, el requisito de partición no siempre quedará satisfecho, ya sea porque
no se agota el dominio entero de los organismos (los asexuados quedan fuera), o bien por­
que algunos organismos (los que son capaces de engendrar híbridos) pertenecerán a dos
clases distintas. En el primer caso se viola la condición de exhaustividad y en el segundo
la de mutua exclusión. Por todo ello, los biólogos han tratado de desarrollar un criterio de
especie que sea más general y confiable que el criterio reproductivo y que no dé lugar a
CONCEPTOS CIENTÍFICOS 105

excepciones y traslapes; ello se ha intentado a través de nociones genéticas. Sin embargo,


también aquí han surgido problemas en los últimos años, sobre todo con el auge de la in­
geniería genética, que parece haber afectado seriamente la idea misma de especie, al me­
nos a nivel de los microorganismos.
Hemos considerado este ejemplo con cierto detenimiento porque es bastante típi­
co de la clase de problemas que puede enfrentar el intento de una clasificación científi­
ca, y al mismo tiempo del papel que juega el esfuerzo por aproximarse a las condiciones
ideales de una clasificación para el progreso de una disciplina. Ambos requisitos estipu­
lados, y especialmente el de partición, constituyen un ideal hacia el cual tienden o se
aproximan las clasificaciones científicas. Su papel es estimular la investigación, a veces
a un nivel muy profundo, para dar con clasificaciones mejores que las presentes, cuando
éstas no cumplen exactamente los requisitos mencionados. Los principales problemas
metodológicos que pueden surgir al intentar una clasificación científica de cierto domi­
nio son los siguientes. En primer lugar, los criterios sistemáticos que haya que seguir
para establecer la relación de equivalencia necesaria pueden no estar claramente formu­
lados o ser muy difíciles de aplicar en la práctica; además, puede no haber consenso en­
tre los especialistas acerca de cuál de entre varios criterios posibles es el más adecuado.
En segundo lugar, las dos condiciones necesarias para obtener una verdadera partición
pueden encontrar “excepciones”, es decir, la relación que subyace a la partición puede
no ser exactamente una relación de equivalencia, sino sólo serlo de manera aproximada:
pueden encontrarse objetos del dominio que no han sido “cubiertos” por ninguna clase
de la partición, o bien otros objetos que pertenecen a la vez a dos clases distintas. Hay,
naturalmente, un cierto margen de tolerancia para tales excepciones. Si no son muy nu­
merosas, o sistemáticas, puede que la clasificación se acepte tal como está ... hasta nue­
vo aviso.
Además de los dos requisitos postulados para toda buena clasificación (el de siste-
maticidad y el de generar una partición), pueden tomarse en consideración otras caracte­
rísticas posibles de las clasificaciones que, si bien no son necesarias, pueden resultar con­
venientes en un área dada. Entre estas condiciones adicionales que se pueden requerir de
una clasificación está, en primer lugar, la de que el número de clases de equivalencia
de que conste la partición no sea demasiado reducido para nuestros propósitos. En gene­
ral, cuanto mayor sea el número de clases de equivalencia obtenidas en la partición, tanto
mejor pues tanto mayor será la capacidad de discriminación de la clasificación propuesta;
aunque, claro está, este número tampoco debe ser tan grande que haga que la clasificación
resulte impracticable. Las clasificaciones más pobres desde el punto de vista de su poder
discriminatorio son las dicotómicas, que constan sólo de dos clases de equivalencia. Y,
dentro de las dicotomías, las menos útiles son las que resultan simplemente de afirmar o
negar una determinada propiedad de los objetos de un dominio. Por ejemplo, si dividimos
los habitantes de un país entre los que poseen un título universitario y los que no lo po­
seen, aunque ésta es una clasificación que satisface perfectamente los dos requisitos fun­
damentales, sin embargo no es un tipo de clasificación que nos sirva de gran cosa desde
un punto de vista científico. Más interesantes son las dicotomías basadas en dos propieda­
des lógicamente independientes, pero que empíricamente resulta que agotan entre ambas
106 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

el dominio que se considera. Piénsese, por ejemplo, en el valor que tiene para la biología
la división de los organismos sexuados entre machos y hembras (que no hay que confun­
dir con una posible división, mucho menos interesante, que se hiciera entre hembras y
no-hembras, pongamos por caso). Como regla general, sin embargo, las dicotomías son
poco interesantes desde un punto de vista científico (si bien son muy frecuentes en nues­
tra vida cotidiana como un modo “rápido” de enfrentamos al mundo que nos rodea*, divi­
siones como las que se establecen entre “buenos” y “malos”, “amigos” y “enemigos”, “ri­
cos” y “pobfeá”, etc.).
Cuando sobre un mismo dominio se han establecido dos diferentes clasificacio­
nes, cuyas particiones correspondientes P } y P2 cumplen lo siguiente:

V A e P t 3 B e P2A c B,

es decir, intuitivamente, que las clases de equivalencia de que consta la partición P t son
“subdivisiones” de las de P 2 (y por tanto P\ tiene un mayor número de clases que P 2), en­
tonces diremos que la clasificación correspondiente a P\ es m á s fin a que la clasificación
correspondiente a P 2. Está claro que, dadas dos clasificaciones del mismo dominio, tales
que una sea más fina qué la otra, preferiremos adoptar la más fina, pues nos proporciona
mayor poder de discriminación.
Las clasificaciones más útiles son las que forman parte de je ra rq u ía s taxonóm icas
o, como también se las llama, árboles clasificatorios. Se trata de árboles, o “pirámides”
resultantes de la sucesiva superposición de clasificaciones de tal manera que en cada nivel
de la pirámide tenemos una clasificación más fina que en el nivel anterior. Un ejemplo
sencillo de una pirámide taxonómica lo encontramos en la clasificación de los cuerpos
desde el punto de vista químico:

Cuerpos

homogéneos heterogéneos

soluciones sustancias

elementos compuestos

F ig . 4.4.

Esta es una clasificación muy simple porque procede por sucesivas dicotomías (aunque
esto no le quita su valor). Jerarquías taxonómicas mucho más complicadas las encontra­
mos en biología, donde han jugado un enorme papel en la investigación. Un segmento de
una de esas jerarquías es el siguiente:
CONCEPTOS CIENTÍFICOS 107

Animales

protozoos poríferos celenterados equinodermos vermes artrópodos moluscos cordados

vertebrados protocordados

mamíferos aves reptiles anfibios peces

F ig . 4.5.

Otra jerarquía zoológica mucho más refinada consiste en la siguiente pirámide:

Animales

protozoos metazoos

mesozoos parazoos eumetazoos

celenterados bilateralios

gastroneuraüos archicelorados notoneuralios

cordados

tumicados acranios vertebrados

agnatos gnatótomos

peces tetrápodos

anfibios reptiles aves mamíferos

FiG. 4.6.
108 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

Cada uno de los rótulos representa una clase de equivalencia de una partición de
los animales a cierto nivel. Las clasificaciones son cada vez más finas de arriba abajo.
Naturalmente que estos esquemas representan sólo una pequeña parte de la pirámide total
de la clasificación de los animales. Cuando las clases de equivalencia de una partición
forman parte de una pirámide o jerarquía taxonómica se las suele denominar ‘taxones’.
En estos ejemplos, co rd a d o , vertebrado y m am ífero son tres distintos taxones de clasifi­
caciones sucesivamente más finas en las jerarquías respectivas.

3. Conceptos com parativos

Desde un punto de vísta metodológico, los conceptos comparativos constituyen


una categoría intermedia entre los conceptos clasificatorios y los métricos o cuantitativos.
Históricamente, ha ocurrido con frecuencia que los conceptos comparativos han sido la
antesala de los conceptos cuantitativos que se han introducido posteriormente. Ello sugie­
re que, cuando una rama de la ciencia aún no ha alcanzado una fase de su desarrollo que
le permita la introducción sistemática y adecuada de conceptos métricos, no por ello hay
que creer que está limitada al uso de conceptos clasificatorios, sino que posiblemente se
halle en capacidad de hacer uso de conceptos comparativos. Los conceptos comparativos,
si se definen adecuadamente, son mucho más potentes que los conceptos clasificatorios
que les corresponden, puesto que no sólo nos permiten clasificar un dominio dado, sino
que además permiten ordenarlo. A cada concepto comparativo genuino se le asocia inva­
riablemente un conjunto de conceptos clasificatorios, de modo que puede decirse que el
primero implica los segundos; pero implica algo más: un ordenamiento de los objetos
subsumidos bajo él.
Los conceptos comparativos fueron muy usuales en los estadios iniciales de la fí­
sica; por ejemplo, los conceptos de peso y calor se usaron sistemáticamente como con­
ceptos comparativos antes de que se pudieran manejar apropiadamente como conceptos
cuantitativos en sentido genuino. Asimismo, los conceptos comparativos son todavía muy
útiles en otras áreas de la ciencia: en psicología (por ejemplo, los conceptos de inteligen­
cia, introversión, neuroticidad), en biología (el concepto de adaptación y otras nociones
de la teoría de la evolución), en geología (el concepto de dureza, por ejemplo), en quími­
ca clásica (el concepto de acidez).
Desde un punto de vista lógico, los conceptos comparativos son de carácter rela-
cional; o, dicho más rigurosamente, los términos que expresan conceptos comparativos
están constituidos lógicamente hablando por dos predicados diádicos estrechamente inter­
conectados: uno ‘K ’ que denota una relación de coincidencia o equiva len cia en cierto res­
pecto, y otro iP ' que denota una relación de precedencia. Ambas relaciones deben estar
definidas, naturalmente, sobre el mismo dominio de objetos empíricos. La primera rela­
ción es la que nos permite clasificar ese dominio y la segunda (junto con la primera) orde­
narlo, La idea es que 'xKy* significa “x es tan ... como y”, o “x es equivalente en ... a y”
(p.ej., x es tan duro como y, o x es equivalente en dureza a y); y ‘xPy’ significa “x es más
... que y”, o “x precede en ... a y ” (p.ej., x es más duro que y, o x precede en dureza a y).
CONCEPTOS CIENTÍFICOS 109

Se pueden presentar las cosas de modo equivalente mediante una única relación de orden
R , cuya interpretación pretendida es que ‘x R y ’ significa “x es tan o más ... que y” (p.ej. *
es tan o más duro que y). Ambas presentaciones son equivalentes: si utilizamos la prime­
ra, podemos definir ‘x R y ’ como ‘x K y o xPy’ (R es “la unión” de K y P); si utilizamos la
segunda, podemos definir ‘x K y ’ como ‘xR y y y R x ’ y lx P y ’ como *xRy y no y R x \ Aquí va­
mos a seguir la primera versión pues es más intuitiva, y notacionalmente más cómoda,
para introducir los conceptos comparativos; en otros lugares, donde interese especialmen­
te la conexión entre conceptos comparativos y conceptos métricos, será más conveniente
utilizar la segunda (cf. próxima sección y el capítulo 6).
Para que el concepto que lleva asociadas las relaciones K y P sea un concepto
comparativo, estas relaciones deben satisfacer ciertas condiciones específicas, tanto cada
una por separado como conjuntamente. La idea es entonces que C es un concepto compa­
rativo si su extensión es la unión de dichas relaciones. Las condiciones en cuestión son,
utilizando de nuevo el instrumental de la teoría de conjuntos, las que establece la siguien­
te definición.

D efinición 4.2:

Un concepto relacional C es un concepto comparativo para el dominio (no-vacío)


de objetos D si y sólo si existen dos relaciones K y P sobre dicho dominio tales
que la extensión de C es K u P y se cumplen además las siguientes condiciones:

(1) Dom K = Rec K - Dom P = Rec P = D.


(2) K es reflexiva, simétrica y transitiva, e.e., una relación de equivalencia.
(3) P es transitiva.
(4) K y P son mutuamente excluyentes: Vx, y e D {xKy -> xPy).
(5) K y P son conjuntamente conexas: Vx, y e D (xK y v x P y V yP x).

Está claro que, por el carácter que tiene K de relación de equivalencia, induce una
partición en clases de equivalencia del dominio D y por lo tanto una clasificación de di­
cho dominio. Por su parte, la relación P cumple la función de ordenar el dominio, puesto
que es una relación de orden, esto es, es al menos asimétrica y transitiva. Que es transiti­
va es inmediato por (3). Para ver que es asimétrica supongamos, por reducción al absur­
do, que no lo es, e.e., que hay x, y tales que x P y y yP x. Puesto que es transitiva, obtene­
mos xP x. Por otro lado sabemos que x K x pues K es reflexiva. Pero las dos cosas, x P x y
xK x, no pueden ocurrir, pues por (4) K y P son excluyentes. Por tanto, si xP y entonces no
yP x (QED).
Además de las condiciones formales generales establecidas en la definición, el
concepto comparativo debe satisfacer determinadas condiciones materiales u operaciona-
les\ su extensión no se puede determinar de modo puramente formal, se debe determinar
de modo sistemático pero “operacional”: las relaciones K y P no pueden ser escogidas de
una manera puramente formal, sino que deben ir asociadas a ciertas operaciones o situa­
ciones empíricamente controlables, las cuales permitan decidir si se dan o no dichas reía-
no FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

ciones en un dominio de objetos. A veces, esto se determina a partir de alguna teoría em­
pírica general ya aceptada, pero en otras ocasiones, especialmente en áreas relativamente
elementales o en fases iniciales de una disciplina, la validez empírica de tales relaciones
puede establecerse a partir de operaciones sencillas de laboratorio junto con ciertas hipó­
tesis bastante elementales, de bajo nivel teórico. Veamos un ejemplo de esta última si­
tuación.
Consideremos el concepto p e so antes de que fuera me trizado, o incluso en situa­
ciones actuales en las que no es necesario presuponer que disponemos del concepto mé­
trico de peso, sino sólo de su correlato comparativo. En realidad, desde el punto de vista
de la física teórica, lo que vamos a considerar a continuación es el concepto m a sa , pero
a efectos de la discusión presente podemos asumir que estamos tratando del concepto
más cotidiano de peso, tal como se aplica, por ejemplo, en los mercados. Pues bien, para
determinar operacionalmente este concepto debemos asociar a operaciones empírica­
mente controlables la noción comparativa de peso; esto es, debemos dar un sentido ope­
racional a la relación Kp de coincidencia de pesos y a la relación Pp de precedencia de
pesos. Esto se puede hacer mediante el uso de una balanza de brazos iguales. Compara­
remos el peso de dos objetos x , y del dominio considerado (objetos macroscópicos no
demasiado grandes ni demasiado pequeños) colocándolos cada uno en uno de los dos
platillos de la balanza. Entonces, determinaremos operacionalmente las relaciones K p y
Pp de la siguiente manera: a) si los platillos de la balanza permanecen ambos a la misma
altura, diremos que x pesa igual que y, x K y ; b) si la balanza desciende del lado del plati­
llo con x , diremos que x pesa más que y, xP y (por otro lado, cuando x = y, convenimos
en que en tal caso también x K y ).
Es fácil comprobar que las relaciones K p y Pp así determinadas operacionalmente
mediante operaciones con una balanza cumplen las condiciones de un concepto compara­
tivo. En efecto, la relación “ser tan pesado como”, determinada del modo indicado (nive­
lación de platillos de la balanza) cumple con los requisitos de reflexividad (por conven­
ción), simetría (da igual si cambiamos de platillo los objetos, éstos seguirán estando al
mismo nivel si lo estaban antes) y transitividad (si el objeto x permanece ai mismo nivel
que el objeto y y luego vemos que el objeto y permanece al mismo nivel que el objeto z,
podemos comprobar que el objeto x también permanecerá al mismo nivel que el objeto z).
Con ello queda garantizado que la relación Kp, al menos dentro de los límites de este
modo de aplicarla empíricamente, es una relación de equivalencia. Análogamente es fácil
comprobar que la relación “ser más pesado que”, así determinada (diferencia de nivel de
los platillos), es transitiva (si el platillo con y está más bajo que el platillo con x, y luego
el platillo con z está más bajo que el platillo con y, también el platillo con z estará más
bajo que el platillo con x). Igualmente fácil es comprobar que ambas relaciones son mu­
tuamente excluyentes y conjuntamente conexas (dejamos la constatación de estos dos úl­
timos casos al lector).
Es importante señalar que el hecho de que podamos asociar (no “definir”) las no­
ciones de coincidencia y precedencia de peso a operaciones empíricas con una balanza de
la manera indicada, garantizando que se cumplan las condiciones de definición de los
conceptos comparativos, es un resultado empírico, apoyado en ciertas hipótesis empíricas
CONCEPTOS CIENTÍFICOS 111

acerca del comportamiento de una balanza, y no un asunto de mera convención. Solamen-


te la reflexividad de Kp y la mutua exclusión de K¡, y Pp se derivan analíticamente de con­
venciones o del uso normal de nuestro lenguaje. La satisfacción de los demás requisitos
es, en cambio, un asunto empírico, lo cual se constata en el hecho de que podríamos ima­
ginamos situaciones en que no se satisficieran. Por ejemplo, consideremos la transí ti vidad
de K p en la determinación del peso mediante la balanza: podría ocurrir que cuando están
sobre los platillos los objetos r e y permanecieran a igual nivel, y lo mismo cuando estu­
vieran y y z\ pero que, en cambio, al colocar sobre los platillos x y z* se notara una dife­
rencia de nivel. Que esto no ocurra no es una necesidad lógica, sino una hipótesis empíri­
ca acerca de las balanzas (de hecho, en balanzas algo “defectuosas” se viola a veces la
transí ti vidad). La misma constatación podemos hacer con respecto a la simetría de Kp y a
la transitividad de Pp. Incluso la conexión conjunta de Kp y Pp es una hipótesis empírica,
pues podría ocurrir que, en ocasiones, al colocar sobre los platillos dos determinados ob­
jetos, la balanza se pusiera a oscilar permanentemente sin alcanzar nunca un equilibrio,
por lo que no podríamos determinar si se da coincidencia o precedencia de pesos en algún
sentido u otro. En resumen, el hecho de que podamos aseverar que un determinado con­
cepto comparativo va asociado a ciertas operaciones u observaciones empíricas es una
cuestión hipotético-empírica (y a veces incluso fuertemente teórica) y no un asunto de
mera definición. En general, no podemos decir que los conceptos comparativos vienen
definidos por las operaciones u observaciones empíricas asociadas a ellos (como tampoco
lo podemos decir en el caso de los criterios empíricos asociados a los conceptos clasifi-
catorios).
Con frecuencia, las relaciones empíricamente determinadas que van asociadas a
un concepto comparativo que queremos introducir de nueva cuenta en una disciplina
científica no cumplen exactamente las condiciones formales de la definición de conceptos
comparativos, sino sólo de modo aproximado. Análogamente al caso de los concep­
tos clasificatorios, las condiciones formales representan un ideal al que hay que tender
pero que no siempre se alcanza plenamente. Un buen ejemplo de ello es el concepto com­
parativo d u reza , que se introduce en mineralogía asociándolo a la prueba empírica de la
“raya”. Las relaciones de precedencia y coincidencia en este caso se determinan operacio-
nalmente del siguiente modo: x es más duro que y si y sólo si x raya a y; x es tan duro
como y si y sólo si x no raya a y ni y a x. También en este caso, las condiciones de reflexi­
vidad de la coincidencia y de mutua exclusión de coincidencia y precedencia se despren­
den analíticamente de nuestro uso lingüístico, pero no así el resto de condiciones, cuya
satisfacibilidad depende de hipótesis empíricas acerca de los minerales. Pero, además, en
este caso dichas hipótesis no siempre se cumplen, por lo que algunas de las condiciones
postuladas para los conceptos comparativos (especialmente la transitividad) sólo se cum­
plen de manera aproximada. No obstante estas dificultades, la “prueba de la raya” se con­
serva en la mayoría de los casos como determinación operacional del concepto de dureza
hasta tanto no se encuentren mejores determinaciones operacionales o hasta tanto las de­
terminaciones alternativas sean demasiado difíciles de aplicar en la práctica.
Hemos indicado ya que todo concepto comparativo, a través de la relación P de
precedencia, implica un ordenamiento de los objetos del dominio considerado de “más a
112 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

menos” (o de “menos a más”, según se quiera considerar), además de la clasificación de


dichos objetos en clases de objetos coincidentes. Este ordenamiento de los objetos se ex­
presa en ocasiones mediante números, mediante lo que se llama una “escala ordinal”. El
orden de los números refleja así el orden de los objetos a los que se adscriben dichos nú­
meros. Por ejemplo, en el caso del concepto de dureza introducido en mineralogía, Frie-
drich Mohs estipuló una escala numérica del 1 al 10, según la cual, al mineral más blan­
do, el talco, se le asigna el número 1 y al más duro, el diamante, se le asigna el 10, siendo
los demás minerales ordenados entre estos dos extremos según su mayor o menor grado
de dureza por comparación con los demás. Asimismo, en psicología, al concepto de inte­
ligencia (que es un concepto comparativo) se le asignan números, llamados ‘cocientes de
inteligencia’, que representan el nivel de inteligencia de manera fácilmente comparable y
memorizable. Todos estos ejemplos de conceptos comparativos a los que se asignan nú­
meros, sin embargo, no nos deberían confundir y hacer creer que estamos tratando con
conceptos realmente cuantitativos, métricos. Las escalas numéricas introducidas en estos
casos son sólo escalas ordinales, no escalas métricas, en un sentido genuino, sobre cuya
naturaleza hablaremos en el próximo apartado. La diferencia esencial entre ambos tipos
de asignaciones numéricas se comprueba por el hecho de que con los números asignados
a los conceptos comparativos no tiene sentido efectuar las consabidas operaciones aritmé­
ticas y algebraicas, como sumar, multiplicar, sacar raíces, etc., y mucho menos aplicar las
operaciones de cálculo superior (¿qué sentido tendría sumar cocientes de inteligencia o
sacar la raíz cuadrada de un grado de dureza?, sobre esto, cf. más adelante cap. 6). Los
números que se utilizan en el caso de los conceptos comparativos no expresan realmente
la medida de ninguna magnitud, sino que son sólo un modo simple y conveniente de ex­
presar un orden; en vez de números, también podríamos usar las letras del alfabeto y esti­
pular, por ejemplo, que en una escala de dureza, al talco le corresponde la letra ‘a’ y al
diamante la letra ‘j \ Los números asignados a los conceptos comparativos son en realidad
únicamente n u m era les , no expresan cantidades o magnitudes; no presuponen una m étrica
definida de manera “natural” sobre el dominio en cuestión, es decir, una métrica asociada
a operaciones matemáticas que reflejan operaciones o relaciones empíricas.

4. Conceptos m étricos: estudio prelim inar

Los conceptos métricos o cuantitativos son característicos de las ramas más


avanzadas de la ciencia. Casi todos los conceptos fundamentales de la física son métri­
cos, pero ellos también aparecen en otras disciplinas de naturaleza bastante distinta a
la de la física, como pueden ser la genética de poblaciones, la teoría del aprendizaje o la
microeconomía. El uso sistemático y generalizado de conceptos métricos en una disci­
plina implica, entre otras cosas, que está a nuestra disposición para esa área de estudios
empíricos todo el potencial de la matemática. Al proceso que conduce a tal uso se le lla­
ma a veces “matematización” de una disciplina dada, proceso que, como sabemos, fue
el elemento probablemente más decisivo de la revolución científica del siglo x v n y el
que dio lugar a la física moderna. Ahora bien, la frase ‘matematizar una disciplina’ debe
CONCEPTOS CIENTÍFICOS 113

tomarse con un poco de cuidado, ya que, a fin de cuentas, no sólo el uso de conceptos
métricos, sino la introducción adecuada de conceptos clasificatorios y comparativos im­
plica ya ciertos supuestos de carácter matemático (conjuntista), si bien de nivel elemen­
tal. Si la idea de “matematizar” se asocia generalmente con la introducción sistemática
de conceptos métricos es porque sólo estos últimos permiten un uso generalizado de las
porciones más “potentes” de la matemática (y al mismo tiempo las más clásicas), como
son la aritmética, la geometría, el álgebra y el cálculo. Es sólo a través del puente que
constituyen los conceptos métricos entre la realidad empírica y dichas porciones de las
matemáticas que un amplio espectro de procesos empíricos puede tratarse como si fue­
ran operaciones matemáticas, y esto a su vez es lo que permite un alto grado de preci­
sión en la explicación y predicción de dichos procesos.
Los conceptos métricos están íntimamente conectados, como indica su nombre,
con la idea de medir cosas y procesos. Ahora bien, medir no consiste simplemente en
asignar números a las cosas, puesto que ello también puede realizarse de manera trivial
en el caso de los conceptos clasificatorios y comparativos. Medir es asignar números a
objetos empíricos para representar determinadas propiedades específicas de los objetos
denominadas m agnitudes, representación que permite utilizar de modo empíricamente
significativo operaciones matemáticas interesantes (adición, multiplicación, potenciación,
derivación e integración, etc.) entre los valores numéricos asignados. En otras palabras, la
medición permite hacer cálculos con relevancia empírica, y en particular permite hacer
predicciones muy precisas.
Podemos resumir las ventajas de los conceptos métricos sobre los clasificatorios y
comparativos en los siguientes puntos.

á) Las divisiones y diferenciaciones que pueden hacerse empleando conceptos


métricos son mucho más finas y precisas que las que pueden hacerse mediante los otros
tipos de conceptos. Es decir, los conceptos métricos también permiten clasificar y compa­
rar los objetos de un dominio dado, pero lo hacen de manera mucho más precisa que sus
contrapartidas no-métricas. Por ejemplo, en vez de clasificar las diversas velocidades de
los cuerpos de acuerdo a los conceptos de ‘muy lento’, ‘lento’, ‘rápido’ y ‘muy rápido’, o
de compararlas según una “mayor o menor rapidez”, introducimos el concepto métrico de
velocidad y podemos hacer las clasificaciones y comparaciones de manera mucho más
fina.
tí) Los conceptos métricos permiten enunciar leyes empíricas que son más gene­
rales y precisas, y por ende mejor controlables, que las leyes formuladas con conceptos
no-métricos.
c ) Como consecuencia de las características a) y tí), los conceptos métricos per­
miten explicaciones y predicciones mucho más exactas y controlables.

Desde un punto de vista formal, la extensión de un concepto métrico es una f u n ­


ción num érica, o mejor, como en seguida veremos, un conjunto de tales funciones. Lo
esencial de los conceptos clasificatorios es que ellos nos permiten realizar clasificaciones
de los objetos del dominio, por eso se caracterizan porque su extensión es (un elemento
114 FUNDAMENTOS DE FILOSOFÍA DE LA C¡ENCIA

de) una partición. Lo esencial de los conceptos comparativos es que nos permiten realizar
comparaciones cualitativas entre los objetos del dominio, por eso se caracterizan porque
su extensión es una relación de orden (K P). Pues bien, lo esencial de los conceptos métri­
cos es que nos permiten realizar asignaciones numéricas a los objetos del dominio de
modo empíricamente significativo, y por eso se van a caracterizar porque sus extensiones
son (determinados tipos de) funciones numéricas sobre dicho dominio.
Así pues, el problema básico en el intento de metrizar un área de conocimiento
consiste en encontrar la función o conjunto de funciones métricas apropiadas. Una vez
encontrado ello, podemos decir que, en cierto sentido, hemos “identificado” los objetos
del dominio estudiado con números reales (o entidades matemáticas derivadas, como vec­
tores, matrices, tensores, etc.). Entonces, en vez de considerar directamente las relaciones
y operaciones empíricas que se dan entre los objetos estudiados, podemos concentrar
nuestra atención sobre las relaciones y operaciones entre los números que representan las
propiedades de los objetos empíricos, y a través de ello, indirectamente, ganamos infor­
mación sobre los mismos objetos y sus propiedades representadas. Este modo de proceder
nos permite un grado mucho más alto de exactitud y potencia predicó va del que obten­
dríamos operando directamente con los objetos empíricos, puesto que las teorías matemá­
ticas existentes nos informan detallada y exactamente sobre cómo operar con números y
sobre las propiedades generales que tienen tales operaciones. Además, los límites prácti­
cos que suelen darse en la manipulación de objetos empíricos no se dan en la manipula­
ción de números, para lo cual lo único que necesitamos es papel y lápiz, o a lo sumo una
computadora. Este proceso de identificar los objetos empíricos con números y las opera­
ciones empíricas con operaciones matemáticas, manejando luego estas últimas para obte­
ner información indirecta sobre los primeros, es a lo que puede denominarse más genuina-
mente “matematización de la realidad”. Al contrario del caso de los conceptos comparati­
vos, la asignación de números a objetos empíricos en este proceso no es arbitraria y
no-operacional, sino que con ella se expresan importantes y reales conexiones empíricas en­
tre los mismos objetos. Operamos con los números “como si” operásemos con los objetos.
En la primera sección dijimos que los conceptos comparativos suponen un refina­
miento o reforzamiento respecto de los clasificatorios, y que lo mismo ocurre con los mé­
tricos respecto de los comparativos. En la sección anterior hemos visto en qué sentido es
así en el primer caso: a todo concepto comparativo “subyace” uno clasificatorio (expresa­
do mediante la relación de coincidencia K). Pues bien, en ese mismo sentido es así en el
segundo caso. A cualquier concepto métrico subyace explícita o implícitamente un con­
cepto comparativo correspondiente (y por tanto otro clasificatorio); medir determinada
magnitud en un dominio de objetos implica, entre otras cosas, la posibilidad de (clasifi­
carlos y) compararlos en relación con dicha magnitud. La recíproca, naturalmente, no es
cierta, pues no siempre la introducción de un concepto comparativo permite construir
ipso ja c to un concepto métrico correspondiente (como tampoco la introducción de un
concepto clasificatorio permite siempre la introducción de otro comparativo).
Entre muchos filósofos y científicos prevalece la idea de que un concepto métrico,
para ser adecuado, debe ser “construido” a partir de un concepto comparativo previo,
A veces se llega incluso más allá en este requerimiento y se exige que el concepto métri­
CONCEPTOS CIENTÍFICOS 115

co sea definible en términos de un concepto comparativo. Y se afirma que, aun cuando en


muchos casos ello no se ha llevado a cabo efectivamente, eso se debe al estado concep­
tualmente defectuoso de los fundamentos de la disciplina, y que la misión del filósofo de
la ciencia o del investigador de fundamentos debería consistir justamente en proporcionar
tal definición en los casos en que no se ha hecho. Esta visión de la relación entre los con­
ceptos métricos y comparativos es característica del operacionalismo y otras corrientes
metodológicas afines, según las cuales todo concepto científico, métrico o no, debe estar
completamente determinado por observaciones u operaciones de laboratorio (cfi Bridg-
man, 1927, 1951a y 1951¿>). La idea básica es que un concepto métrico no es empírica­
mente adecuado hasta que no se muestre que, “en principio”, es reducible a uno compara­
tivo previamente introducido.
Esta visión tan restrictiva de los conceptos métricos descansa en el prejuicio de
que sólo es posible introducir un concepto métrico a través de su definición o construc­
ción a partir de un concepto comparativo previamente disponible. El hecho de que a todo
concepto métrico subyace otro comparativo no quiere decir que la introducción de
un concepto métrico sea siempre “posterior” a la introducción de uno comparativo “pre­
vio”. En muchos casos así es, y los conceptos métricos introducidos de manera indepen­
diente corresponden de modo bastante natural a conceptos comparativos previos, en un
sentido o bien histórico (porque ya se aplicaban en la disciplina en cuestión antes de que
ésta fuera metrizada), o bien epistemológico (porque nuestro conocimiento del modo de
aplicarlo o controlarlo es más directo en el caso del concepto comparativo que en el de su
asociado métrico). Así ocurre por ejemplo con los conceptos métricos de m a sa , longitud
o tem peratura (term om étrica). Pero esta prioridad (histórica o epistemológica) de los
conceptos comparativos frente a los métricos no tiene por qué darse siempre. Con fre­
cuencia se introduce un concepto métrico directamente, ya sea a partir de una teoría esta­
blecida o como simple recurso de cálculo, sin que se haya pensado previamente en un
concepto comparativo correspondiente y sin que éste tenga ningún interés. Esto suele
ocurrir en ramas particularmente avanzadas y abstractas de la ciencia. Conceptos métricos
como el de in ten sid a d de cam po en el electromagnetismo, entropía en termodinámica, la-
grangiano en mecánica clásica o fu n c ió n de onda en mecánica cuántica, fueron introduci­
dos en su momento, y se manejan en la actualidad, sin tomar en cuenta el concepto com­
parativo subyacente. En estos, y muchos otros casos, lo que confiere significado empírico
a la mayoría de conceptos métricos es su inserción en una teoría empírica determinada a
la cual podemos atribuir un significado empírico en su totalidad. De qué manera ocurre
esto, lo veremos en capítulos posteriores de este libro (cf. caps. 8 , 9 y 10). De momento,
baste señalar que en muchos casos (de hecho en la mayoría), la introducción de un con­
cepto métrico, con su significado empírico propio, se realiza en el contexto de una teoría,
es decir, en conexión con otros múltiples conceptos (métricos o no), y no por el expedien­
te de reducirlo a un concepto comparativo. Para la mayoría de conceptos métricos no hay
razón, pues, para exigir que sean introducidos a partir de conceptos comparativos previos,
eso sólo es así de algunos conceptos métricos, como los mencionados más arriba. Volve­
remos sobre estos dos modos de introducir conceptos métricos en el capítulo 6 .
Estas consideraciones no suponen negar que en muchos casos sea interesante y
116 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

fructífero identificar el concepto comparativo implícito en un concepto métrico dado, y


averiguar cuál es la relación formal entre ambos. Ello tiene un doble interés: empíri­
co-científico, por contribuir a un mejor control empírico del concepto métrico en casos de
duda; y metacientífico o filosófico, porque permite establecer ciertas distinciones entre
subtipos de conceptos métricos y su modo de ser aplicados. Esta cuestión, a la que se ha
dedicado mucha atención en la literatura de filosofía de la ciencia, tanto en sus primeros
tiempos como en época reciente, se estudiará en detalle en el capítulo 6. Por el momento,
bastarán para esta introducción preliminar las observaciones siguientes.
Cuando el concepto métrico es introducido a partir de uno comparativo previo, se
debe dar cierta condición de dependencia entre ambos, consistente fundamentalmente en
que la función correspondiente al concepto métrico preserva el orden de la relación co­
rrespondiente al concepto comparativo. Si K vj P es la extensión del concepto comparati­
vo y /e s una de las funciones de la extensión del concepto métrico, entonces:

(MI) Dom ( K ' u P ) - Dom/.


(M2) R e c / c Re.
(M3) V x ,y ( x K y ^ f{ x ) = f{ y ) ) .
(M4) V x ,y ( x P y < r > f( x ) > f( y ) ) .

Para que, dado un concepto comparativo, exista una función con estas característi­
cas, y que podamos por tanto decir que existe un concepto métrico que corresponde al
comparativo, es necesario que la relación cualitativa de comparación K u P satisfaga
ciertas condiciones. Por lo general hay varias posibilidades, varios grupos de condiciones
suficientes que garantizan la existencia de una función tal. En casi todos los casos, tales
condiciones involucran elementos adicionales a K vj P, por ejemplo una operación de
co m b in a ció n , o una relación de com paración entre p a res de objetos, u otros más compli­
cados. Cuando es así, hay que añadir a M1-M4 otras cláusulas adicionales que expliciten
el modo en que la función numérica debe preservar esos elementos empíricos cualitativos
adicionales. No vamos a ver aquí las diversas posibilidades y los diversos grupos de con­
diciones para cada una. De ello se ocupa la llamada Teoría de la Metrización Fundamen­
tal, que veremos en el capítulo 6 (§3).
Concluiremos esta presentación preliminar de los conceptos métricos presentando
la noción de escala y, en relación con ello, aclarando el sentido en el que conviene identi­
ficar la extensión de un concepto métrico, no con una única función métrica, sino con una
clase de tales funciones, equivalentes en cuanto a su ca p a cid a d representacionaL
Las funciones/específicas que asignan números reales a cada objeto del dominio
son lo que tradicionalmente se denomina esca la s . Por ejemplo, una función específica
asigna a determinado objeto que hay en un museo de París, representando su masa, el nú­
mero 1 y al objeto que el lector está leyendo el número 0,4; otra función para la masa
asigna a los mismos objetos, respectivamente, el 1.000 y el 400; otra asigna al primero el
número 0,001 y al segundo 0,0004; otra 2,2 y 0,88; etc. Estas funciones numéricas miden
la misma propiedad, la masa, pero asignan números diferentes a los mismos objetos. Cada
una de estas funciones es una diferente escala para la masa: la primera es la “escala Kilo­
CONCEPTOS CIENTÍFICOS 117

gramo” (sistema MKS), cuyo uso hacemos explícito posponiendo al numeral el signo
‘kg.’; la segunda es la “escala gramo” (sistema cegesimal), cuyo uso hacemos explícito
posponiendo al numeral el signo ‘gr.’; la tercera la “escala Tonelada métrica”, que deno­
tamos posponiendo ‘Tm.’; la cuarta es la “escala libra” (sistema anglosajón) que denota­
mos posponiendo ‘Ib’; etc. Todas estas escalas, y muchas otras, son igualmente válidas
para medir la masa, son de hecho escalas equivalentes en un sentido del que diremos algo
a continuación y que quedará plenamente clarificado en el capítulo 6 .
Éste es el motivo por el que no es correcto identificar la extensión de un concepto
métrico con una única de las funciones numéricas, con una escala particular. Lo correcto es
identificarlo con el conjunto de todas las posibles escalas para la magnitud que corresponde
al concepto, esto es, con la clase de todas las posibles funciones numéricas que representan
dicha magnitud. La extensión del concepto m asa es pues el conjunto {fkS->fSr,fm,fb> ...}. Y lo
mismo en el caso, por ejemplo, de la longitud: tenemos las escalas “centímetro”, “metro”,
“kilómetro”, “milla”, “yarda”, “pulgada”, etc., por lo que la extensión del concepto longi­
tud se debe identificar con la clase de todas ellas: {fcm>f m, f km, f mh/„ Igualmente, con al­
gunas diferencias que en seguida comentaremos, en el caso de la temperatura. Una función
métrica específica asigna al agua en ebullición el 10 0 y al agua en congelación el 0 ; otra les
asigna, respectivamente, 32 y 212; otra el 273,15 y el 373,15; etc. La primera es la escala
Celsius, la segunda es la escala Fahrenheit, la tercera la escala Kelvin, y todavía hay otras,
como la escala Rankine o la escala Réaumur. La extensión del concepto tem peratura es
pues el conjunto {/cJ fJ k, •- }•
Podemos dar ahora una definición provisional de los conceptos métricos que me-
trizan un concepto comparativo previo, en la que se haga patente que la extensión del
concepto comparativo no es una única función numérica sino una clase de ellas represen-
tacionalmente equivalentes. Insistimos en que ella sólo se refiere a los conceptos métricos
introducidos a partir de conceptos comparativos previos y, como hemos advertido, no to­
dos los conceptos métricos se introducen así; otros (la mayoría) se introducen a través de
su relación con otros conceptos métricos en el contexto de una teoría científica. Por otro
lado, la definición es reconocidamente insatisfactoria, no es tanto una definición en senti­
do estricto cuanto una caracterización provisional que deja numerosos aspectos por eluci­
dar. Estos aspectos serán clarificados con detalle en el capítulo 6 (§3 y §5).

D efinición 4 .3 :

Un concepto funcional C es un concepto métrico para el dominio (no-vacío) de


objetos D , que corresponde al concepto comparativo (para ese mismo dominio)
cuya extensión es K u P, si y sólo si la extensión de C es un conjunto { f u f i , ... }
de funciones tales que cada f cumple las condiciones M1-M4 respecto de K u P.

Concluiremos con la presentación introductoria de las nociones de tipo de tra ns­


fo rm a ció n y tipo de esca la , que nos permitirán una primera aclaración del sentido en el
que las diferentes escalas para la misma magnitud son equivalentes. Como hemos adverti­
do, en este estudio preliminar esta clarificación sólo puede ser parcial. Para realizarla de
118 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

modo plenamente satisfactorio hay que referirse a las condiciones empíricas que, si son
satisfechas por la relación de comparación cualitativa K u P, hacen posible la existencia
de funciones numéricas que cumplen M 1-M4. Esta referencia se introducirá también en el
capítulo 6 en el contexto de lo que denominaremos m etrización fu n d a m e n ta l (§3).
Las diferentes escalas de una misma magnitud son equivalentes en el sentido si­
guiente: determinados valores numéricos se preservan en todas ellas. Tomemos las esca­
las para la masa. El valor absoluto asignado a cada objeto no se preserva en las diferentes
escalas, una asigna a este libro el 0,4, otra el 400, etc. Pero sí se conserva otro valor, a sa­
ber, el cociente entre valores absolutos asignados a los objetos. El cociente entre los valo­
res asignados al objeto del mencionado museo de París y a este libro es el mismo en todos
los casos, se preserva bajo cambios de escala: 1/0,4 = 1.000/400 = 0,001/0,0004 =
2,2/0,88. Y lo mismo para cualquier otra escala de masa: si m x y m 2 son dos escalas cua­
lesquiera para la masa sobre el mismo dominio, entonces para cualesquiera objetos x, y
del dominio ocurre: m \(x)hn\(y) = m 2(x)Im 2(y). Las escalas para la masa p reserva n las
p roporciones (ra zo n es , cocientes). Hay muchas otras magnitudes que se miden mediante
escalas que tienen también estas características, por ejemplo la longitud (metros, centíme­
tros, yardas,...), o el tiempo-duración (segundos, horas, d ías,...). A este tipo de escalas se
las denomina ‘escalas proporcionales’ o ‘escalas de razón’, para connotar justamente que
los cambios de escala preservan las proporciones o razones. Así, en general, si f P y g P son
dos funciones numéricas para medir la propiedad P presente en los objetos de cierto do­
minio, o sea, dos escalas diferentes para la misma magnitud P, decimos que son escalas
p roporciona les, o de razón, si y sólo si para todo x, y se cumple: fp (x)/fP(y) = gp(x)/gF(y).
Nótese que aunque ‘escala proporcional’ se diga de las escalas sueltas, sólo tiene sentido
dicho de una escala en su relación con otras, como miembro de un grupo de escalas, pues
decimos que una escala es proporcional cuando preserva cierto valor matemático (en este
caso el cociente entre asignaciones), es decir, cuando dicho valor es el mismo para todas
las escalas del grupo. En sentido estricto, por tanto, sería más adecuado decir, no que una
escala es una escala proporcional, sino que un grupo de escalas es un grupo de escalas
proporcionales. Esto es, que la extensión de determinado concepto métrico (p.ej. m a sa ) es
un grupo de escalas proporcionales. La misma advertencia debe hacerse con respecto a
los demás tipos de escala que se introduzcan a continuación.
No todas las escalas que miden magnitudes son escalas proporcionales. Las escalas
termométricas, por ejemplo, no lo son. No sólo, por ejemplo, las escalas Celsius y Fahren-
heit asignan valores absolutos diferentes al agua en ebullición y al agua en congelación,
sino que el cociente entre los valores asignados tampoco es el mismo: 0/100 en la escala
Celsius, diferente de 32/212 en la escala Fahrenheit. Por lo tanto, las escalas termométricas
para la temperatura no preservan los cocientes entre valores asignados. Sin embargo tam­
bién preservan algo, aunque más débil que las escalas proporcionales. En este caso lo que
se preserva es el cociente entre intervalos o diferencias de valores asignados. Veámoslo. La
escala Celsius, además de asignar el 0 al agua en congelación y el 100 al agua en ebulli­
ción, asigna 10 al agua del puerto de Barcelona a medianoche del 31 de diciembre de 1996
y 20 al agua de ese mismo lugar a mediodía del 1 de agosto de 1996. La escala Fahrenheit,
además de asignar 32 y 212 a los primeros, asigna respectivamente 50 y 68 a los segundos.
CONCEPTOS CIENTÍFICOS 119

Pues bien, ahora los valores asignados por cada escala resultan ser tales que el cociente en­
tre las diferencias de pares de asignaciones es siempre el mismo: en el primer caso, grados
Celsius, la diferencia entre, p.ej., las asignaciones al agua en ebullición y al agua de Barce­
lona el 1 de agosto es 100-20, y la diferencia entre las otras dos asignaciones es 10-0; en el
segundo caso, grados Fahrenheit, la primera diferencia es 212-68 y la segunda 50-32; como
se ve (100-20)/(212-68) = (10-0)/(50-32). Debe quedar claro que éste es un hecho general,
no depende de cuáles sean los pares de objetos elegidos para cada diferencia, lo mismo val­
dría si los intervalos fuesen, por un lado, para el agua en ebullición y congelación
y, por otro, para el agua de Barcelona el 1 de agosto y el 31 de diciembre: (100-0)/(212-
32) = (20-10)/(68-50). A las escalas de este tipo se las denomina ‘escalas de intervalos1 o
‘escalas de diferencias’, para connotar que lo característico de ellas es que los cambios de
escala preservan los cocientes entre los intervalos o diferencias de asignaciones. Así, en ge­
neral, si f P y gpson dos funciones numéricas para medir la propiedad P presente en los obje­
tos de cierto dominio, o sea, dos escalas diferentes para la misma magnitud P, decimos que
son escalas de intervalos , o de d iferencias , si y sólo si para todo x, y, z, w se cumple: \fp{x)~
fp(y)] i ¡fp(z) ~ fp (w )j = [gP(x) - gAy)] / [gp{z) - gAw)].
Es sencillo ver que cada tipo de escala se caracteriza por un modo específico de
realizar los cambios de escala o, como se dice técnicamente, por un tipo de tra n sfo rm a ­
c ió n . Una transformación es una función que nos permite pasar de una escala a otra, esto
es, una función tal que al valor de cada objeto en una escala le asigna el valor del objeto
en otra escala. Por ejemplo, para pasar en la masa de la escala-kilogramo (sistema MKS)
a la escala-gramo (sistema cegesimal) se debe tomar el valor asignado por la primera y
multiplicarlo por 1.000, la función transformación F(x) que permite pasar de una escala a
otra es F (x) = l.OOOx; para pasar de kilogramos a toneladas se debe multiplicar por 0,001;
para pasar de kilogramos a libras se debe multiplicar por 2,2; etc, A este tipo de transfor­
maciones se las denomina ‘transformaciones similares’. Una transform ación sim ila r es
cualquier función F(x) sobre los reales de la forma F(x) = ax, con a e Re+. Así, si tengo
una escala/para una magnitud, aplicarle una transformación similar es multiplicar cada
valor d e /p o r un mismo número real positivo a. O equivalentemente, si tenemos dos es­
calas, decimos que una es una transformación similar de la otra, o que están relacionadas
mediante una transformación similar, si y sólo si los valores de una resultan de multipli­
car los de la otra por una constante.
Como hemos visto, las escalas de la masa están relacionadas mediante transforma­
ciones similares, podemos pasar de una a cualquier otra multiplicando por cierto número.
Con las escalas de la longitud ocurre lo mismo: para pasar de metros a centímetros multi­
plicamos por 100, para pasar a kilómetros multiplicamos por 0,001, para pasar a millas
multiplicamos por 0,00054, etc. Y no sólo con la masa y la longitud. Como hemos anun­
ciado, los tipos de transformación están asociados a los tipos de escala; por tanto, cual­
quier escala de un grupo de escalas proporcionales está relacionada con cualquier otra del
grupo mediante una transformación similar: si la extensión de un concepto métrico es
un grupo de escalas proporcionales, entonces s i / y g son dos escalas proporcionales cua­
lesquiera de dicho grupo, hay un real positivo a tal que para todo objeto x del dominio
g(x) = af(x). El motivo es claro, a saber, que son justamente las transformaciones simila­
120 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

res las que preservan los cocientes de asignaciones. Si f y g son dos escalas relacionadas
mediante una transformación similar, e.e. tales que g(*) = af(x) (a e Re+), entonces es in­
mediato que son escalas proporcionales, e.e. tales que para todo x y y ,f(x )íf(y ) - g{x)fg(y),
pues g(x)/g(y) = af(x)iaf(y) = f(x )/f(y). Así, un tipo de escala, las escalas proporcionales,
está asociado a un tipo de transformación, a las transformaciones similares. Las diferentes
escalas proporcionales de una misma magnitud están relacionadas mediante transforma­
ciones similares. Esto aclara en qué sentido las diferentes escalas de una misma magni­
tud, las diferentes funciones numéricas pertenecientes a la extensión de un concepto mé­
trico, son equivalentes. Como el lector puede fácilmente comprobar, la relación “ser una
transformación similar de” es una relación de equivalencia entre funciones numéricas,
funciones que, por tanto, son “equivalentes” bajo ese tipo de transformación.
Análogamente sucede con las escalas de intervalos. También ellas llevan asociado
un tipo de transformación, sólo que ahora no se trata de transformaciones similares. El
cambio de una escala termométrica a otra no consiste en general sólo en multiplicar las
asignaciones de la primera por una constante. Por ejemplo, para pasar de grados Celsius a
Fahrenheit hemos de multiplicar por 9/5 y sumar 32. A este tipo de transformaciones que
consiste en multiplicar por una constante (positiva) y sumar otra se las denomina ‘trans­
formaciones lineales’. Una transform ación lineal es cualquier función F (x) sobre los rea­
les de la forma F (x) - a x + b, con a e Re+ y b e Re. Así, si tengo una escala/para una
magnitud, aplicarle una transformación lineal es multiplicar cada valor d e /p o r un mismo
número real positivo a y sumarle otro real b. O equivalentemente, si tenemos dos escalas,
decimos que una es una transformación lineal de otra, o que están relacionadas mediante
una transformación lineal, si y sólo si los valores de una resultan de multiplicar los de la
otra por un número real positivo y sumar a ese resultado otro número real. A veces a pue­
de ser 1, por ejemplo para pasar de grados Celsius a Kelvin basta sumar 273,5 (e.e. “y
multiplicar por 1”). Y por supuesto que, asimismo, a veces b puede ser 0, por ejemplo
para pasar de grados Celsius a Réaumur basta multiplicar por 4/5 (e.e. “y sumar 0”), pero
eso no debe hacer pensar que en este caso la escala entonces es proporcional. Recuérde­
se que las escalas no son proporcionales, o de intervalos, “a solas” sino "en grupos”, y lo
que importa por tanto es el tipo de transformación que las relaciona a todas ellas.
Pues bien, así como las escalas proporcionales están relacionadas mediante trans­
formaciones similares, es igualmente sencillo mostrar que el tipo de transformación que co­
rresponde a las escalas de intervalos es el de las transformaciones lineales. S i / y g son dos
escalas relacionadas mediante una transformación lineal, e.e. tales que gOO = afíx) + b (a e
Re+, b e Re), entonces es inmediato que son escalas de intervalos, e.e. tales que para todo
y. Z. w. [/(*) - f ( y ) ) I W ) - / » ] = [g(x) - g(y)] / [g(z) - g(w)], pues [g(x) - g(y)] / [g(z) -
g(w)) = [ ( a fx ) + b) - (a fiy ) + b)] l [{a fz) + b) - (af(w) + b)] = [ a fx ) + b ~ afly) - b] /
[ a fz ) + b - a f w ) - b } = a\f(x) - f y ) ] í a \ f z ) - f w ) ] = [/(*) -/(y)] / \ f z ) Así, las di­
ferentes escalas de intervalos de una misma magnitud son equivalentes en este sentido, es­
tán relacionadas mediante transformaciones lineales, siendo “ser una transformación lineal
de” (al igual que “ser una transformación similar de”) una relación de equivalencia.
Las escalas proporcionales y de intervalos son las más usuales, pero no las únicas.
Puesto que cada tipo de escala se define o caracteriza por un tipo de transformación, el
CONCEPTOS CIENTÍFICOS 121

lector avisado habrá adivinado que hay tantos tipos de escala como tipos de transforma­
ciones. Cada tipo de escala se caracteriza por determinado valor que permanece constante
tras los cambios de escala, f{x)IjXy) en las proporcionales,/(;c) - f{y)If(z) - f i w ) en las de
intervalos. Estos valores permanecen constantes en cada caso porque en cada uno el cam­
bio de escala es una transformación de un tipo específico, similar en el primero, lineal en
el segundo. Entonces, otros tipos de transformaciones dejarán invariantes otros valores y
caracterizarán por tanto otros tipos de escalas. En realidad hay tantos tipos de escalas
como tipos posibles de transformaciones. Entre todos los tipos posibles sólo algunos son
empíricamente interesantes, se corresponden con la medición en sistemas empíricos co­
nocidos. Los tipos de escalas más interesantes, como hemos dicho, son el de las propor­
cionales y el de las de intervalos, pero algunos otros más inusuales son de aplicación en
algunos ámbitos de las ciencias sociales y de la conducta. La referencia clásica sobre ti­
pos de escalas y sus correspondientes transformaciones son los trabajos de Stevens
(cf. especialmente 1946, 1951 y 1959). Presentamos a continuación los diferentes tipos de
escalas a que se refiere Stevens, a los que añadimos algún otro que complementa los ini­
ciales de modo natural. Cada tipo de escala se identifica por su tipo de transformación o,
alternativamente, por el valor que permanece invariante tras las transformación. Como di­
jimos más arriba, las dos primeras, a pesar de que las incluye explícitamente Stevens, no
se pueden considerar propiamente escalas de m edición, esto es, correspondientes a con­
ceptos genuinamente métricos. Se trata simplemente de “escalas” correspondientes a
conceptos sólo clasificatorios o sólo comparativos.

E scalas nom inales. Tipo de transformación característica: cualquier función bi-


yectiva. No preserva ningún valor matemáticamente significativo. Ejemplo: cualquier nu­
meración, como la de los canales de televisión o la de los jugadores de un equipo' de bas-
ket. Estas “escalas” son en realidad meras clasificaciones disfrazadas de asignaciones nu­
méricas; los valores asignados a los objetos hacen las veces de meras marcas de las clases
de equivalencia de la clasificación.

E scalas ordinales. Tipo de transformación característica: cualquier función mo­


nótona creciente. No preserva ningún valor matemáticamente significativo. Sólo preserva
el orden de las asignaciones: si f ( x ) > f ( y ), entonces cualquier transformada g es tal que g
(x) > g(y). Ejemplo: escala de Mohs para la dureza, escalas para la inteligencia. Estas “es­
calas” son en realidad meras relaciones de comparación disfrazadas de asignaciones nu­
méricas; los valores asignados a los objetos no tienen significado cuantitativo, hacen las
veces de meras marcas que indican el orden de los objetos.

Escalas de intervalos o diferencias. Tipo de transformación característica: cual­


quier función de la forma F(x) = ax + b (a e Re+, b e Re), o sea, transformaciones lineales.
Valor que preserva: j(x ) - f { y ) ! jiz ) -/(w ). Ejemplo: temperatura termométrica.

E sca la de in terva lo s lo g a rítm ico s . Tipo de transformación característica: cual­


quier función de la forma F (x ) = a x " (a, n e Re+), o sea, transformaciones exponencia­
122 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

les. Valor que preserva: log/(x) - log f ( y ) / log f ( z ) - log/(w). No hay ejemplos en las
ciencias físicas pero, según Stevens, sí en las humanas y sociales (aunque este autor no
es del todo claro en este punto y a veces parece referirse sólo a que hay leyes psicofísi-
cas del tipo t|>= a\x", cf. Stevens, 1959).

E sc a la s de in terva lo s absolutos. Tipo de transformación característica: cual­


quier función de la forma = x + b ( b e Re), o sea, transformaciones lineales de coe­
ficiente 1. Valor que p re s e rv a :^ ) - f( y ) . Ejemplo: tiempo calendario (fechas en los di­
versos calendarios).

E sc a la s p ro p o rc io n a le s o de razón. Tipo de transformación característica:


cualquier función de la forma FQc) = ax {a e Re+), o sea, transformaciones similares
(esto es, transformaciones lineales de constante 0 , o transformaciones exponenciales de
exponente 1). Valor que preserva:/(x) / /(y). Ejemplos: longitud, masa, duración.

E sca la s de p ro p o rcio n es logarítm icas. Tipo de transformación característica:


cualquier función de la forma F (x) = x" (n < e Re+), o sea, transformaciones exponenciales
de coeficiente 1. Valor que preserva: log/(x) / logy(y). (Ejemplos: escalas “multiplicati­
vas” de la masa, la longitud, la duración, etc.; cf. más adelante cap. 6 , §3.)

E sca la s absolutas. Tipo de transformación característica: la función identidad


F (x) - x . Valor que preserva:/(x). Ejemplo: la probabilidad.

Esta lista está presentada por orden de “fuerza” en tres niveles. Prescindiendo de
las nominales y ordinales, demasiado débiles para ser consideradas propiamente escalas
métricas, las escalas menos fuertes son las de intervalos y las de intervalos logarítmicos;
después vienen las de intervalos absolutos, las proporcionales y las de proporciones loga­
rítmicas; y por último las absolutas, el tipo más fuerte de todas. La fuerza de una escala
depende del valor que preserva la transformación, de lo que permanece invariante tras los
cambios de escala. Cuanto menor sea el número de objetos a que refiera el valor preserva­
do, más fuerte es la escala y, como se ve, en las dos primeras se precisan cuatro objetos,
en las tres segundas se precisan dos, y en la última sólo uno.
Estos hechos son importantes pues la utilidad de una escala, el uso que se puede
hacer de ella, depende de cuán fuerte sea. La idea es que si las escalas han de servir para
expresar cuantitativamente determinados hechos relativos a los objetos medidos, entonces
las afirmaciones que hacemos mediante ellas serán útiles o “significativas” sólo si tales
afirmaciones preservan su valor veritativo tras los cambios de escala. Si determinada afir­
mación sobre las asignaciones no se preserva tras un cambio de escala, es decir, es verda­
dera en una escala pero falsa en otra, entonces es que no expresa información sólo de los
objetos sino que depende de aspectos convencionales involucrados en la determinación
de las escalas. Por ejemplo, si digo que en cierta escala el valor de un objeto x es un nú­
mero r, y la escala en cuestión es proporcional, esa afirmación no se puede considerar sig ­
nificativa pues pasa a ser falsa cuando cambiamos de escala; esa afirmación sólo es signi-
CONCEPTOS CIENTÍFICOS 123

ficativa si la escala es una escala absoluta. O si digo que en cierta escala el cociente entre
las asignaciones a dos objetos x, y es un numero r, y la escala en cuestión es de intervalos,
esa afirmación no se puede considerar sig nificativa pues pasa a ser falsa cuando cambia­
mos de escala; esa afirmación sólo es significativa si la escala es una escala proporcional.
Esto es lo que se conoce como el p ro b lem a de la sig n ifica tivid a d , esto es, del uso empíri­
camente significativo que se puede hacer de los valores asignados por las escalas: ¿qué
afirmaciones se pueden hacer con estos valores que expresen hechos objetivos y que por
tanto no sean verdaderas en una escala pero falsas en otra escala que mide la misma pro­
piedad?
En el capítulo 6 trataremos en detalle esta y otras cuestiones que aquí han sido
sólo apuntadas. Como allí se verá, el problema de la significatividad está relacionado con
otro que hasta ahora apenas hemos mencionado, a saber, qué es lo que permite decir que
diferentes escalas son escalas que miden la misma propiedad. Sabemos que si tenemos las
diversas escalas que miden una propiedad, esto es, si tenemos la extensión del concepto
métrico correspondiente, entonces podemos determinar de qué tipo de escalas se trata in­
vestigando cuál es el tipo de transformación que permite pasar de unas a otras. Pero la
cuestión es cómo se determina ese conjunto de escalas, cómo se establece la extensión del
concepto métrico. Para ello será imprescindible referirse a las condiciones empíricas que
debe satisfacer un orden cualitativo para ser representado numéricamente. Tales condicio­
nes son las que permiten establecer, mediante los llamados teorem as de represen ta ción ,
el conjunto de escalas para la propiedad, la extensión del concepto métrico.
C apítulo 5

LAS LEYES CIENTÍFICAS

En el capítulo anterior hemos examinado la estructura lógica de los conceptos


científicos. Dijimos entonces que los conceptos son las unidades mínimas de significa­
ción, y efectivamente así es, pero hay que advertir inmediatamente que ese mínimo es,
por así decir, demasiado poco. En la ciencia, como en el discurso ordinario, el lenguaje
se usa primariamente para realizar a sercio n es (aseveraciones), para decir que ciertas co­
sas son de cierto modo. Para este uso los conceptos son esenciales, pero no bastan con­
siderados aisladamente; los conceptos por sí solos no constituyen unidades asertivas.
Las unidades aseverativas deben ser necesariamente complejas o articuladas, no hay
aserción sin articulación, y la complejidad no es en general esencial a los conceptos. Es
cierto que algunos conceptos son complejos (p.ej. b íp ed o im p lu m e ), pero esta compleji­
dad no es del tipo requerido para constituir aseveraciones. Las unidades aseverativas
mínimas son las p ro p o sic io n e s o, en términos lingüísticos, los e n u n cia d o s , entidades
que sí son esencialmente complejas o articuladas. En el discurso científico, un tipo es­
pecialmente importante de unidades preposicionales son las leyes, que se pueden articu­
lar a su vez entre ellas conformando unidades más amplias, las teo ría s. Nuestro objetivo
en este capítulo es analizar la estructura lógica, los tipos y la naturaleza de las leyes
científicas.
La siguiente relación contiene ejemplos representativos de los diversos tipos de
leyes, y los diversos aspectos de las mismas, que vamos a tratar:

(1) Cualesquiera dos cuerpos se atraen con una fuerza directamente proporcio­
nal al producto de sus masas e inversamente proporcional al cuadrado de la
distancia entre sus centros de masa.
(2) Los planetas giran en órbitas elípticas, con el So] en uno de los focos, ba­
rriendo áreas iguales en tiempos iguales.
(3) Un grave en caída libre cerca de la superficie terrestre recorre en un interva­
lo temporal t una distancia d = 4,9í2.
(4) En un péndulo en la superficie terrestre, la relación entre el período T y la
longitud L es T - 2tW(L/9,81).
126 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

(5) Todo cuerpo sufre una aceleración igual al cociente entre la suma de fuer­
zas a las que está sometido y su masa inercial.
(6) La probabilidad de que un electrón disparado contra una barrera de poten­
cial la atraviese es de 0,1 y la de que se refleje es de 0,9.
(7) La probabilidad de que un átomo de radio permanezca estable después de
4800 años es 0,125.
(8) Para cada cantidad de gas, el cociente de la presión por el volumen entre la
temperatura absoluta es constante.
(9) En condiciones normales, las piezas de fósforo se inflaman tras la fricción
sobre superficies rugosas.
(10) Salvo mutaciones genéticas, al cruzar células homocigóticas, una con un
par de genes recesivos y la otra con un par de genes dominantes, los indivi­
duos de la segunda generación tienen una probabilidad de 0,25 de exhibir
los rasgos de los genes recesivos.
(11) El consumo continuado de tabaco aumenta la probabilidad de desarrollar
cáncer de pulmón.
(12) La sensación de peligro produce, salvo factores inhibidores, un repentino
incremento de la producción de adrenalina.
(13) Si una persona desea p , y cree que realizando cierta acción lo obtendrá, y si
además la acción es posible y la persona así lo cree y no cree que hacer p se
opone a nada que desee tanto o más que p , entonces (si nada interfiere) rea­
lizará la acción.
(14) El aumento de la oferta produce, a igualdad de los restantes factores, la dis­
minución en el precio del producto.

Las leyes científicas, del tipo de las ejemplificadas en esta lista, son unidades ase-
verativas mínimas del discurso científico, pero no son las únicas. Hay otras aseveraciones
también mínimas (y en cierto sentido, que veremos en el capítulo 12 dedicado a la induc­
ción, más básicas), a saber, los informes sobre acaecimientos particulares, p.ej. “el cometa
Halley reapareció el 25 de diciembre de 1758”, “0,002 gramos de este pedazo de uranio se
desintegrarán antes del año 2025”, o “acaba de bajar el precio de la gasolina”. Presentar de
este modo la contraposición entre los dos tipos de unidades aseverativas mínimas del dis­
curso científico supone dar ya una primera caracterización implícita de las leyes. Las leyes
son las unidades aseverativas mínimas que no son informes sobre acaecimientos particula­
res, esto es, las leyes son (un tipo de) aseveraciones generales, expresan regularidades.

1. Tipos de generalizaciones y de leyes

1 .1 . L e y e s y r e g u l a r id a d e s

En este capítulo partiremos de esta primera caracterización según la cual las leyes
son (o son expresadas por) aseveraciones generales. Esta caracterización, dominante en la
LEYES ClENTÍFiCAS 127

literatura, presupone dos cosas, ambas cuestionadas por algunos autores. En primer lugar,
presupone que las leyes son (o que son expresadas por) aseveraciones. Más adelante
(cf. cap. 10) veremos que hay un modo menos enunciativo, más modelista, de entender­
las, pero incluso bajo esa interpretación las leyes mantienen algunos elementos aseverati-
vos que son los que en este capítulo van a centrar nuestra atención. En segundo lugar,
presupone que son afirmaciones g en era les , que expresan regularidades del tipo “todos
los tal son cual”, o “siempre que ocurre tal cosa ocurre tal otra”. Esto excluye eventuales
leyes existenciales como “hay unidades mínimas de energía” o “hay al menos un agujero
negro en el universo”. Pero ello no es tan grave como en un primer momento puede pare­
cer. Por un lado, casi todas las leyes aparentemente existenciales del primer tipo son en el
fondo generales. Por otro, dista de ser claro que haya leyes g enuinam ente existenciales in­
teresantes, esto es que no se obtengan como meras existencializaciones sobre hechos par­
ticulares. En cualquier caso, los ejemplos paradigmáticos de leyes son indudablemente
generales. Así pues, aquí vamos a aceptar, al menos provisionalmente, estos dos supues­
tos. La mayoría de los aspectos de las leyes que vamos a presentar y discutir en este capí­
tulo son en gran medida independientes de los mismos; cuando no lo sean se comentará
explícitamente el sentido en que se ven afectados por estos supuestos.
Antes de iniciar nuestro estudio propiamente dicho es necesario hacer algunas
aclaraciones. En primer lugar, lo que hemos aceptado no es que las leyes sean (o expre­
sen) m eras generalizaciones. Al decir que son aseveraciones generales queremos indicar
que son a l m enos eso, no que sean sólo eso. Esto es, la caracterización que hemos acepta­
do provisionalmente como punto de partida no supone que cualquier generalización sea
una ley, lo cual es patentemente erróneo; lo que se ha aceptado es algo mucho más débil,
a saber, que toda ley involucra al menos una aseveración general del tipo “todos los As
son j?s”. Parte de este capítulo va a estar destinado precisamente a elucidar la diferencia
entre leyes y meras generalizaciones.
La segunda aclaración tiene que ver con las cautelas contenidas en los párrafos an­
teriores. Hemos dicho que las leyes son, o son expresadas p o r, aseveraciones generales.
La formulación alternativa se debe a la necesidad de distinguir entre las entidades lingüís­
ticas (los enunciados mismos, o los actos aseverativos consistentes en proferir tales enun­
ciados) y lo que las entidades lingüísticas expresan o significan (los hechos mismos o, si
se prefiere, las proposiciones). Confundir ambos niveles es confundir uso y mención, esto
es, no distinguir entre hablar de expresiones lingüísticas y hablar de lo que ellas expresan.
En el caso de las leyes se puede defender tanto que ellas mismas son las aseveraciones o
enunciados generales, como que son lo que las entidades lingüísticas expresan, las propo­
siciones (pero, claro está, no las dos cosas a la vez). Ambas alternativas son posibles, si se
formulan con el suficiente cuidado. En el primer caso, cuando queramos hablar de las re­
gularidades naturales deberemos decir que son lo expresado por las leyes, en el segundo
caso que son las leyes mismas, aunque aquí son necesarias cautelas adicionales. Si bien
es conveniente optar por una de las alternativas y atenerse a ella, aquí no vamos a ser muy
estrictos en este punto. En general nos inclinamos por la segunda y, por tanto, tenderemos
a usar ‘ley’ para las regularidades naturales mismas, y ‘enunciado legal’ (o ‘enunciado de
ley’) para los enunciados generales que las expresan. Sin embargo, y siempre que el con­
128 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

texto lo permita, en ocasiones mezclaremos ambas prácticas, o usaremos expresiones más


indefinidas que refieran indistintamente a ambas entidades (p.ej. ‘afirmación’, que en sen­
tido laxo puede referir tanto al enunciado como a su contenido, la proposición). Cuando
la cuestión que se esté tratando exija una distinción clara, explicitaremos el sentido en
que usamos el término y los extremos de la discusión que dependen de ello.
La última aclaración se refiere al alcance de nuestro estudio. Hay un aspecto
de las leyes que por lo general va a quedar al margen del tratamiento que vamos a hacer
de ellas en este capítulo. Nos referimos a su carácter aproxim ativo o idealizador. Las le­
yes, especialmente las cuantitativas, contienen diversas idealizaciones que hacen que sólo
quepa esperar su aplicabilidad aproximada. Eso tiene la consecuencia de que, si exigimos
una aplicación estricta, muchas (¿todas?) leyes aparecerán como, o bien vacuamente ver­
daderas, o bien “irremediablemente” falsas. Si, siendo totalmente estrictos, la propiedad A
no se aplica a ningún individuo, entonces la afirmación “todos los A son B " es vacuamen­
te verdadera por ser su antecedente siempre falso. Por ejemplo, la primera ley de Newton,
o ley de la inercia, afirma que todos los cuerpos para los cuales la suma de fuerzas exter­
nas sea nula mantienen constante su velocidad, pero seguramente no hay ningún cuerpo
que satisfaga el antecedente, con lo que la ley es vacuamente verdadera. La literatura ha
prestado mucha atención a situaciones de este tipo (cf. p.ej. Tooley, 1977 y Armstrong,
1983), pero en ocasiones se le concede una importancia a nuestro juicio excesiva. Lo mis­
mo sucede con la “necesaria” falsedad de las leyes cuando, si exigimos total precisión, A
se aplica pero B no. El fenómeno g en era l de la aproximación en la ciencia, y sus límites
de admisibilidad, requiere un tratamiento específico que no podemos presentar aquí. En el
capítulo 6 se hacen algunas consideraciones sobre el mismo en el contexto de la función
de la medición, y en el capítulo 10 en relación con las afirmaciones empíricas de las teo­
rías. En el presente capítulo sólo vamos a tratarlo en una versión muy específica del mis­
mo, a saber, cuando está relacionado con las idealizaciones contenidas en las leyes con
cláusulas ceteris p a rib u s (sección 4).

1.2. T ipo s d e r e g u l a r id a d e s

Hemos dicho que íbamos a partir de la caracterización usual según la cual las le­
yes son generalizaciones, aunque no cualesquiera generalizaciones sino generalizaciones
de cierto tipo específico, a las que denominaremos generalizaciones n ó m ica s . El adjetivo
‘nómico’ proviene de la voz griega ‘n o m o s’, que se traduce por ‘ley’ (o ‘norma’, en con­
textos jurídicos). Decir que las leyes son generalizaciones nómicas, esto es generalizacio­
nes “legales”, no aclara por tanto nada por sí sólo. Lo primero que debemos hacer es esta­
blecer las características más generales que distinguen a estas generalizaciones de las
generalizaciones de otros tipos. En esta sección estableceremos tales características muy
superficialmente y de modo intuitivo, por contraposición con varios ejemplos de los otros
tipos de generalizaciones. En la sección siguiente presentaremos de un modo más siste­
mático las peculiaridades de las generalizaciones nómicas, principalmente en relación con
las regularidades meramente factuales.
LEYES CIENTÍFICAS 129

Hay cuatro tipos básicos de regularidades: regularidades analíticas o conceptuales,


regularidades nómicas o leyes, regularidades factuales o accidentales y regularidades
epistémicas. La distinción entre ellas tiene que ver con la m odalidad. Y la modalidad tie­
ne a su vez que ver con las nociones de n ecesid a d y p o sib ilid a d , se refiere al m odo en que
algo es verdadero o falso; si tomamos las leyes como enunciados, debemos decir que son
verdaderas o falsas, si las consideramos como hechos, que ocurren o que no ocurren. Si­
guiendo también aquí la práctica anunciada más arriba, cuando no produzca confusión
utilizaremos a menudo indistintamente ‘verdadero’ y ‘que ocurre’. Pues bien, hay afirma­
ciones verdaderas que son n ecesa riam en te verdaderas, mientras que otras son verdaderas
pero pod ría n ser falsas; o en términos de hechos, hay hechos que ocurren n ecesariam ente
y otros que ocurren pero p o d ría n no haber ocurrido. Esto se aplica también a las generali­
zaciones, esto es a los “hechos” generales del tipo “Todos los A son B ”. Hay generaliza­
ciones verdaderas que son necesariamente verdaderas, mientras que otras también verda­
deras p o d ría n ser falsas. N ecesid a d y p o sib ilid a d son conceptos duales: algo es posible si
y sólo si su negación no es necesaria, y viceversa. Por otro lado, la necesidad implica la
posibilidad, todo lo necesario es posible; pero no a la inversa, la mayoría de las cosas po­
sibles no son además necesarias, son sólo posibles. Por último, cuando algo es verdadero
pero no es necesariamente verdadero decimos que es contingente.
Como diría Aristóteles, la necesidad se dice de muchas maneras. El término ‘ne­
cesario’ tiene varios sentidos y cada uno de ellos determina un tipo de modalidad. La di­
ferencia entre los cuatro tipos de regularidades tiene que ver con las diversas nociones
modales, con los diversos sentidos de ‘necesario’ y ‘posible’ involucrados. Cada modali­
dad es relativa a un cierto “sistema” o “marco” que se considera fijado: fijadas tales y
cuales cosas, algo es necesario/posible relativamente a ese marco si y sólo si su negación
es inconsistente/consistente con las cosas que se han fijado. Así, los diversos marcos que
fijemos determinan los diversos tipos de modalidad. En el presente contexto nos interesan
especialmente tres tipos de cosas que podemos fijar, las correspondientes a las modalida­
des conceptual, nómica y epistémica. Aquí atenderemos especialmente a las dos primeras
(la modalidad epistémica, que mencionaremos muy brevemente, presenta problemas es­
pecíficos que no conviene abordar ahora). Como el lector advertirá inmediatamente, la
distinción entre necesidad conceptual y necesidad nómica presupone la distinción analíti-
co/sintético , esto es, la distinción entre verdades en virtud d el significado y verd a d es e m ­
píricas. Esta distinción tradicional ha sido cuestionada en el presente siglo por algunos fi­
lósofos, principalmente Quine en su famoso artículo “Dos dogmas del empirismo”
(1951). No vamos a detenernos aquí en estas objeciones. Nuestra finalidad ahora es pura­
mente introductoria y la exposición que hacemos de ésta y otras distinciones es preteóri-
ca, no prejuzga ulteriores análisis filosóficos sustantivos de las mismas.
La modalidad conceptual, o analítica, se deriva de tomar como fijos nuestros con­
ceptos o, equivalentemente, los significados del lenguaje. Algo verdadero es co n cep tu a l­
m ente necesario (en breve: ‘C-necesariamente verdadero’) si y sólo si su negación es in­
consistente con nuestros conceptos, esto es, si no hay modo de concebir su falsedad sin
contradicción; o en términos de significados: algo es C-necesariamente verdadero si y
sólo si, manteniendo fijo el significado que tienen las palabras, no hay modo de describir
130 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

coherentemente una situación en que eso sea falso. (Esta caracterización presupone las
nociones lógicas de consisten cia , no contradicción o coherencia, esto es, presupone la
noción de n ecesid a d lógica, que consideramos aproblemática en el presente contexto.)
Hay muchas verdades que son C-necesarias, y muchas de ellas son “generales”,
involucran regularidades. La siguiente lista contiene algunas regularidades que inmediata­
mente se ve que son C-necesarias, otras que inmediatamente se ve que no lo son, y alguna
otra (20) sobre la que no sabríamos quizá qué decir sin una inspección mucho más
detenida.

(15) Los animales racionales son animales.


(16) Los solteros no están casados.
(17) Los hermanos tienen los mismos progenitores.
(18) Las superficies verdes son coloreadas.
(19) Ninguna superficie es a la vez totalmente blanca y totalmente negra.
(20) Nadie es su propio ancestro.
(21) Todos los metales se expanden al calentarlos.
(22) Todos los cuerpos cargados eléctricamente con cargas del mismo signo se
repelen con una fuerza proporcional al producto de sus cargas.
(23) Nadie puede levantarse tirándose de los cordones de los zapatos.

(15)-(19) son claramente C-necesarias, no se puede concebir coherentemente su


negación, no podemos describir una situación en la que sean falsas. Quizá se piense que
sí. Por ejemplo, si ‘verde’ significase “caliente”, entonces (18) no sería C-necesaria, pues
podemos describir una situación en la que una superficie caliente es incolora. Pero eso es
hacer trampa, pues se están cambiando los significados de las palabras. Como muestra la
explicación, lo que es entonces C-posible es que una superficie caliente sea incolora, no
que una verde sea incolora. Una cosa es describir coherentemente una situación en la que
las palabras significan otras cosas y el enunciado ‘las superficies verdes son coloreadas’
sea con esos otros significa d o s falso, y otra muy diferente describir coherentemente una
situación en la que ese enunciado con los significados usuales sea falso, esto es, en la que
no ocurra que las superficies verdes son coloreadas. Lo primero es posible, lo segundo,
que es de lo que se trataba, no. Análogamente con (19), si se cree que es C-posible que
sea falsa es porque se da otros significados a ‘blanco’ y ‘negro’; se puede pretender, por
ejemplo, que una superficie totalmente gris es a la vez totalmente blanca y totalmente ne­
gra, pero ese no es el significado usual.
Por otro lado, es claro que (21)-(23), aunque verdaderas, no son C-necesarias. Po­
demos describir coherentemente una situación en la que un metal no se dilate al calentar­
se, o en la que dos cuerpos cargados positivamente se repelan con una fuerza proporcio­
nal al producto d el cuadrado de sus masas. Y lo podemos hacer sin cambiar el significado
de nuestras palabras, basta con idear un mundo con otras leyes físicas (la buena literatu­
ra de ciencia ficción, e.e. la que no describe situaciones contradictorias, contiene numero­
sas descripciones de este tipo). Sin embargo, aunque (21)-(23) no son C-necesarias, son
necesarias en alg ú n sentido. Aquí es cuando interviene la modalidad física o nóm ica. La
LEYES CIENTIFICAS 131

modalidad nómica se deriva de tomar como fijas, adem ás de nuestros conceptos, las leyes
naturales. Algo verdadero es n ó m ica m en te necesario (en breve: ‘A-necesariamente verda­
dero’) si y sólo si su negación contradice las actuales leyes naturales, esto es, si no hay
modo de describir (teniendo las palabras sus significados usuales) una situación en la que
sea falso y sigan cumpliéndose las leyes naturales que de hecho rigen en la naturaleza.
Según esta caracterización (y presuponiendo, por mor de los ejemplos, la validez de las
leyes naturales que hoy creemos conocer), es claro que, además de (21)-(23), (24) y (25)
son regularidades N-necesarias y que (26)-(30) no lo son.

(24) Ningún varón se queda embarazado.


(25) Todas las esferas de uranio tienen menos de 1 km de radio.
(26) Todas las esferas de oro tienen menos de 1 km de radio.
(27) Todos los bípedos implumes son humanos.
(28) Todos los cuervos son negros.
(29) Todas las cebras son rayadas.
(30) Todas las monedas del bolsillo derecho de los pantalones de Quine en No-
chevieja de 1990 son doradas.

Tomando como ejemplos paradigmáticos (25) y (26), es inmediato por qué aun­
que ambas regularidades son verdaderas, la primera es A-necesaria y la segunda no: (25)
es implicada por las leyes físicas, (26) no. La existencia de una esfera de uranio de tal ta­
maño es incompatible con las leyes físicas sobre la estabilidad límite del uranio, mientras
que en el caso del oro, aunque de hecho tampoco haya ninguna esfera así, el que la hubie­
ra no violaría ninguna ley física. Análogamente con (30): que, aunque de hecho no la
tuvo, Quine tuviera una moneda no dorada en su bolsillo en dicha fecha no parece violar
ninguna ley natural. Con (28) y (29) no es quizá tan inmediato, pero un poco de reflexión
muestra que tampoco son A-necesarias. Por lo que hoy sabemos, las leyes naturales son
compatibles con la existencia de cuervos no negros. Por ejemplo, tales leyes no parecen
excluir que algunos cuervos pudieran haber emigrado a zonas árticas y, tras un tiempo y
como resultado de la selección, haber desarrollado plumaje blanco, sin dejar por ello de
ser cuervos.
A las regularidades que aun siendo verdaderas no son A-necesarias se las denomi­
na regularidades fá c tic a s o accidentales. La primera expresión, si se interpreta sugiriendo
sólo que estas regularidades son “hechos”, es engañosa pues las regularidades nómicas
también son hechos. Por Táctico’ se debe entender aquí “m eram ente ocurrente”, esto es,
que ocurren como cuestión de hecho pero no de derech o , que ocurren pero A-podrían no
ocurrir. Eso es lo que connota ‘accidental’. Ambas expresiones son pues sinónimas de
‘A-contingente’. Nótese que la distinción entre regularidades accidentales y nómicas sólo
discrimina regularidades si no todo hecho general está cargado de necesidad física, esto
es, si el mundo no es determinista (en uno de los sentidos de ‘determinismo’, pues según
otro sentido hay regularidades nómicamente necesarias indeterministas, las leyes pro-
babilistas, cf. sobre esto más adelante sección 5). En caso contrario no habría propiamen­
te regularidades A-contingentes, todas las regularidades verdaderas, todos los estados de
132 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

cosas generales “que ocurren”, serían físicamente necesarios. Hasta el que las monedas
del bolsillo de Quine en tal fecha sean doradas sería 7V-necesario, pues en un mundo de­
terminista (en esta acepción) todo lo es. Eso no quiere decir que la distinción sea inco­
rrecta, pues ella es independiente de lo que ocurra de hecho en última instancia con el de-
terminismo. La distinción distingue dos conceptos realmente diferentes, sólo que si el
mundo resulta ser determinista uno de esos conceptos, el de reg ularidad a ccid en ta l , no se
aplicaría a nada: las que ahora nos parecen regularidades accidentales serían simplemente
aquellas regularidades nómicas acerca de cuyas leyes no tenemos la menor idea ni siquie­
ra de que existan.
La modalidad epistémica, de la que no hemos dicho nada hasta ahora, tiene que
ver con casos como (28) y (29). En la modalidad epistémica se consideran fijadas las re­
gularidades que constituyen nuestro acceso epistémico usual a cierto ámbito. Así, aunque
la esencia de los cuervos no implique la negrura de su plumaje, esa regularidad no Af-ne-
cesaria interviene esencialmente en el modo como típicamente reconocemos a los cuer­
vos. En ese sentido, epistém ico, (28) es “necesario”. Pero se trata de una “necesidad”
claramente antropomórfica, no está “en la naturaleza” (la prueba es que N -p u ed e haber
cuervos blancos) sino en nuestro modo de acceder a ella. Sólo está en la naturaleza en el
sentido en que nuestro conocimiento es también un fenómeno natural. Hay otras modali­
dades antropomórficas. Por ejemplo la d eó n tica , que queda determinada al fijar las regu­
laridades o normas morales. También en ese sentido hay cosas “necesarias”, cosas que
deben ocurrir en el sentido de que se d eben hacer, por ejemplo, si fuese una norma moral
no acumular determinada cantidad de oro, (26) sería deónticamente necesario. Como se
apreciará, estas modalidades no implican que la regularidad sea verdadera, por lo que
para algunos es mejor no hablar en estos casos de n ecesid a d ; se trataría sólo de modali­
dad “aparente”, de lo que puede o no puede ocurrir en el sentido sólo de que es compati­
ble con nuestras creencias (modalidad epistémica), o con nuestras leyes morales (modali­
dad deóntica). Esta cuestión, que afecta a cualquier modalidad antropomórfica, es en
parte nominal y no vamos a discutirla aquí; bastará admitir que en la llamada modalidad
epistémica el uso de ‘necesario’ es al menos tan legítimo (o ilegítimo) como su uso en la
modalidad deóntica.
De momento no vamos a abundar más en la modalidad epistémica. Nos interesaba
sobre todo la modalidad nómica, su diferencia con la conceptual y su contraposición con
la accidentalidad o mera facticidad. Las leyes son las regularidades verdaderas nó m ica -
m ente necesarias. Nótese que esto no constituye un análisis del concepto de ley mediante
el de necesidad nómica, pues hemos definido la modalidad nómica en términos de las le­
yes naturales. No pretendíamos aquí analizar el concepto de ley, sino tan sólo mostrar que
dicho concepto involucra cierto tipo de necesidad y contrastar intuitivamente el tipo de
modalidad propio de las leyes con otras modalidades, especialmente la conceptual, y con
las regularidades nómicamente contingentes, accidentales.
Antes de abandonar esta primera aproximación intuitiva conviene mencionar una
consecuencia relativamente extraña que se sigue de la caracterización que hemos hecho.
Si las regularidades nómicas son aquellas cuya falsedad queda excluida por las leyes na­
turales, entonces (31) y (32) son regularidades nómicas.
LEYES CIENTÍFICAS 133

(31) T o d o s lo s m e ta le s n e g r o s s e e x p a n d e n al c a le n ta r s e .
(32) N in g ú n v a ró n q u e to m a p íld o ra s a n tic o n c e p tiv a s se q u e d a e m b a ra z a d o .

Estas regularidades son verdaderas y no son en absoluto accidentales. Las leyes de


la física son incompatibles con que un metal negro no se expanda al calentarse, y las de la
biología con que un varón que toma píldoras se quede embarazado. Se trata pues de regula­
ridades con el tipo de necesidad que caracteriza a las regularidades nómicas, y sin embargo
parece que en algún sentido no son leyes del todo genuinas. El motivo, en términos intuiti­
vos, es que contienen elementos nóm icam ente irrelevantes , pero es extremadamente difícil
dar una caracterización precisa de esa irrelevancia. Parece en principio que estas regularida­
des se caracterizan por ser derivadas o implicadas por otras leyes más simples (en estos ca­
sos, (21) y (24) respectivamente). Esas otras leyes son más fuertes, pues no vale la implica­
ción inversa, y por tanto las más débiles resultarían prescindibles. Pero esta estrategia para
distinguir regularidades nómicas de leyes genuinas no funciona. La ciencia está repleta de
leyes implicadas por otras y que en absoluto contienen elementos irrelevantes.
En realidad los casos de irrelevancia parcial no son más que casos particulares de
un fenómeno general derivado del hecho de que la necesidad nómica se preserva bajo la
implicación lógica: si a es iV-necesaria y p es consecuencia lógica de a , entonces p
también es A-necesaria. Por tanto, si ’Todos los A son B ” es una regulariada nómica, tam­
bién lo es “Todos los A y C son B '\ sea lo que sea C. En algunos casos, como (31) y (32),
C es nómicamente irrelevante, pero en otros quizá no. Por ejemplo, ‘Todos los C son
puede ser también una ley, en cuyo caso “Todos los A y C son B ” no contiene elementos
nómicamente irrelevantes sino n ó m ica m en te red u n d a n tes . Puesto que el origen es el mis­
mo, a saber, la clausura de la nomicidad bajo implicación lógica, no parece que se deban
tratar de modo diferente los casos de irrelevancia y los de redundancia. O cualquier otro
caso debido al mismo fenómeno, como los disyuntivos: si “Todos los A son y “Todos
los C son D ” son leyes, entonces la generalización “Todos los A o C son B o Z)” es nómi­
camente necesaria. Esto suscita el problema general de la conveniencia o no de distinguir
entre leyes y generalizaciones nómicas: las leyes serían aquellas generalizaciones nómi­
cas que cumplen además ciertas condiciones adicionales. En tal caso, aunque toda conse­
cuencia general de una ley es por definición una regularidad nómica, no toda consecuen­
cia general de una ley sería otra ley; la leg a lid a d no se preservaría bajo la consecuencia
lógica, o como se dice a veces, el operador ‘es un ley ...’ no es veritativo-funcional, no se
preserva bajo relaciones de implicación lógica (cf. p.ej. Fodor, 1974). Esta es una cues­
tión todavía abierta y que no vamos a tratar aquí en detalle. Algunos aspectos de la misma
surgirán más adelante en este mismo capítulo y en otros posteriores, como el dedicado a
la explicación. En general, y salvo advertencia en contrario, seguiremos identificando le­
yes y regularidades nómicas.
Mientras que la presunta diferencia entre leyes y regularidades nómicas es discuti­
ble, la diferencia entre regularidades nómicas (o leyes) y regularidades accidentales no lo
es, no requiere discusión sino elucidación. De ella nos ocuparemos en la próxima sección.
Concluiremos ésta presentando los principales tipos de leyes que se van a tratar en el res­
to de este capítulo y en otras partes de la obra.
134 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

1 .3 , T ip o s d e l e y e s

Hay varias tipologías de las leyes, dependiendo de los criterios que se usen para
su clasificación. Una posibilidad es distinguirlas por la relación temporal entre los estados
del sistema. Un sistema (p.ej. un gas, un péndulo, unas bolas de billar) es un complejo de
entidades que se pueden relacionar de diversos modos. Cada uno de esos modos es un es­
tado posible del sistema y las leyes restringen las relaciones entre los posibles estados
(sobre la noción técnica de esta d o , cf. cap. 10, §4.3). De todas las relaciones conceptual­
mente posibles, sólo algunas de ellas, las permitidas por las leyes, son nómicamente posi­
bles. Si las restricciones que impone una ley se refieren a estados temporalmente simultá­
neos, se trata de una ley de coexistencia, si se refieren a la sucesión o transición entre es­
tados, de una ley de sucesión.
Son leyes de coexistencia, p.ej., la ley de Boyle “(? x V )!T = cte.” o la del péndulo
“T = 27tV(L/9,8iy\ Las leyes (cuantitativas) de coexistencia establecen una relación entre
los valores sim u ltá n eo s de las diversas magnitudes involucradas. Así, la ley de Boyle es­
tablece que, de todos los tríos de valores <p, v, t> lógicamente posibles (siendo p , v y t,
respectivamente, valores específicos de la presión, el volumen y la temperatura) sólo
aquellos en los que (p x v)it es cierta constante (que depende de la cantidad y naturaleza
del gas) son físicamente posibles. Contra lo que en principio podría parecer, también en
las leyes de coexistencia tiene sentido hablar de las “condiciones antecedentes” y del “re­
sultado-consecuente”: las primeras son los valores en determinado momento de todas las
magnitudes menos una, y el segundo es el valor de dicha magnitud.
Las leyes (cuantitativas) de sucesión establecen las relaciones que deben darse en­
tre dos estados sucesivos para que uno pueda transformarse en el otro. Son leyes típicas
de sucesión las diversas leyes que establecen el incremento en una magnitud como efecto
de la variación de otras (el de longitud de una vara metálica por variación de la tempera­
tura, el de la temperatura de una sustancia por efecto del calor, el de la velocidad de un
móvil por efecto de una fuerza, etc.) o los diversos principios de conservación (del mo­
mento lineal, de la energía cinética, etc.). Por ejemplo, en los choques elásticos los esta­
dos del sistema se determinan por la masa y la velocidad de cada partícula, esto es, son
tétradas <m u m 2, vh v2>, y el principio o ley de conservación del momento lineal establece
que, para que un estado x = <mu m 2, vh v2> //-pueda suceder a otro y = < m l', m 2 , v/, v2'>,
ha de ocurrir que m\ vi + m 2 v2 = m ó v / + m 2 v2 .
La diferencia entre leyes de coexistencia y leyes de sucesión es parcialmente re­
lativa al modo como describamos las leyes. Por un lado, las leyes de coexistencia pue­
den verse además como leyes de sucesión. Por ejemplo, la ley de Boyle determina que
un estado <p , v, t> A-puede transitar a otro posterior < p \ v', t ’> si y sólo si la cantidad
( P x V )/T es la misma en ambos estados. Por otro, algunas leyes de sucesión, típicamen­
te las leyes del movimiento, pueden ser vistas como leyes de coexistencia si introduci­
mos el parámetro temporal como constituyente de los estados del sistema (cf. van Fraas-
sen, 1989, pp. 223-224). En otros casos es menos natural, o incluso muy implausible.
Por ejemplo, la ley de dilatación de los metales establece que la longitud final es
igual a la inicial X, más cierto coeficiente de expansión (propio de cada metal) por el in­
LEYES CIENTÍFICAS 1 35

cremento de temperatura 7} - T¡\ Lf = L¡ + a (T f - T ¡). De ahí se deriva que el cociente


(Lr Li)¡(Tr T,) es constante para cada metal, pero es dudoso que esto se pueda presentar
como una ley de coexistencia genuina, pues ese valor constante involucra esencialmen­
te estados sucesivos.
La segunda distinción es entre leyes p ro b a b ilista s y leyes no p ro b a b ilista s , tam­
bién llamadas a veces d eterm inistas. Una ley probabilista es aquella cuya expresión hace
referencia explícita a la probabilidad. De nuestra lista inicial, (6), (7), (10) y (11) son le­
yes probabilistas. Algunas de ellas son aplicaciones particulares de leyes probabilistas
más generales; así, por ejemplo, (7) es un caso particular de la siguiente ley general sobre
desintegración radiactiva:

(33) La probabilidad de que un átomo de cierta sustancia permanezca estable


durante el intervalo temporal t es igual a e~At, siendo A la constante de de­
sintegración radiactiva de la sustancia.

Las leyes probabilistas establecen la coexistencia o transición entre estados sólo con
cierta probabilidad p (0 < p < 1). Por tanto, y contrariamente a lo que ocurre con las leyes
deterministas, es nómicamente posible que aun siendo la ley verdadera se den las condicio­
nes antecedentes y no se den las consecuentes. Ello hace que algunos autores rechacen que
en las leyes probabilistas se pueda hablar de N - n e c e s id a d en sentido propio.
En tercer lugar, podemos distinguir entre leyes estricta s y leyes no estrictas o in ­
te rferibles. Las leyes no estrictas son leyes tales que puede darse la condición antece­
dente y no la consecuente (y ello independientemente de que sean probabilistas o no). El
motivo es que las leyes no estrictas incluyen las llamadas cláusulas ceteris p a rib u s
(CP), que equivalen a condiciones antecedentes adicionales más o menos indefinidas.
Estas cláusulas son del tipo “si todo lo demás permanece igual”, “si nada interfiere”, “si
no intervienen factores adicionales”, etc. Una ley no estricta o CP tiene pues la siguiente
forma: “Todos los A son, ceteris p a r ib u s , 5 ” ; los ejemplos (9), (10), (12), (13) y (14) de
nuestra lista inicial son claramente leyes no estrictas. Si, como es usual, por condición
antecedente entendemos sólo la condición principal A, entonces las leyes no estrictas se
pueden calificar de in te rferib le s , pueden tener “excepciones”: dándose A se puede inter­
ferir la ocurrencia de B si las condiciones CP no se satisfacen. O más precisamente: la
relación nómica entre antecedente y consecuente se altera al añadir al antecedente nue­
vas condiciones. Esta formulación deja claro, como se mostrará más adelante, que pue­
de haber leyes probabilistas tanto estrictas como no estrictas; el carácter estricto o no
estricto de una ley es en principio independiente de su carácter probabilista o no proba­
bilista (en principio, pues como veremos en las secciones 4 y 5, a veces se intenta redu­
cir unas a otras). Normalmente las cláusulas CP se incluyen explícitamente en la formu­
lación de la ley, pero puede ocurrir que leyes que se formulan sin tal cláusula, y que pa­
recen por tanto estrictas, en realidad sean interferibles. Por ejemplo, la ley de Kepler,
(2), no contiene cláusula CP explícita y sin embargo es claramente interferible (p.ej. por
presencia de otros astros). Esto ocurre en general con las leyes aparentemente estrictas
que contienen idealizaciones, pues las idealizaciones equivalen a cláusulas CP implíci­
136 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

t a s . V e r e m o s q u e e s u n a c u e s t i ó n . a b i e r t a si h a y l e y e s v e r d a d e r a m e n t e e s t r i c t a s , c o m o
p a r e c e n e n p r in c i p io (1 ) y (5 ).
Por último, se suele distinguir también entre leyes causales y leyes no causales.
Las leyes causales son regularidades nómicas que contienen o expresan un vínculo causal
entre condiciones antecedentes y consecuentes. En principio, y dejando de momento de
lado la problematización filosófica del concepto de causa, (5), (11), (12) y (14) son clara­
mente leyes causales, y (2) y (3) claramente no lo son. Las leyes cinemáticas de Galileo
no contienen elementos causales; tampoco las de Kepler (al menos en su formulación
usual, pues tal como él las formuló sí contenían un elemento causal, a saber, el an im a mo-
trix que atribuía al Sol). Por otro lado, es inmediato que las leyes causales han de ser le­
yes de sucesión, pues los efectos suceden temporalmente a sus causas. Por ello, si se con­
sidera causal una ley de coexistencia es porque se reformula en términos de sucesión; por
ejemplo, la ley de gases ideales se puede considerar causal en su versión como ley de su­
cesión: determinado incremento de temperatura produce, a volumen constante, determina­
do aumento de presión.
Sobre las leyes de coexistencia y sucesión volveremos brevemente en el capítulo
10 cuando examinemos las versiones de la concepción semántica de las teorías en térmi­
nos de espacios de estado. Algunas nociones causales básicas, y su relación con las leyes,
se introducirán brevemente en la sección 3 y se retomarán en el capítulo 7 dedicado a la
explicación científica. De las leyes no estrictas nos ocuparemos en la sección 4, y de las
probabilistas en la 5. Antes de ello, como anunciamos, vamos a ver con más detalle la di­
ferencia entre leyes y regularidades accidentales.

2. Leyes y regularidades accidentales

Para simplificar la exposición, ignoraremos de momento las complicaciones debi­


das a la probabilidad y a la interferibilidad, y vamos a restringir las consideraciones de
esta sección a leyes estrictas no probabilistas. Tanto las regularidades accidentales como
las nómicas (estrictas no probabilistas) son “hechos” generales “que ocurren” del tipo
“Todos los A son y la cuestión es elucidar su diferencia, determinar qué distingue unas
regularidades de otras. Esta elucidación se puede llevar a cabo de dos modos. Se puede
intentar dar condiciones necesarias y suficientes para que una regularidad sea una ley,
esto es, dar un análisis completo del concepto de ley. Esto no es lo que vamos a hacer
aquí; parte de ello será el objeto de la última sección, en la que revisaremos las líneas ge­
nerales de los principales análisis de las leyes, sus méritos y dificultades. Nuestro objeti­
vo ahora es mucho más modesto y propedéutico. Se trata sólo de señalar una serie de pro­
piedades que intuitivamente distinguen a las leyes de las regularidades accidentales. Pero
ni individualmente, ni conjuntamente, se pretende que constituyen un análisis del concep­
to ley , son sólo condiciones a las que todo análisis debe en p rin cip io adecuarse; en princi­
pio, pues no todas tienen la misma fuerza intuitiva y quizá las menos fuertes pueden cues­
tionarse en algunos análisis (mencionaremos también alguna condición que, aunque a ve­
ces se ha propuesto, hay buenas razones para desestimar).
LEYES CIENTIFICAS 137

En lo que sigue vamos a suponer que las leyes que manejemos como ejemplos, y
en general las leyes que hoy aceptamos, son verdaderas. Ese es un supuesto claramente
discutible, y casi seguro falso, pero no afecta a nuestra actual tarea. Quizá todas las regu­
laridades que hoy creemos que son leyes no lo sean, por ser falsas, pero eso no afecta en
general al concepto de ley. La cuestión es la siguiente: si esas cosas fuesen efectivamente
leyes naturales, ¿qué podríamos decir de ellas que no podemos decir de otras regularida­
des, y en especial de las meramente factuales?

2 .1 . G e n e r a l id a d p u r a e ir r e s t r ic c ió n

A veces se ha propuesto que las leyes, a diferencia de las generalizaciones acci­


dentales, no pueden contener referencia alguna (ni implícita ni explícita) a objetos par­
ticulares, lugares o momentos específicos, esto es, deben ser p u ra m en te g enerales (nótese
que esta generalidad pura excluye también predicados que encubren implícitamente refe­
rencia a particulares, como ‘barcelonés’ o ‘venusiano’). La regularidad sobre las monedas
del bolsillo de Quine, o la de que todos los barceloneses aman su ciudad, violan esta con­
dición y no son por tanto leyes. Sin embargo esta condición es excesiva, pues excluye le­
yes claramente aceptadas como tales, p.ej. las de Kepler, que hacen referencia al Sol. La
respuesta (cf. Hempel y Oppenheim, 194S) es aceptar algunas de estas generalizaciones
no puras como leyes si son derivables de otras puras; a éstas se las considera las leyes
fu n d a m en ta les y a aquéllas leyes derivadas. Pero esta estrategia no es viable por dos mo­
tivos, uno histórico y otro lógico: primero, las leyes de Kepler eran consideradas leyes ge-
nuinas antes de que se conociera la existencia de las leyes fundamentales de las que se de­
rivan (las leyes de Newton); y segundo, es obvio que de generalizaciones puras solas no
se pueden derivar generalizaciones no puras, hacen falta además afirmaciones particulares
pues las generalizaciones no puras hablan implícitamente de objetos particulares.
Una condición con espíritu semejante, pero más débil, es que la generalización sea
irrestricta (cf. p.ej. Nagel, 1961, cap. 4, §1). Tanto las leyes de Kepler como p.ej. la gene­
ralización accidental “Todos los tomillos del auto de Smith, a mediodía del Año Nuevo
de 1990, están oxidados” contienen referencia a particulares. La diferencia radica en que
el ámbito de aplicación de la segunda está restringido a una región espaciotemporal y el
de la primera no, pues aunque los planetas estén de hecho en determinada región ello no
está presupuesto por la ley. Pero esta condición sigue siendo parcialmente insatisfactoria.
En primer lugar, es discutible que no pueda haber leyes genuinas que involucren esencial­
mente regiones espaciotemporales particulares (p.ej. sobre los tres primeros minutos del
universo, o quizá algunas leyes geológicas sobre la Tierra no generalizables a otros plane­
tas). Y en segundo lugar, muchas generalizaciones accidentales satisfacen esa condición;
por ejemplo, las generalizaciones sobre la inexistencia de grandes esferas de oro y uranio
son ambas irrestrictas, pero sólo la del uranio es nómica.
138 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

2.2. No VACUIDAD

Otra condición propuesta a veces es que las leyes, a diferencia de las generaliza­
ciones accidentales, no pueden ser vacuamente verdaderas. “Todos los minotauros son
mamíferos” es vacuamente verdadero, pues su antecedente no se aplica a nada, pero ello
no afecta en absoluto a su carácter de mera regularidad; sin embargo, no aceptaríamos ese
tipo de regularidades como leyes. Tampoco esta condición es clara. “Todo hilo de cobre a
-270 °C es buen conductor” es seguramente vacuamente verdadera y no es evidente que
no sea una ley, pues sí lo es “Todo hilo de cobre es buen conductor”. Se puede proponer
que una generalización vacuamente verdadera es aceptable como ley siempre y cuando se
derive de otra ley no vacuamente verdadera. Nótese que esto incluiría (¿contraintutiva-
mente?) como casos específicos aquellos en los que la no aplicación del antecedente se
deriva de una ley, p.ej. “Toda esfera de uranio de más de 1 km de radio es inestable”.
Pero esta modificación no parece suficiente debido a las idealizaciones. Las leyes genui-
nas contienen a menudo idealizaciones, p.ej, superficies sin fricción o espacio vacío, que
pueden no ser nunca satisfechas. Por otro lado, es poco plausible aceptar como ley cu a l­
q u ier generalización vacuamente verdadera consecuencia de una ley, p.ej. (1) “Todo va­
rón embarazado tiene branquias”, que se deriva de la ley (2 ) “Ningún varón queda emba­
razado”. Éste es un caso particular del problema que hemos comentado más arriba sobre
el eventual carácter legal de las consecuencias lógicas de las leyes. Pero es un caso par­
ticular muy especial. De (2) se sigue lógicamente tanto (1) como (3) “Todo varón que
toma pastillas no se queda embarazado”, y mientras es discutible si (3) es una ley, parece
claro que ( 1 ) no lo es dado que su antecedente es nómicamente imposible.

2 .3 . C o n f ir m a c ió n

Las regularidades nómicas se consideran confirmadas por sus instancias, las acci­
dentales no. La constatación de que una moneda del bolsillo de Quine es dorada no con­
firma por sí sola el que las restantes lo sean. Para confirmar esto hay que haber compro­
bado todas y cada una de las monedas, y hasta la última moneda no podemos, por así de­
cir, pronunciarnos sobre la regularidad. Sin embargo, si la regularidad es una ley, la cons­
tatación de instancias particulares se acepta como confirmación de la ley; eso sí, confir­
mación parcial, y tanto mayor cuanto mayor sea el número de instancias constatadas. Es
cierto que es un difícil problema filosófico precisar esta noción de confirmación (que ya
usamos en el capítulo 3), pero ahora no necesitamos ocuparnos de él (cf. el capítulo 12
dedicado al problema de la inducción), nos basta una preconcepción intuitiva de la confir­
mación. Y relativamente a esa preconcepción, la cuestión es que, en la m edida en que una
generalización se considere nómica, se estará dispuesto a considerarla confirmada (en
cierto grado) a través de sus instancias concretas. Si la generalización es considerada ac­
cidental, “hasta la última instancia” no podemos decir nada, n i siquiera de grado (por
ello, si hay generalizaciones accidentales cuyo antecedente se aplica a un número infinito
de objetos, tales regularidades son inconfirmables por principio). Es cierto que en cual-
LEYES CIENTÍFICAS 139

quier regularidad, incluidas las accidentales, si se examina p.ej. el 80 % de los A y resulta


que todos ellos son B , podemos decir algo, a saber, que la regularidad probabilista “La
probabilidad de que un A sea B es al menos de 0,8” está bien confirmada. Pero esa es una
regularidad diferente de “Todos los A son B ”, que era de la que se trataba. Sobre estas
cuestiones volveremos en el capítulo 12.

2 .4 . P r e d ic c ió n

Tanto las leyes como las meras regularidades accidentales sirven para “predecir”
sobre los casos ya conocidos. Si todos los A conocidos son B , desde luego que si este ob­
jeto es uno de los A conocidos entonces “será” B. Pero por supuesto a la ciencia no le in­
teresa este tipo de “predicción”. La que interesa es la predicción sobre casos desconoci­
dos, y en ella leyes y regularidades accidentales se comportan de modo muy diferente;
con las primeras estamos justificados al hacer predicciones sobre nuevos casos, con las
segundas no. No está justificado predecir que la próxima moneda que entre en el bolsillo
de Quine será dorada, pero sí lo está predecir que el próximo trozo de metal que se calien­
te se expandirá. Esta diferencia está relacionada con la anterior relativa a la confirmación,
pues podemos hacer predicciones sobre nuevos casos en la medida en que la regularidad
esté confirmada.

2 .5 . E x p l ic a c ió n

Las leyes son explicativas, las regularidades accidentales no. Si queremos una ex­
plicación de por qué esta moneda particular es dorada, no es una buena respuesta decir
que es dorada porque estaba en el bolsillo de Quine en cierta ocasión y que en tal ocasión
todas las monedas de su bolsillo eran doradas; una buena explicación es, por ejemplo, que
la moneda es de oro puro y que todas las piezas de oro puro son doradas. En ambos casos
el hecho a explicar se deriva de otro hecho particular y de una regularidad verdadera, pero
sólo el segundo proporciona genuina explicación, pues sólo la segunda regularidad es nó-
mica. Sobre esta cuestión tendremos ocasión de extendernos en el capítulo 7 dedicado a
la explicación científica.

2.6. C a u s a l id a d

A veces se ha sugerido que la legalidad-nomicidad descansa en la causalidad. En


las regularidades nómicas, contrariamente a lo que ocurre en las accidentales, hay una re­
lación causal entre las condiciones antecedentes y consecuentes. Esta condición tiene un
interpretación débil y otra fuerte. La interpretación fuerte es que toda ley contiene explíci­
tamente elementos causales. Así interpretada es claramente incorrecta. Como menciona­
mos más arriba, hay leyes genuinas, como las de Galileo o Kepler, que no son causales en
140 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

este sentido fuerte. En su interpretación débil, afirma que toda ley que no sea directamen­
te causal se subsume en, o deriva de, otras que sí lo son; p.ej. las mencionadas se derivan
de las leyes de Newton. Si ello significa que no se consideran leyes sin disponer de tal de­
rivación, sigue siendo incorrecto, pues aunque, p.ej., las leyes de Kepler recibieron un
fuerte respaldo al derivarlas Newton de su sistema, fueron consideradas leyes perfecta­
mente legítimas antes de que Newton desarrollara su mecánica. Se puede debilitar todavía
más y decir que las leyes no causales son “en principio” o “en última instancia” deriva-
bles de leyes causales. Pero esto sólo se puede defender proporcionando una teoría sus­
tantiva y muy específica de la causalidad, discutible filosóficamente y, en cualquier caso,
no inmediatamente coincidente con nuestras intuiciones preteóricas.

2.7. A p o y o a c o n t r a f á c t ic o s

Si bien es dudoso que las leyes son siempre causales (en el sentido intuitivo pre­
teórico), no lo es que siempre suponen cierto tipo de n ecesid a d entre las propiedades in­
volucradas. Como vimos, este elemento de necesidad es sobre el que descansa un tipo es­
pecífico de modalidad, la nómica. Las leyes son esencialmente modales. Una de las mani­
festaciones de su naturaleza modal es que so portan o a poyan cierto tipo específico de
afirmaciones modales, las afirmaciones condicionales contrafácticas.
Un condicional contrafáctico, o subjuntivo, es una afirmación del tipo “si hubiera
ocurrido a , habría ocurrido jT\ o “si ocurriera a , ocurriría p”. Contra lo que a veces se
sugiere, no toda afirmación de este tipo presupone que el antecedente de hecho no ha ocu­
rrido; eso puede sugerirlo la primera forma, pretérita, pero desde luego no la segunda (y
nada realmente esencial de la semántica de los condicionales subjuntivos depende de
ello). Pues bien, las leyes dan a poyo a este tipo de expresiones, las regularidades acciden­
tales no. El que todas las monedas que de hecho hay en cierto momento en el bolsillo de
Quine sean doradas no nos permite afirmar que si esta moneda estuviera en tal momento
en ese bolsillo también sería dorada; de que todos los que vinieron de hecho a cenar fue­
sen varones no se sigue que si Rosa hubiese ven id o , sería varón. Contrariamente a lo que
ocurre con las regularidades accidentales, las leyes sí permiten afirmar sobre su base si­
tuaciones contrafácticas. Puesto que es una ley que los metales se dilatan al calentarse,
podemos afirmar que si calentásem os este trozo de metal se d ila ta ría ; puesto que es una
ley que la madera flota en el agua, si El Moisés de Miguel Ángel fu e s e de madera, flo ta ­
ría en el agua.
Este hecho es el que está detrás de las diferencias anteriores relativas a la predic­
ción y la explicación. La predicción no es más que la aplicación de un contrafáctico en el
que el antecedente puede no haberse dado todavía pero se dará. Si una ley explica es jus­
tamente porque contiene el elemento de modalidad expresado en el contrafáctico que apo­
ya. Tal como dijimos en términos informales en la anterior sección, la modalidad, que se
manifiesta en su capacidad de apoyar contrafácticos, es esencial a las leyes. Incluso si una
ley “Todos los A son B ” es tal que la condición antecedente nunca se da de hecho, sigue
siendo cierto que si se diera tal condición, se daría también la condición consecuente.
LEYES CIENTÍFICAS 141

Éste es un motivo adicional para matizar la importancia a la discusión sobre la vacuidad.


No hay especial problema en que una ley sea vacuamente verdadera co ntem plada com o
generalización co n d icio n a l m aterial, pues lo que importa es su aspecto modal, que no
queda explícito si se la contempla así. En realidad, es inadecuado contemplar las leyes
como siendo sólo generalizaciones materiales. Lo correcto es decir que im plican generali­
zaciones materiales, pero entonces es claro que el que la generalización material implica­
da sea vacuamente verdadera no tiene por qué afectar a la ley. El núcleo de la cuestión es
que si “Todos los A son ¿T es una ley, entonces esta generalización contiene esencialmen­
te un elemento modal; es una generalización material “con algo más” y ese algo más es
de carácter modal.

2 .8 . I n t e n s ió n a l id a d

La capacidad de las leyes de apoyar contrafácticos es la expresión más manifiesta


de su carácter modal, pero no la única. Ya hemos mencionado que su función explicativa
y predictiva se deben en el fondo a lo mismo. Otra manifestación especialmente clara de
la modalidad de las leyes es su intensionalidad. Recordemos (cf. cap, 4, §1) que cierta ca­
racterística aplicable a afirmaciones es exten sio n a l si siempre se preserva al sustituir un
atributo por otro coextensional (e.e. que se aplique a los mismos objetos); si alguna de es­
tas sustituciones coextensionales modifica la característica entonces decimos de ella que
es intensional. En términos lingüísticos: el operador correspondiente a dicha característi­
ca es extensional si el enunciado que contiene dicho operador preserva el valor veritativo
tras una sustitución tal; es intensional en caso contrario, esto es, si no vale la sustitutivi-
dad salva veritate de expresiones coextensionales.
Pues bien, es fácil ver que la n o m icid a d es una característica intensional. Por
ejemplo, ‘humano’ y ‘bípedo implume’ son predicados coextensionales (todo bípedo im-
plume es humano y viceversa), “Todo humano es primate” es una ley pero “Todo bípedo
implume es primate” no lo es, pues es biológicamente posible la existencia de bípedos
implumes no primates. Por tanto, el operador de nomicidad genera contextos intensiona-
les: en los enunciados del tipo ‘es un ley que todos los A son B’ no rige la sustitutividad
salva veritate de expresiones coextensionales: la sustitución p.ej. de ‘A’ por otro predica­
do coextensional ‘C’ puede modificar su valor veritativo (entiéndase bien, puede variar el
valor veritativo del enunciado ‘es una ley que todos los A son B \ no el del enunciado ‘to­
dos los A son B ’). Es sencillo ver que el valor veritativo se altera justamente cuando la
coextensionalidad de los atributos no es nómica sino accidental, esto es, cuando la regula­
ridad bicondicional “Todo es A si y sólo si es C” es meramente fáctica. Eso es lo que ocu­
rre en nuestro ejemplo, pues “todo bípedo implume es humano y viceversa”, aunque ver­
dadero, no es una ley. Si la coextensionalidad es ella misma nómica, entonces la sustitu­
ción preserva la nomicidad.
La intensionalidad es una de las características distintivas de cualquier tipo de mo­
dalidad, por ejemplo la conceptual. El operador de C-necesidad es intensional: ‘es C-ne-
cesario que todo animal racional es racional’ es verdadero, ‘es C-necesario que todo bípe­
142 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

do implume es racional’ es falso. La intensionalidad de las leyes no es más que conse­


cuencia de que éstas involucran otro tipo de modalidad, la modalidad nómica. Las expre­
siones ‘es una ley que y ‘es //-necesario que no son más que variantes estilísticas
del mismo operador modal. Recuérdese que de momento estamos identificando las leyes
con las generalizaciones nómicas. Si por los motivos discutidos más arriba (el discutible
carácter legal de algunas consecuencias lógicas de las leyes) no los identificamos, enton­
ces el primer operador sería modalmente más restrictivo que el segundo; ambos serían in-
tensionales, pero el segundo, a diferencia del primero, se preservaría bajo relaciones lógi­
cas de implicación.
En adelante, cuando queramos enfatizar el aspecto modal de las regularidades nó­
micas utilizaremos ocasionalmente como abreviatura de ‘es una ley (es una regularidad
nómica, es A-necesario) que todos los A son B ' la expresión lA A-implica B \ Por lo dicho
hasta aquí, debe quedar claro que, en los casos de leyes estrictas y no probabilistas a los
que ahora nos restringimos, de “A //-implica B ” debe seguirse el universal material “To­
dos los A son J5”, pero no a la inversa. Éste es un hecho básico al que debe atenerse cual­
quier análisis filosófico del concepto de ley (cf. la última sección).

2 .9 . P r o y e c t a b il id a d y c l a s e s n a t u r a l e s

Este aspecto está estrechamente relacionado con los relativos a la predicción de


nuevos casos y a la confirmación por instancias. Decimos que las regularidades observa­
das (o las propiedades en ellas involucradas) son p ro yecta b les si estamos justificados a
proyectarlas hacia el futuro. Así, por ejemplo, todas las esmeraldas observadas hasta la
fecha son verdes y parece que podemos proyectar esta regularidad: las futuras esmeraldas
que se observen serán verdes. Goodman (1955) mostró con un famoso ejemplo que esta
cuestión es más complicada de lo que parece. Digamos que algo es ‘verduT syss es obser­
vado antes del año 2 0 0 0 y verde, u observado después del año 2 0 0 0 y azul. Tenemos en­
tonces otra regularidad observada, a saber, que todas las esmeraldas observadas hasta la
fecha son verdules, y sin embargo parece que ésta no se puede proyectar. O, en otros tér­
minos, parece que la experiencia observada permite confirmar la regularidad “Toda esme­
ralda es verde” pero no “Toda esmeralda es verdul”. La cuestión es por qué.
En esta cuestión están implicados los problemas centrales de la inducción (el prin­
cipio de regularidad de la naturaleza, inferencia a la mejor explicación, etc.), que estudia­
remos en su momento. De momento sólo nos interesa mencionar su conexión con las le­
yes. Una posible respuesta a este problema es decir que verde es proyectable y verdul no
porque verde interviene en leyes mientras que verdul no. Pero si definimos los atributos
proyectables como aquellos que intervienen en leyes, entonces el problema es especificar
qué distingue a las leyes. Una posibilidad a la que se suele recurrir es distinguir entre cla­
ses (géneros, atributos, propiedades) naturales y clases no naturales. Podemos agrupar las
cosas en las clases que queramos, pero no todas esas agrupaciones corresponden a d ivi­
siones en la naturaleza. Podemos formar una clase con los objetos verdules, o quizá otra
con objetos que son caballos o pinos, pero estas colecciones no corresponden a divisiones
LEYES CIENTÍFICAS 143

objetivas en la naturaleza. Contrariamente, y según los defensores de las clases naturales,


la clase de los objetos verdes, o la de los caballos, o la de las moléculas de agua, sí son
clases naturales. Pues bien, la idea es entonces que las leyes sólo deben involucrar clases
naturales, con lo que se termina identificando las propiedades proyectables con las natu­
rales. Sin embargo, esta condición parte de nociones, como la de clase natural, que re­
quieren tanta elucidación como la noción misma de ley, por lo que no se puede tomar
como condición intuitivamente exigióle a las leyes sino como alternativa (debatible) para
un análisis filosófico sustantivo de las leyes. Una de sus principales dificultades es afron­
tar el problema ya mencionado de la implicación lógica: si las consecuencias lógicas de
leyes son leyes, entonces dadas dos leyes “Todo A es B” y “Todo C es D” también será
una ley “Todo A o C es B o Z)”, pero no siempre que A y C (o B y D ) son clases naturales
su unión también lo es. Nótese que esta cuestión se complica, pues los predicados resul­
tan o no proyectables no aisladamente, sino “en grupos”, relativamente unos a otros, y
‘A-o-C’ y ‘B-o-D’ son proyectables relativamente entre sí. Por ejemplo, ‘verde’, ‘azul’,
‘esmeralda’, y ‘zafiro’ son proyectables relativamente entre sí, pero ‘verdul’, ‘azuerde’
(azul antes del año 2000 y verde después), ‘esmefiro’ (esmeralda antes del año 2000 y za­
firo después) y ‘zaralda’ (zafiro antes del año 2000 y esmeralda después) también son
proyectables entre sí, pues, p.ej. todo esmefiro es verdul (y por supuesto podríamos haber
partido del segundo grupo y definir los del primero a partir de ellos). Por tanto, no se pue­
de identificar sin más p ro yecta b ilid a d y naturalidad.

2 .1 0 . O b je t iv id a d y d e s c u b r ib il id a d

La apelación a las clases naturales es un modo específico, y particularmente com­


prometido, de imponer una condición a las leyes que, formulada en términos más genera­
les, parece ineludible. Nos referimos a la o b jetivid a d : qué regularidades son nómicas de­
pende del mundo, no de nosotros. Las leyes son objetivas y por eso se pueden d escu ­
brir,; las leyes no se “crean”, existen independientemente de nosotros y nosotros, en todo
caso, las descubrimos. Puede haber leyes que no hayamos descubierto todavía; en reali­
dad, todas las leyes que hemos descubierto eran de ese tipo antes de descubrirlas. Esto se
corresponde con la diferencia intuitiva que mencionamos más arriba entre la necesidad
nómica y la epistémica, a saber, que la primera, a diferencia de la segunda, “está en la na­
turaleza”, no depende de los sujetos cognoscentes. Esta exigencia de objetividad es inape­
lable planteada en términos intuitivos o preteóricos. Otra cosa es si sigue siendo tan obvia
cuando se formula con mayor precisión en términos más comprometidos, por ejemplo re­
curriendo a clases naturales. Ésta es sin duda una de las cuestiones centrales de la familia
de problemas que conforman el problema del realismo científico. Éste es un tema recu­
rrente en la filosofía de la ciencia y que, aunque no recibe un tratamiento explícito, re­
corre gran parte de esta obra, principalmente los capítulos dedicados a la estructura de las
teorías, a la explicación y a la inducción.
144 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

2 .1 1 - SlST E M A T IC ID A D

La última exigencia es la de sistematicidad, y es relativa a la relación de unas re­


gularidades con otras. Las regularidades accidentales pueden “vivir aisladas”. Más allá de
sus relaciones puramente lógicas, las regularidades accidentales no están relacionadas en­
tre sí. A diferencia de ellas, las leyes mantienen relaciones orgánicas de dependencia que
no son sólo relaciones lógicas. Dos o más leyes pueden estar vinculadas de cierto modo
que no es reducible a que unas se infieran lógicamente de otras. Y no sólo es una posibili­
dad; es característico de ellas que se integren conformando sistemas, ello es un hecho
constitutivo de su identidad. Es cierto que caracterizar apropiadamente la naturaleza de
estos sistemas, y de las relaciones que vinculan a sus constituyentes, es extremadamente
difícil, pero ahora no vamos a ocupamos de ello (cf. caps. 8, 9 y 10).

3. A caecim ientos, causalidad y leyes causales

En esta sección vamos a presentar muy someramente algunas nociones básicas


relativas a la causalidad y las leyes, sin entrar en problemas filosóficos sustantivos. En
particular, no vamos a decir nada aquí de las principales concepciones filosóficas de la
causalidad (humeana, realista, etc.) y muy poco de los problemas con que todo análisis
de la causalidad se debe enfrentar (asimetría, prelación, redundancia, etc.). Casi todas
las nociones que vamos a introducir son fuente de numerosos problemas filosóficos y,
por más neutra que intente ser la presentación, es inevitable comprometerse con algu­
nos supuestos discutibles que aquí no se van a cuestionar, y muchas veces ni siquiera a
explicitar. En particular, la referencia en esta sección a la causalidad no pretende sugerir
la imprescindibilidad de esta noción en el análisis de la ciencia en general y de las leyes
en particular; y tampoco esta advertencia se debe interpretar en sentido contrario, favo­
reciendo la tesis de su eliminabilidad por otras nociones menos discutibles, como la de
co rrela ció n fu n c io n a l. La finalidad es meramente propedéutica, esto es, presentar algu­
nos conceptos causales que se utilizan o presuponen más adelante en este y otros capítu­
los, y en las discusiones metacientíficas actuales, sin problematizarlos filosóficamente
(algunas referencias ya clásicas en el análisis contemporáneo de la causalidad son Mac-
kie, 1974; Beauchamp y Rosenberg, 1981, y Sosa y Tooley (eds.), 1993). Puesto que las
relaciones causales se dan entre acaecimientos, es preciso detenerse antes brevemente
en ellos.

3 .1 . A c a e c im ie n t o s y r e l a c io n e s c a u s a l e s

Los acaecimientos (sucesos, eventos) son determinada especie de entidades parti­


culares. Un objeto particular es cualquier entidad espacial o temporalmente localizada;
p.ej. el auto de Adela, esta pantalla de ordenador, el cuerpo calloso del cerebro de Quine,
la “imagen” de la estatua de Colón en el córtex de Pedro ayer a las 14,30, etc. Un evento
LEYES CIENTÍFICAS 145

o acaecimiento es cualquier cosa que ocurre o sucede en cierto lugar durante cierto inter­
valo temporal; p.ej. la batalla de Waterloo, el último partido de fútbol Barcelona-Madrid,
la salida de Juan de la carretera ayer en la Costa Brava, la caída el martes pasado de un
rayo sobre la estatua de Colón de Barcelona, etc. Entre los acaecimientos se distinguen
los p ro ceso s de los estados. Los procesos son acaecimientos variables (el partido de fút­
bol, la gripe de Rosa); los estados son eventos constantes (el estar el lector sentado este
rato, el estado de afonía de Claudia). La distinción entre proceso y estado es parcialmente
vaga y depende de cuán finamente identifiquemos los cambios (el acaecimiento-estado de
estar sentado, mucho menos el de estar afónico, no son totalmente invariables).
Los objetos y acaecimientos son entidades particulares que pueden tener o ejem­
plificar propiedades. Un mismo objeto particular puede tener muchas propiedades dife­
rentes. Esto que está aquí abajo tiene la propiedad de ser una silla, pero también las de ser
azul, ser cómoda, estar aquí debajo, o ser mencionada en este libro. También un mismo
acaecimiento particular puede tener diversas propiedades. Eso que ocurrió el martes sobre
la estatua de Colón de Barcelona tiene la propiedad de ser la caída de un rayo, pero tam­
bién las de ocurrir de día, asustar a Rosa, producir un cortocircuito en el funicular, salir en
primera página del diario E l P a ís del miércoles, ocurrir sobre la estatua de Colón, o ser
mencionado en este escrito.
La relación causal es una relación que se da entre eventos p a rtic u la re s . Tanto ob­
jetos como acaecimientos particulares pueden estar relacionados de diverso modo; p.ej. el
coche de Eduardo es más grande que el de Adela, la batalla de Waterloo es anterior al úl­
timo partido Barcelona-Madrid. La anterioridad es una relación que se puede dar entre
acaecimientos, la causalidad es otra. Podemos preguntar, p.ej., por la causa del accidente
de Juan, o de la amnesia de María, y las causas son otros sucesos particulares. Por ejem­
plo, son causas del accidente de Juan ayer en la Costa Brava: el particular estado mojado
de la calzada, el estado gastado de las ruedas, la velocidad superior a 80 km/h del vehícu­
lo, la somnolencia de Juan, etc.
Un mismo evento puede tener innumerables causas. Una causa o factor causal de
un cierto suceso particular e, el acaecimiento-efecto, es otro suceso purticular c, acaeci­
miento-causa, tal que si no hubiera o currido c, p erm a n ecien d o todo lo dem ás igual, no
habría ocurrido e. Por ejemplo, todos y cada uno de los sucesos mencionados son causas
del accidente de Juan en este preciso sentido pues (supongamos): si la calzada no hubiera
estado mojada, ocurriendo lo demás igual, no se habría salido de la carretera; y si no hu­
biera estado somnoliento, permaneciendo lo demás igual, tampoco se habría salido de la
carretera; si el auto no hubiera ido a más de 80km/h, etc. Se notará que, entonces, el acci­
dente también tiene otras muchas causas. Por ejemplo, que Juan cogiera esa carretera,
pues si hubiera cogido otra, y aunque hubiera tenido un accidente, no sería ese accidente;
o que Juan se levantara de la cama ese día; o que Juan se sacara el permiso de conducir; o
que sus padres le concibieran; o (presumiblemente) que los primates evolucionaran en
cierta dirección determinada; etc. En todos estos casos también es cierto que si no hubiera
ocurrido ese acaecimiento (permaneciendo lo demás igual), tampoco habría ocurrido ese
accidente.
La multiplicidad de causas derivada de esta caracterización contrafáctica de la cau-
146 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

salidad requiere dos advertencias. En primer lugar, no se sigue de ella que todo es causa de
todo, que cualquier acaecimiento anterior al accidente es causa del accidente. Por ejemplo,
que cuando Juan nació, el Sol estaba en Tauro, no lo es, pues simplemente no es cierto que
si Juan no hubiera nacido bajo el signo de Tauro, permaneciendo todo lo demás igual, el
accidente no habría ocurrido. Este ejemplo es ilustrativo, pues muestra que, como cabe es­
perar, el carácter contrafáctico es el núcleo de la noción de causa también cuando tenemos
creencias de hecho erróneas sobre causas. Las presuntas causas en las que erróneamen­
te creen los supersticiosos son consideradas causas precisamente en ese sentido. Los que
creen en la astrología creen en la causalidad astral en ese preciso sentido, a saber, creen
que nuestra última afirmación contrafáctica “no es cierto que si Juan no hubiera nacido en
Tauro, permaneciendo todo lo demás igual, el accidente no habría ocurrido” es falsa.
En segundo lugar, no se debe confundir la multiplicidad de las causas con la de
las explicaciones. Aunque el hecho de que Juan se sacara el permiso de conducir es una
de las causas del accidente, no es una buena explicación decir que Juan se accidentó por­
que se sacó el permiso de conducir (o, más drásticamente, porque los primates evolucio­
naran en cierta dirección). Como veremos por extenso más adelante (cf. capítulo 5, §5), la
explicación causal de un suceso no tiene por qué referirse a todas sus causas, sino por lo
general sólo a aquella o aquellas más destacadas en el particular contexto explicativo.
Así pues, y con estas advertencias, cada acaecimiento tiene por lo general múlti­
ples causas o factores causales. “La” causa, o causa to ta l , de un suceso e es la suma o
conjunción de todos los eventos c h c2, ..., c„ tales que, de cada c¡ (1 < i < n ), es cierto que
de no haber ocurrido c„ y permaneciendo lo demás igual, tampoco habría ocurrido e. La
causa total del efecto e es entonces el acaecimiento complejo C]&c2& ... & c„ y la ausencia
(eliminación o bloqueo) de cualquiera de los factores basta para que no se produzca el
efecto e.
La relación causal se da entre sucesos particulares, entre acaecimientos-ejemplar,
pero gracias a que tales sucesos son de cierto tipo, ejemplifican cierta propiedad. Esto es,
la causalidad se da entre acaecimientos-ejemplar en virtu d de que corresponden a ciertos
acaecimientos-tipo. Tomemos una de las causas del accidente, p.ej. el acaecimiento con­
sistente en que el auto iba a más de 80 km/h, y supongamos que este acaecimiento es una
de las causas, en el sentido indicado, del accidente: permaneciendo todo lo demás igual,
si él no se hubiera dado, el accidente tampoco. Ese suceso particular tiene la propiedad de
ser un movimiento de vehículo a más de 80 km/h, pero también tiene otras, p.ej. ser reco­
gido por un radar policial, ser mencionado en las noticias locales, o ser mencionado en
este libro. Si ese suceso causa el accidente, es en virtud de que tiene la primera propiedad,
no las otras. Sucesos de ese tip o , “ser movimiento a más de 80 km/h”, causan accidentes
como ése en esas circunstancias, no los causan sucesos del tipo “ser recogido por un ra­
dar”. Así, aunque ese mismo suceso particular que causa el accidente tiene ambas propie­
dades, causa el accidente en virtud de que ejemplifica una de ellas, no de que ejemplifica
la otra. Otro suceso particular que fuese del tipo “ser recogido por el radar” pero no del
tipo “ser movimiento a más de 80 km/h”, podría no haber causado, en esas mismas cir­
cunstancias, el accidente (no lo causaría si, p.ej., fuese del tipo “ser movimiento a
20 km/h”).
LEYES CIENTÍFICAS 147

La finalidad de las presentes consideraciones es sólo mostrar la conexión concep­


tual entre las nociones de ca u sa lid a d y dependencia contrafáctica] no pretendemos dar un
análisis de la primera mediante la segunda. Se puede dar tal análisis (para dos modos di­
ferentes de hacerlo, cf. p.ej. Mackie, 1974 y Lewis, 1973a), para lo cual es preciso com­
plicar considerablemente la caracterización simple que aquí hemos dado. La principal
dificultad consiste en dar cuenta de determinadas situaciones en las que parece haber de­
pendencia contrafáctica sin haber relación causal, y de otras en las que parece haber rela­
ción causal sin haber dependencia contrafáctica. Lo primero ocurre típicamente en los
casos de efectos independientes de una causa común. Consideremos, por ejemplo, un sis­
tema tal que al accionar un único botón (causa común c) dispara dos cohetes, uno de los
cuales explota a los seis segundos (efecto e :) y el otro a los nueve (efecto e2), y suponga­
mos que siempre funciona bien disparando los dos cohetes, o que cuando funciona mal no
dispara ninguno. En este caso es cierto que, todo lo dem ás igual, si no ocurriera e¡ no ocu­
rriría e2 (nótese que hemos supuesto que el sistema funciona igual de bien, o igual de mal,
para am bos cohetes) y sin embargo no diríamos que e¡ causa e2 (sobre este tipo de ejem­
plos volveremos cuando estudiemos la relación entre ca u sa lid a d y exp lica ció n ). La se­
gunda situación se da típicamente en los casos de causas independientes confluyentes.
Contemplemos un dispositivo con dos botones tal que al accionar cualquiera de los boto­
nes, o al accionar ambos simultáneamente, dispara una bala, y que en cierto momento dos
personas accionan simultáneamente los botones (c, y c2) disparando una bala que mata a
otra (e). En este caso es falso que, p erm a n ecien d o lo dem ás igual , si la primera persona
no hubiera accionado el botón no se hubiera producido esa muerte por bala; y exactamen­
te lo mismo respecto del accionamiento de la segunda persona. Pero entonces, según la
caracterización simple dada, ninguno de los accionamientos causa la muerte, lo cual con­
tradice nuestras intuiciones (quizá no diríamos que cada uno causa la muerte, pero como
mínimo sí que al m en o s uno lo hace). No podemos detenernos aquí en estos y otros pro­
blemas de los análisis contrafácticos de la causalidad (para un buen compendio, cf. Sosa y
Tooley [eds.], 1993).

3 .2 . L eyes cau sa les

Esta idea de que la causalidad es una relación entre sucesos particulares, pero que
lo es en virtud de que éstos ejemplifican ciertas propiedades generales, es la que recogen
las leyes causales. Las leyes son generales, y las leyes causales expresan la relación ca u ­
sal entre propiedades, ‘causal’ no en el sentido de que unas propiedades causen otras,
sino de que sucesos de un tipo causan sucesos del otro. Las leyes causales son acerca de
las propiedades o acaecimientos-tipo en virtud de los cuales se dan las relaciones causales
entre los acaecimientos-ejemplar. Esto explica la intensionalidad de las leyes, al menos de
las causales. Puede ocurrir que *A N -implica B ’ sea verdadero y ‘C N -implica 5 ’ falso,
aunque los acaecimientos particulares de tipo A sean de hecho los mismos que los acaeci­
mientos de tipo C, esto es, aunque las propiedades A y C sean de hecho ejemplificadas
por exactamente los mismos acaecimientos particulares. El motivo en las leyes causales
148 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

es claro: no vale la sustitución si los acaecimientos particulares de tipo A causan acaeci­


mientos particulares de tipo B, en virtud de tener la propiedad A y no en virtu d de tener la
propiedad C; si, por otro lado, la coextensividad de A y C se debe a alguna relación nómi-
ca entre ambas propiedades, entonces sí valdrá la sustitución en contextos nómicos. La
intensionalidad de las leyes causales es pues consecuencia de que las relaciones causales
se dan entre acaecim ientos p a rticu la res en virtu d de que son ejem plares de d eterm in a ­
do tipo.
De los diversos elementos vistos hasta aquí parece derivarse una consecuencia ex­
traña relativa a las leyes causales estrictas. Si a) los sucesos tienen múltiples causas,
b) las leyes causales deben recoger en su antecedente los diversos tipos de causas involu­
crados, y c) las leyes estrictas deben contener condiciones antecedentes estrictamente su­
ficientes, entonces d) las leyes causales estrictas deben contener en su antecedente la cau­
sa total, esto es, deben referirse en su antecedente a todos los tipos de factores causales (o
al menos todos los simultáneos). Sin embargo, a la luz de los ejemplos usados hasta aho­
ra, esto parece muy implausible. Bien, en parte es así y en parte no.
En parte no es así, pues los ejemplos de generalizaciones nómicas causales ordina­
rias son en parte desorientadores. Las leyes científicas se centran muchas veces en tipos de
sucesos con relativam ente p o co s factores causales, o incluso a veces tratan de efectos debi­
dos a un único tipo de factor causal. Pensemos por ejemplo en la ley de gravitación univer­
sal. A los actuales efectos podemos formularla como ley causal del siguiente modo: “Sobre
un cuerpo x de masa m, la presencia a una distancia d de otro cuerpo y de masa m' produce
sobre el primero una fuerza atractiva de magnitud Gm m 'fd 2-”. Aquí, la causa de que x esté
sometido a esa fuerza es un acaecimiento que ejemplifica la condición antecedente. En
otras ocasiones las leyes se ocupan de sucesos con muchas causas pero a la ley le interesa
el efecto conjunto de todas ellas y, en ese sentido, se trata de una única causa. El ejemplo
paradigmático es la segunda ley de Newton: “La suma de fuerzas incidentes sobre un
cuerpo de masa m produce en éste una aceleración a de magnitud En ambos casos
parece en principio que se expresan los factores causales completos, esto es, que se trata de
leyes causales estrictas (cf., sin embargo, la próxima sección y, específicamente sobre el
peculiar estatuto de la segunda ley de Newton, la sección 5 del capítulo 10).
Pero en parte la anterior conclusión d) sí es válida, pues hay fenómenos con múlti­
ples factores causales que son objetos genuinos de investigación científica. Quizá no es
éste el caso de los accidentes de automóvil, pues no hay, y quizá no haya nunca, teorías
científicas socialmente reconocidas como tales cuyo objeto sean los accidentes de auto­
móvil en general (aunque, en un sentido laxo de ‘científico’, el estudio de este fenómeno
que involucra nomicidad causal múltiple es sin duda científico). Pero hay ejemplos pare­
cidos pertenecientes a ámbitos reconocidamente científicos. Por ejemplo, el estudio de la
esquizofrenia, y en general de los desajustes psíquicos, cuya multiplicidad causal es p r i­
m a fa c ie incuestionable. Ejemplos parecidos se pueden encontrar también en las ciencias
sociales (economía, sociología, antropología) y también en ciencias naturales (biología,
geología). Así, la ciencia, y la ciencia reconocida como tal, también se ocupa de tipos de
sucesos causalmente complejos. La consecuencia es la división social del trabajo, la di­
versidad de la tarea investigadora: la existencia de diversas teorías-leyes cada una de las
LEYES CIENTÍFICAS 149

cuales trata de uno o algunos de los factores causales. Cada una proporciona sus explica­
ciones apelando a causas distintas, pero estas explicaciones no tienen por qué ser incom­
patibles, antes al contrario, cada una es válida en su contexto y, consideradas conjunta­
mente, complementarias. En situaciones de este tipo, relativamente comunes en ciencia,
la existencia de leyes estrictas que contemplen la totalidad de factores causales de un fe­
nómeno es efectivamente muy implausible, a no ser que se pruebe la reducción de unos
factores causales a otros. De cuestiones relacionadas con ésta vamos a tratar en la próxi­
ma sección y en la sección 5 del capítulo 11.
Queda pendiente la discusión sobre la existencia o no de leyes no causales. En un
sentido inmediato, es obvio que las hay, por ejemplo las de Kepler, la de Galileo sobre la
caída libre o la del péndulo. Otro grupo de casos proviene de los fenómenos de causa co­
mún mencionados más arriba. Por ejemplo, la correlación entre el descenso brusco del ba­
rómetro y las tormentas es sin ninguna duda nómica, pero no es causal: tanto el descenso
del barómetro como la tormenta son efectos independientes de una causa común, el descen­
so brusco de la presión atmosférica. Eso proporciona una vía de escape a los partidarios de
la necesaria intervención de la causalidad en las leyes. Algunas leyes no son directam ente
causales, pero éstas se derivan siempre de otras que sí lo son; esto es lo que ocurre en el
caso del barómetro y la tormenta, en los ejemplos cinemáticos mencionados y, en su opi­
nión, en todas las leyes aparentemente no causales. Sin embargo, es un hecho que regulari­
dades nómicas no causales como las mencionadas se han reconocido y aceptado como le­
yes antes e independientemente de su derivación de otras causales. Hoy mismo, p.ej. en
mecánica cuántica, se aceptan muchas leyes sobre cuyo supuesto carácter causal se suspen­
de el juicio, no sólo por parte de los científicos sino también de los metacientíficos. Esto no
refuta la tesis procausalista radical, pero la divorcia de la explicación de la práctica científi­
ca; o al menos muestra que el uso que de hecho hacen los científicos de la noción de ley no
presupone la de causalidad (aunque el procausalista puede concluir, simplemente, que los
científicos no usan siempre correctamente el primer concepto).

4. Cláusulas ceterís paribus y leyes no estrictas

Muchas de las leyes científicas son interferibles, presentan excepciones. En algu­


nas casos ese carácter se hace manifiesto al incluirse explícitamente cláusulas ceteris p a ­
ribus , cláusulas del tipo “salvo factores extraños”, “si nada interfiere”, etc.; ése es el caso,
por ejemplo, de las leyes (9), (10), (12), (13) y (14) de nuestra lista inicial. Pero en la ma­
yoría de ocasiones la cláusula CP está sólo implícita, por ejemplo, en el caso mencionado
más arriba de la ley de Kepler. O, para tomar un ejemplo claramente causal, como sucede
en la siguiente ley biomédica:

(34) Una dosis de 10 mg de benzodiacepina produce somnolencia.

Lo característico de estas leyes es que son leyes con excepciones. Puede ocurrir el
suceso antecedente y no darse el suceso consecuente, y ello sin que se trate (al menos
150 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

aparentemente) de una ley probabilista. Otro modo de expresarlo es diciendo que son le-
yes interferibles, pero ha de quedar claro que con ello no se quiere sugerir que son inter-
feribles “por nosotros”, esto es, por agentes humanos. Quizá a veces la interferencia pue­
da producirla una acción humana (p.ej. en (34) ingiriendo alguna sustancia inhibidora),
pero eso es irrelevante. Son interferibles en el siguiente sentido: la ocurrencia del suceso
particular de tipo A implica nómicamente la ocurrencia del suceso de tipo B sólo si se dan
ciertas condiciones adicionales, por lo que en caso de que tales condiciones resulten inter­
feridas por ciertos factores inhibidores, se da el suceso antecedente y no el consecuente.
En las leyes causales, en las que la relación nómica es la relación causal, el efecto es in-
terferible por la posible no ocurrencia de alguna de las causas coadyuvantes, el factor in­
hibidor impide que se dé alguna de tales causas complementarias; por ejemplo, en (34) se
puede interferir el efecto de la sustancia debido a un estado de extrema excitación, o a la
ingestión de otra sustancia, etc.

4 .1 . A n á l is is d e l a s l e y e s n o e s t r ic t a s

Hay principalmente tres modos de analizar este tipo de leyes. El primero, y más
inmediato, es en términos de leyes estrictas. Según este análisis, las leyes no estrictas
son leyes estrictas in co m p leta m en te fo r m u la d a s ; en términos causales, son leyes cuya
formulación no incluye todos los factores causalmente relevantes. La incompletud pue­
de ser, y a menudo es, relativamente indefinida o desconocida. La particularidad de es­
tas leyes no se corresponde con hechos brutos de la naturaleza sino que es consecuencia
de nuestra ignorancia. La naturaleza sólo contiene leyes estrictas, la “no estricticidad”
es una característica epistémica, no metafísica; no nos informa de algo relativo al mun­
do sino sólo de algo relativo a nuestro conocimiento, a saber, de su incompletud en cier­
to ámbito. Según este análisis, “A, cp, N-implica B ” tiene en realidad el siguiente conte­
nido: a) no ocurre que A /'/-implica B y b) A & H //-implica B, para cierta propiedad H
total o parcialmente no identificada y tal que ella sola no //-implica B . H es el (descono­
cido) complemento de la condición antecedente A y ambas propiedades tomadas con­
juntamente constituyen el antecedente de una ley estricta. La ley con cláusula cp es in-
terferible porque la ocurrencia de A no //-implica la de H ; es //-posible que se dé A sin
darse H y, por tanto, sin darse B.
En general H puede ser muy compleja e incluir factores tanto p o sitivo s como n e ­
gativos. Los factores positivos consisten en la ocurrencia de cierto hecho (p.ej. que la sus­
tancia pase a la sangre), los negativos en la no ocurrencia de ciertos otros (p.ej. que no
haya una sustancia química inhibidora en el cerebro). Esta diferencia es, metafísicamente
considerada, origen de algunas dificultades filosóficas en las que no vamos a detenernos
ahora; a los actuales propósitos, los factores positivos y negativos que constituyen H se
encuentran al mismo nivel. Eso es así incluso si la cuestión se plantea en términos causa­
les, pues si un factor causal c¡ es interferible por, digamos, la ocurrencia de un factor in-
terferidor ch entonces una condición causal antecedente adicional es la no ocurrencia de
cj, y la no ocurrencia de un acaecimiento es otro acaecimiento con perfecta potencia cau­
LEYES C IE N T ÍF IC A S 151

s a l ( p .e j . q u e J u a n n o v i n i e r a a l a f i e s t a e s p a r t e d e l a c a u s a d e q u e n o h u b i e r a v i n o , p u e s
él e ra e l e n c a rg a d o d e tra e rlo ).
A esta reducción epistém ica de las leyes no estrictas a las leyes estrictas, se le pue­
den hacer dos objeciones. Una de ellas, específica sólo de algunos casos de leyes CP, tie­
ne que ver con la relación entre las ciencias especiales y la ciencia básica y la comentare­
mos después. La otra objeción, más general, se deriva de los aspectos metafíisicos debati­
bles que hemos obviado. Como veremos en la última sección, algunos autores defienden
que las leyes expresan cierta relación modal primitiva entre universales o propiedades na­
turales. Desde esta perspectiva, el complemento H representa un problema, pues contiene
condiciones negativas y las condiciones negativas no se pueden asimilar plausiblemente
con universales, o propiedades naturales. Para simplificar, supongamos que H es sólo
“que ahí no ocurra un acaecimiento de tipo C”. La no instanciación de C es ciertamente
un acaecimiento (“negativo”), pero es muy implausible defender que ese acaecimiento in­
volucra una propiedad diferente de C, a saber, la propiedad no-C . No es plausible sostener
que dicho acaecimiento ejemplifica un supuesto universal n o -C , como tampoco es plausi­
ble, de un acaecimiento que ejemplificara algunos de los universales D y E, decir que
ejemplifica un supuesto universal D -o-E \ no toda combinación lógica de universales es
otro universal.
Ésta es la objeción de Armstrong a la reducción de leyes no estrictas a las estrictas
y el motivo de la alternativa que propone (cf. 1983, cap. 10, §4). La propuesta de
Armstrong es seguir el camino opuesto, esto es, tomar como relación nómica primitiva la
expresada por las leyes no estrictas y obtener las estrictas como caso especial. Así, la rela­
ción nómica básica entre universales es en sí misma interferible. La relación nómica entre
A y B es interferida si existe de hecho una propiedad / tal que “Todos los A & / son ¿?” no
es una ley. Una relación nómica concreta entre A y B es interferible si es posible la exis­
tencia de una propiedad I que la interfiera. Toda relación nómica es C-interferible, esto
es, para toda relación nómica concreta es conceptualm ente posible la existencia de una
propiedad que la interfiera. Pero de ello no se sigue que toda relación nómica sea A-inter-
ferible, esto es, no se sigue que para toda relación nómica concreta sea nóm icam ente posi­
ble la existencia de una propiedad que la interfiera. Eso depende del mundo. Quizá algu­
nas relaciones nómicas son tales que no es A-posible la existencia de interferencias. Pues
bien, caso de haberlas, ésas serían las leyes estrictas. Las leyes estrictas son relaciones nó­
micas que no tienen, ni A-pueden tener, interferidores. Nótese que esto no puede preten­
der ser una definición de “relación nómica interferible”, pues en tal caso sería circular. Se
trata a lo sumo de un intento de elucidación de dicha noción primitiva. Por otro lado, tan­
to la propuesta como la objeción que la motiva dependen esencialmente de la concepción
de las leyes como relaciones entre universales.
La tercera alternativa es interpretar las leyes no estrictas en términos probabilistas
(lo que por supuesto exige a su vez no interpretar después, ni abierta ni encubiertamente,
las leyes probabilistas en términos de condiciones cp ). Según esta alternativa, “Todos los
A son, c p , B " seria una variante estilística de “La probabilidad de que los A sean B es
(muy) alta”. La motivación para usar tal variante consistiría en que, en los casos en que se
usa, el valor exacto de la probabilidad es desconocido. Así, en lugar de decir algo pro-
152 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

babilísticamente indefinido como que los A son “en general” o “con bastante” proba­
bilidad B, diríamos que ceteris p a rib u s los A son B. La dificultad principal de esta alter­
nativa es proporcionar después una elucidación de las leyes probabilistas que sea cohe­
rente con esta reducción de leyes no estrictas a leyes probabilistas. Por otro lado, según
cómo se analicen las leyes probabilistas, esta propuesta se puede acabar con virtiendo en
alguna de las anteriores. En particular, si la probabilidad de que se habla es subjetiva o
epistémica, reducir las leyes no estrictas a leyes probabilistas es otro modo de reducirlas a
leyes estrictas incompletas, esto es, a leyes con condiciones antecedentes desconocidas.

4.2. L ey es n o e st r ic t a s y c ie n c ia s e sp e c ia l e s

El contexto metacientífico en el que más se debate sobre la naturaleza de las leyes


no estrictas es el de la relación entre ciencia especial y ciencia básica y la posibilidad de
reducir, total o parcialmente, la primera a la segunda. El debate se ha planteado sobre
todo en filosofía de la psicología (cf. p.ej. Schiffer, 1991 y Fodor, 1991), pero afecta
igualmente a otras ciencias, como la economía, la sociología, la biología o la geología. La
cuestión de la relación entre ciencias especiales y ciencia básica tiene que ver con el viejo
anhelo fisicalista de situar a las teorías físicas en la base de todo nuestro conocimiento.
Para el fisicalista (o fisicista) la realidad es en última instancia, y primariamente, reali­
d a d físic a ; lo (micro)físico constituye todos los demás niveles de realidad. Aunque las
demás ciencias, llamadas usualmente en este contexto ciencias no básica s o esp ecia les ,
proporcionen explicaciones legítimas, tales explicaciones descansan en última instancia
en las que proporciona la física. La causalidad involucrada en los fenómenos macroscópi­
cos descansa sobre las relaciones causales de los procesos microfísicos que constituyen
aquéllos. Las leyes macroscópicas tienen su base o fu n d a m e n to en leyes microfísicas.
Así, la psicología tendría su base en la neurociencia; la biología, lo mismo que la geolo­
gía, en la química y en la física; y la química en la física. Análogamente, aunque de modo
más insospechado, ocurriría p.ej. con ciencias especiales todavía más alejadas de la física,
como la sociología, la economía o la lingüística.
La versión más radical de este programa fisicalista es el reduccionismo. Como ve­
remos (cf. capítulo 11 §5), la posibilidad de reducción en sentido estricto parece inviable
a causa de la m últiple realizabilidad , pero los fisicalistas pueden defender su viejo anhelo
con una versión menos ambiciosa centrada en la noción de su p erven ien cia , más débil que
la de reducción. No podemos detenernos ahora en esta cuestión, que estudiaremos más
adelante. Aquí nos interesa tan sólo apuntar el motivo por el que las leyes no estrictas es­
tán en el centro de este debate .1

1. Como se ha indicado, el debate se centra inicialmente en el fisicalismo, en la tesis de que la


“realidad básica” es del tipo estudiado por las teorías físic a s. Sin embargo, la idea de que en la ciencia algu­
nas leyes, teorías o explicaciones “descansan” en otras más básicas es general e independiente de si el nivel
básico es siempre, o no, el estudiado por las teorías físicas. Por ello, para no prejuzgar la cuestión del física-
lismo, y siguiendo a la literatura, para referimos a ambos niveles no usaremos ‘ciencia física’ y ‘ciencias
no-físicas’ sino ‘ciencia básica’ y ‘ciencias no-básicas’ o, más brevemente, ‘ciencias especiales’.
LEYES CIENTÍFICAS 153

La mayoría de las leyes de las ciencias especiales, si no todas, son no estrictas,


contienen implícita o explícitamente cláusulas ceteris p a rib u s (p.ej. las leyes (10), (12),
(13) y (14) de nuestra lista) y uno de los motivos de ello es que son interferibles por pro­
cesos más básicos. Tomemos como ejemplo (13): si alguien desea algo, cree que hacien­
do otra cosa lo logrará, cree que su acción es posible, y no desea más otra cosa que sea
contraria a su acción, entonces, ceteris p a rib u s, realiza la acción. En este caso hay facto­
res interferidores claros, y los más inmediatos no son “psicológicos” sino más básicos,
neuronales o bioquímicos. Por ejemplo, deseo dejar de sentir dolor en el zapato, creo que
se debe a una piedra, creo que sacándome, sacudiendo y volviendo a calzarme el zapato
lograré mi deseo, creo que eso es posible y que no se opone a ningún deseo en competen­
cia, y a pesar de todo no realizo la acción pues, por ejemplo, mis facultades motoras se
han visto afectadas por efectos de una droga o por un repentino sh o ck neuronal, o en­
docrino, o lo que sea. Éste es un ejemplo paradigmático de interferibilidad de una ley psi­
cológica. El fisicalista sostiene que este tipo de situación, común en todas las ciencias
especiales, proporciona plausibilidad a su tesis. Si la causalidad se da entre acaecimientos
particulares en virtu d de ejem p lifica r ciertas p ro p ied a d es, y el factor interferidor es, diga­
mos, neuro-bioquímico, entonces las propiedades en virtud de las cuales el acaecimiento
particular causa determinado efecto cuando no es interferido, deben ser también neuro-
bioquímicas, pues de otro modo la causación no sería interferible por sucesos neu-
ro-bioquímicos. La idea que hay detrás es que la causalidad se realiza mediante ciertos
m ecanism os y que, por tanto, todas las propiedades causalmente relevantes (tanto las
efectivas como las inhibidoras) tienen que estar al mismo nivel, el nivel del mecanismo.
Si las propiedades interferidoras son neuro-bioquímicas, las responsables de la causación
en ausencia de interferencias también deben serlo. Y así, en opinión del fisicalista, hasta
llegar eventualmente al nivel más básico.
De lo anterior se deriva la objeción específica a la reducción de las leyes no estric­
tas a leyes estrictas que anunciamos más arriba. Si las leyes no estrictas se reducen a leyes
estrictas incompletas, entonces su eventual formulación completa debe mencionar las
propiedades causalmente relevantes. Si todas las propiedades causalmente relevantes de­
ben ser del mismo nivel, entonces todas las propiedades que menciona la eventual ley es­
tricta formulada completamente deben ser del nivel de los factores de interferencia. Pero
si es así, puede objetarse, entonces no es ya una ley (no estricta) de la ciencia especial
sino una ley (estricta) de la ciencia básica. En el caso de la psicología, las leyes CP psico­
lógicas serían formulaciones incompletas de leyes estrictas de la neurociencia (o lo que
sea). Y el caso de la psicología es sólo un ejemplo, lo mismo ocurriría en las restantes
ciencias especiales con sus correspondientes bases de factores interferidores.
Independientemente del análisis de las leyes no estrictas, la idea misma de los me­
canismos causales inspira a los fisicalistas el descenso hacia la microfísica. El funciona­
miento de un mecanismo que consta de partes depende del funcionamiento de las partes
que lo constituyen y del modo en que se combinan las partes. Puesto que todo fenómeno
consta en última instancia de partículas básicas (o lo que la física básica diga) con ciertas
propiedades, “funcionando”, combinándose y recombinándose de cierto modo, la explica­
ción en cualquier nivel descansa en última instancia en la explicación en el nivel básico.
154 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Estas consideraciones son independientes del análisis de las leyes no estrictas, pues la
idea de los mecanismos sugiere el descenso incluso si las leyes especiales fuesen estric­
tas. Dejaremos por el momento sólo planteadas estas cuestiones y volveremos sobre la re­
lación entre ciencia especial y ciencia básica cuando nos ocupemos de las relaciones in­
terteóricas (cf. cap. 11 §5).

4.3. L e y es n o e s t r ic t a s y c ie n c ia b á sic a

Aunque la discusión sobre leyes no estrictas se suele encontrar especialmente vin­


culada a la de la relación entre ciencia especial y ciencia básica, conceptualmente no de­
pende de ella. Los factores interferidores pueden ser todos del mismo nivel que el de las
propiedades que se mencionan en la formulación no estricta de la ley, en cuyo caso la
eventual formulación completa de la ley no supone ningún descenso ontológico. Es difí­
cil, en principio, encontrar ejemplos claros de ello en las ciencias especiales, aunque qui­
zá algunas leyes económicas como (14) pudieran corresponder a una situación tal. Quizá
los factores que pueden impedir que un aumento de la oferta produzca un descenso del
precio del producto sean todos económicos; aunque si somos muy estrictos no, pues siem­
pre parecen ser posibles interferencias “catastróficas”, por ejemplo puede caer un meteo­
rito, o sin ir tan lejos, los consumidores pueden volverse todos locos y, siendo todos los
demás factores económicos iguales, pagar más cuanto más haya. Sea de ello lo que fuere,
el lugar más apropiado para plantear la cuestión de las leyes no estrictas, independiente­
mente de la relación entre ciencia especial y básica, es el de la (supuesta) ciencia básica,
pues simplemente ella no tiene otra más básica a la que se pueda apelar para dar cuenta de
las interferencias. El problema en este caso es si existe tal cosa, actual o potencialmente.
En el presente contexto, y por mor de la exposición, supondremos que así es y tomaremos
como ejemplo la ciencia que paradigmáticamente así se ha considerado por los defensores
de la ciencia básica, la mecánica (para facilitar la exposición, nos referiremos a una teoría
mecánica parcialmente incorrecta, la Mecánica Clásica, y no a las actualmente en vigor,
la Mecánica Cuántica y la Mecánica Relativista).
Muchas de las leyes de la familia mecánica son claramente leyes no estrictas, aun­
que no contengan explícitamente cláusulas ceteris p a rib u s. Los casos más manifiestos, al­
gunos de los cuales ya hemos mencionado, corresponden a las leyes cinemáticas resulta­
do de aplicar las leyes mecánicas a situaciones específicas; por ejemplo, la ley de Kepler
sobre el movimiento de los planetas, la ley de Galileo sobre la caída de graves en entor­
nos próximos a la superficie terrestre o la ley del péndulo que correlaciona la velocidad
angular (o el período) con la longitud. Todas estas leyes, y muchas otras, son claramente
interferibles, y de hecho interferidas. Los planetas no se mueven exactamente como afir­
ma (2 ) pues están sometidos a fuerzas de otros astros; los cuerpos no caen con la acelera­
ción que afirma (3) pues están sometidos a otras fuerzas además de la gravitatoria, al
menos la del rozamiento del medio, y análogamente con (4). En todos estos casos, los
factores interferidores no provienen de otros niveles supuestamente más básicos, sino del
propio nivel cuyas propiedades (magnitudes) son mencionadas en la formulación de la
LEYES CIENTÍFICAS 1 55

ley. La interferibilidad de este tipo de leyes “básicas” no estrictas se debe en general a


que en su formulación se realizan ciertas idealizaciones sobre su ámbito de aplicación,
p.ej. que no hay fuerzas de rozamiento del medio, que no hay otros astros, etc.
Este tipo de leyes no estrictas se pueden completar entonces de dos modos dife­
rentes. El primero, incluir explícitamente una cláusula CP que mencione las idealizacio­
nes. Este es el caso de algunas formulaciones de la ley de Galileo en las que se explíci­
ta que la aceleración es “en el vacío”; o de la del péndulo, cuando se explícita, además
de que el movimiento es en el vacío, que el hilo no tiene masa; y quizá fuese posible
algo parecido también en la ley de Kepler, El inconveniente principal de este expediente
para convertirlas en leyes estrictas es que se trataría de leyes estrictas vacuamente ver­
daderas, pues una vez explicitadas las idealizaciones e incluidas como condiciones an­
tecedentes adicionales, el antecedente de la ley no se cumpliría en ninguna situación
empírica real (aunque recordemos que eso no afecta a su naturaleza contrafáctica). El
segundo procedimiento consiste en mantener el antecedente sin idealizaciones y refinar
entonces el consecuente para que tome en cuenta los efectos derivados de los factores
interferidores. En este caso tenemos una ley de caída de graves, mucho más complicada,
que incluye como parámetros adicionales la fricción del medio, etc. Obviamente, la ma­
yor dificultad de este procedimiento es que resulta difícilmente realizable de modo ple­
no hasta conseguir leyes estrictas.
La existencia de leyes físicas básicas no estrictas podría explicarse por su carácter
no fundam ental. Estas leyes serían siempre leyes derivadas , es decir, el resultado de aplicar
a situaciones particulares leyes mecánicas más fundamentales que tratan directamente de
los elementos dinámicos causalmente responsables de los efectos cinemáticos. No es esen­
cial que las leyes cinemáticas no estrictas se formularan originalmente como aplicación de
las dinámicas (p.ej., ello no fue así en los ejemplos mencionados), basta con que acaben
siendo derivables cuando se identifiquen las leyes causales. Éste sería un modo de “elimi­
nar” las leyes no estrictas de la ciencia básica, mostrar que las leyes no estrictas son siem­
pre aplicaciones con idealizaciones de leyes más básicas a situaciones específicas. Para que
ello pueda considerarse una cuasi-eliminación de las leyes no estrictas es necesario que las
leyes más básicas sean estrictas. La idea es que las leyes fundamentales no contendrían
idealizaciones, las idealizaciones sólo se precisarían en aplicaciones particulares.
Así, por ejemplo, en dinámica, las leyes fundamentales expresan determinacio­
nes de dos tipos. En unos casos, se determinan efectos cinemáticos globales debidos a
factores dinámicos conjuntamente considerados. Un ejemplo sería la Segunda Ley de
Newton, a = Y f j m , que determina la aceleración total debida a la resultante de las fuer­
zas incidentes, sean ésta s cu a les sean. Así considerada esta ley no parece contener idea­
lizaciones y, como sugerimos en la sección 2, sería un caso de ley estricta. Es cierto que
por sí sola es de poca utilidad, que sólo tiene contenido empírico aplicada a situaciones
específicas y que tal aplicación supone idealizaciones, pero todo ello no la convierte, al
menos sin argumentos adicionales, en una ley interferible. En otros casos, se determina
el valor de ciertas magnitudes dinámicas dependientes de otras propiedades dinámica­
mente efectivas. Ejemplos de esto serían la ley de gravitación universal, o la ley de Cou­
lomb que determina la magnitud de la fuerza eléctrica entre cuerpos cargados, o la ley
156 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

de Hooke que determina la magnitud de la fuerza de recuperación de un cuerpo elástico.


La ley de gravitación, tal como la formulamos anteriormente, establece que sobre un
cuerpo x de masa m , la presencia a una distancia d de otro cuerpo y de masa m ' produce
sobre el primero una fuerza atractiva de magnitud Gm m '/d 2. En esta versión, esta ley es
claramente una ley estricta, y lo mismo ocurre con las otras dos formuladas análo­
gamente.
Si advertimos explícitamente que este segundo tipo de leyes se pueden considerar
leyes estrictas únicamente en estas versiones de las mismas, es porque a veces se han for­
mulado de modo que su estricticidad se torna cuestionable. Así, por ejemplo, Cartwright
(1983 cap. 3) objeta al presunto carácter estricto de la ley de gravitación interpretándola
como afirmando que la fuerza (total) con la que se atraen dos cuerpos es G m m 'id 2. Así in­
terpretada se trataría obviamente de una ley falsa, esto es, con excepciones, pues “la”
fuerza con que se atraen puede no ser ésa si, por ejemplo, los cuerpos están además carga­
dos eléctricamente. Según esta interpretación, la ley versa sobre la fuerza atractiva tota l , y
en tal caso es claramente no estricta, contiene la idealización de que no hay otras fuerzas
atractivas actuando. Sin embargo, es discutible que ésta sea una interpretación legítima de
ley, y en cualquier caso no es la adecuada para dirimir la cuestión que nos ocupa. Si este
tipo de interpretaciones estuviera siempre disponible, sería difícil siquiera co n ceb ir una
ley cuantitativa mínimamente específica que fuese estricta: toda ley que especifique la
cantidad de cierto efecto producido por un factor causal específico incluiría, en esa inter­
pretación, una cláusula cp afirmando que no hay otros factores que producen el mismo
tipo de efecto.

5. Probabilidad y leyes probabilistas

5 .1 . L e y e s p r o b a b il is t a s

Las leyes probabilistas son aquellas regularidades n óm icas cuya formulación con­
tiene esencialmente expresiones probabilísticas o estadísticas, como las leyes (6), (7) y
(11) de nuestra lista inicial. Damos en este caso una caracterización en términos intencio­
nadamente lingüísticos puesto que, como veremos, es una cuestión especialmente debati­
ble que haya algo como probabilidades objetivas en la naturaleza.
A las regularidades estadístico-probabilistas se aplica también la distinción entre
nómicas y accidentales. Nómicas son, por ejemplo, las tres recién mencionadas, mientras
que la siguiente regularidad estadística (supongamos que verdadera) es claramente acci­
dental:

(35) El 80 % de las monedas del bolsillo izquierdo de los pantalones de Quine


en el Año Nuevo de 1990 son doradas.

Que tal porcentaje de monedas del bolsillo izquierdo sean doradas es tan acciden­
tal como que todas las del derecho lo sean. Si se entiende el sentido en que (30) es acci­
LEYES CIENTÍFICAS 157

dental, se debe entender igualmente que (35) lo es. Por lo general, las regularidades acci­
dentales de esta clase se suelen formular en términos estadísticos, no en términos probabi-
listas. Las expresiones probabilistas suelen reservarse sólo para regularidades nómicas,
pero nada esencialmente incorrecto hay en decir, sabido que (35) es accidental, que la
probabilidad de que una de tales monedas sea dorada es 0 ,8 ; aunque menos común, tam­
bién se expresan a veces regularidades accidentales en términos probabilistas. Un ejemplo
más interesante es (36):

(36) Los consumidores de café tienen una probabilidad más alta de padecer
cáncer de pulmón que los que no lo consumen.

Ésta es una regularidad verdadera, pero (seguramente) accidental. Lo que produce


cáncer de pulmón no es tomar café sino fumar, y lo que ocurre es que tomar café está a c ­
cidentalm ente correlacionado con fumar (al menos a nivel biomédico, quizá la correla­
ción entre tomar café y fumar sea una regularidad estadística nómica de la sociología, en
cuyo caso (36) resultaría ser nómica después de todo).
Entre las leyes probabilistas también se pueden distinguir las estrictas de las no
estrictas. Si bien tanto en las leyes probabilistas como en las no estrictas ocurre que, aun­
que la regularidad nómica sea verdadera, pueden satisfacerse las condiciones anteceden­
tes y no las consecuentes, el carácter probabilista o no es en principio independiente del
carácter estricto o no. Al igual que hay leyes no probabilistas estrictas y no estrictas, tam­
bién las leyes probabilistas pueden ser estrictas o no estrictas. Otra cosa es que, si se de­
fiende una determinada concepción epistémica de la probabilidad, toda ley probabilista
resulte ser en el fondo una ley (no probabilista) no estricta. Pero en principio, y antes o
independientemente de dicho análisis, es claro que puede haber leyes probabilistas tanto
estrictas como no estrictas. Por ejemplo, la ley (7) sobre la desintegración de los átomos
de radio es seguramente estricta, mientras que (37) y (38) son claramente no estrictas:

(37) La probabilidad de que te interrogue la policía en Barcelona paseando por


la calle es muy baja.
(38) La probabilidad de curarse de una infección tomando antibióticos es muy
alta.

Ambas regularidades nómicas son verdaderas, pero claramente interferibles: si


además de pasear por Barcelona se tiene aspecto norteafricano, la probabilidad de que te
interroguen pasa a ser alta; si se toma alcohol después de los antibióticos, la probabilidad
de cura disminuye considerablemente. Nótese que la interferibilidad no consiste ahora en
que se pueda dar el antecedente sin el consecuente, eso es siempre así en las leyes proba­
bilistas. La interferibilidad consiste en que, al añadir nuevos factores (interferidores) al
antecedente, puede alterarse la probabilidad aseverada. La diferencia entre leyes pro­
babilistas estrictas y no estrictas tiene pues que ver con la relevancia estadística de las
nuevas condiciones que se pueden añadir al antecedente: si tales nuevas condiciones son
estadísticamente relevantes para la ocurrencia del consecuente, entonces la probabilidad
158 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

varía y la ley resulta interferida. Las leyes probabilistas estrictas se caracterizan por la h o ­
m ogeneidad de la propiedad o clase de referencia antecedente. La clase de referencia an­
tecedente A es homogénea respecto de la p ro p ied a d (clase de referencia) consecuente B
si en todas las subclases de A la probabilidad de ser B es la misma, esto es, si para cual­
quier propiedad C, la probabilidad de ser B es la misma siendo A que siendo A & C. Así,
si A es ¿^-homogénea no hay posibilidad de interferencia probabilista y la ley es estricta.
Cuando en el capítulo 7 nos ocupemos de las explicaciones estadísticas, volveremos so­
bre esta noción.
Las leyes probabilistas se suelen denominar también indeterm inistas. Pero aquí
hay que ir con cuidado para no confundirse por cuestiones terminológicas. Si por ‘inde­
terminista’ se entiende una ley tal que aunque se satisfaga el antecedente no está to tal­
m ente d eterm in a d o o aseg u ra d o que ocurra el consecuente, entonces las leyes no estric­
tas, probabilistas o no, también serían indeterministas. En ese sentido son indeterministas
todas las probabilistas y las no probabilistas interferibles, y son deterministas sólo las no
probabilistas estrictas. Si por ‘indeterminista’ se entiende simplemente probabilista, en­
tonces las interferibles no probabilistas serían deterministas. Por último, se puede quizá
pensar en un sentido débil de ‘determinista’ que incluya a las probabilistas estrictas. En
este sentido débil, una ley es determinista si está d eterm in a d o q u é es lo que ha d e p a sa r.
En una interpretación amplia, en las leyes probabilistas estrictas está determinado qué es
lo que ha de pasar, a saber, que se dé determinada probabilidad; si la ley probabilista es
estricta, pasa lo que ha de pasar, la probabilidad está determinada. En este sentido débil,
‘indeterminista’ es simplemente sinónimo de ‘no estricta’. Así pues, hay tres interpreta­
ciones posibles de ‘ley determinista’: a) ley estricta no probabilista, b) ley no probabilista
(estricta o no) y c ) ley estricta (probabilista o no). Puesto que los otros casos tienen ya sus
propias denominaciones, aquí usaremos la expresión, salvo advertencia en contrario, en el
primer sentido (este uso coincide además en general con el de la literatura, pues casi
siempre se distingue entre leyes deterministas e indeterministas sin tomar en considera­
ción las leyes no estrictas).
Antes de presentar brevemente las diferentes concepciones sobre la probabilidad,
y con ello sobre la naturaleza de las leyes probabilistas, vamos a explicitar el modo en
que se van a transcribir estas leyes en el resto de esta obra y a comentar lo que se dirime
en otras alternativas que no vamos a seguir. Las leyes estadístico-probabilistas más senci­
llas tienen una de las siguientes formas: (i) “La probabilidad de que los A sean B (o la
probabilidad de ser B condicionada a ser A ) es r”, “El r % de los A son 5 ”; (ii)
“La probabilidad de ser B siendo A es mayor que siendo C”, “El porcentaje de B s que son
As es mayor que el de B s que son Cs”; (iii) “Ser A aumenta la probabilidad de ser B ”.
Para estas afirmaciones n óm icas estadístico-probabilísticas vamos a usar, respectivamen­
te, las siguientes transcripciones: ‘p(5/A) = r \ ‘p (B!A) > p(B/C)’ y ‘p(Z?/A) > p(ií/no-A)’
(es inmediato que con la primera bastaría, pues lp(a) > p(p)’ equivale a ‘hay r, s tales
que p(a) = r, p(p) = s y r > s ’).
Aquí tomaremos la expresión *p(B/A) = r’ como abreviatura de ‘Vx (p(Ax —> Bx)
= r ) \ En principio podrían imaginarse dos interpretaciones alternativas, pero es fácil ver
que no son viables. Una primera posibilidad es analizar ‘p(B/A) - f mediante ‘Vx (Ax
LEYES CIENTIFICAS 159

—> p(Bx) = r ) ' . Pero esta opción no es aconsejable, principalmente por dos motivos. El
primero es que este análisis es inconsistente si hay leyes probabilistas no estrictas y si el
predicado ‘probable’ se puede usar en lógica de primer orden estándar. Como menciona­
mos en el capítulo 2 (§3), entre proposiciones probabilistas no vale en general la
inferencia (*) de “p(B/A) = r” a “p(B/A&C) = r”. Esta inferencia sólo es válida si A es
B-homogénea, esto es, si p (B /A) = r es una ley estricta. Por otro lado, en lógica de
primer orden estándar siempre es válida la inferencia (**) de “Vx (Ax —»y(x))” a “Vx
(Ax a C x —> y(x))’\ De ambos hechos se sigue que la opción considerada conduciría a
inconsistencias. Puesto que no es razonable sostener que todas las leyes probabilistas
son estrictas, el único modo de defender esta opción es rechazar que el operador ‘p ’ se
pueda usar en lógica de primer orden (quizá por ser intensional), de modo que si este
operador aparece en ‘y’, entonces la inferencia (**) no se puede considerar de primer
orden. Pero esta respuesta es poco plausible pues, primero, (**) es válida incluso si ‘y’
contiene predicados claramente intensionales, p.ej. modales o epistémicos, y segundo,
la teoría matemática de la probabilidad se formula usualmente en lógica de primer or­
den. El otro motivo para no seguir esta opción, independiente del anterior, es que, según
algunas concepciones de la probabilidad, no tiene sentido hablar de probabilidad abso­
luta; sólo tiene sentido hablar de probabilidad condicionada, por lo que ‘p(B x)\ si no
tiene implícita una paráfrasis condicionada, no significa nada. Por tanto, si se usa este
análisis se está prejuzgando la falsedad de dicha concepción.
La segunda posibilidad es aplicar ‘p ’ a implicaciones materiales generales, esto es,
analizar ‘B/A’ mediante ‘Vx (Ax —> Bx)’ y, con ello, *p(B/A) = r* mediante ‘p(Vx (Ax —»
Bx)) = r* (esta opción presupone aceptar que tiene sentido aplicar la probabilidad a propo­
siciones generales). La principal dificultad de este análisis es que, si aceptamos que ‘p ’ se
aplique a generalizaciones, hay casos de generalizaciones materiales falsas cuya proba­
bilidad es razonable considerar nula, o al menos muy baja, y sin embargo la generaliza­
ción nómica probabilista asigna una probabilidad relativamente alta (análogamente con
generalizaciones verdaderas). Supongamos que es una regularidad nómica que la proba­
bilidad de que un átomo de radio permanezca estable durante 1.600 años es 0,5. Ello no
quiere decir que la probabilidad de que todos los á to m o s de radio p erm a n ezca n estables
durante 1.600 a ños es 0,5. Se diría que esta segunda probabilidad es 0, aunque quizá eso
sea discutible según la concepción de la probabilidad que se defienda. Pero en cualquier
caso no es obvio que esta segunda probabilidad sea también 0,5, y así sería si se aceptara
este segundo análisis.

5 .2 . P r o b a b il id a d l ó g ic a , p r o b a b il id a d s u b je t iv a y p r o b a b il id a d o b je t iv a

Para concluir, vamos a ver muy brevemente las principales concepciones sobre la
naturaleza de la probabilidad y su aplicación a las leyes probabilistas. Estas concepciones
no son siempre incompatibles, pues en algunos casos se defiende que el término ‘pro­
babilidad’, como ‘banco’ (o ‘necesario’) es equívoco, esto es, que tiene diferentes signifi­
cados y que por tanto no se trata de un único término sino de varios. Así, por ejemplo,
160 FL'.NDA.YIFNTOS DR FILOSOFIA DF LA CIHNCIA

Carnap sostiene que hay que distinguir entre p r o b a b ilid a d , o probabilidad lógi­
co-inductiva y p ro b a b ilid a d 2 o probabilidad estadística. Por otro lado, no todos los análi­
sis pretenden dar una definición de ‘probabilidad’ en función de otros términos no proba-
bilistas supuestamente más claros. En muchos casos el análisis se detiene en algún con­
cepto probabilista que se considera primitivo y del que se derivan el resto de conceptos
probabilistas, y presenta sus conexiones no definicionales con otros conceptos. Por últi­
mo, todos los análisis deben satisfacer al menos dos condiciones de adecuación: en pri­
mer lugar, deben ser coherentes con los principios fundamentales de la teoría matemática
de la probabilidad (cf. p.ej. Kolmogorov, 1950); y en segundo lugar, deben mostrar cómo
se evalúan las proposiciones probabi lis tas, o cómo se determinan los valores probabilis-
tas, a partir de frecuencias observadas. Estas son exigencias que todo análisis debe satis­
facer en principio; para rechazar alguna de ellas hay que ofrecer motivos muy fuertes.
El tema de la probabilidad es especialmente complejo, tanto técnica como con­
ceptualmente. Ninguna de las concepciones en liza ha mostrado por ahora ser plenamente
satisfactoria, el debate sigue abierto y dista mucho de resolverse pronto. Por la compleji­
dad del tema y las limitaciones de espacio vamos a presentar sólo las líneas generales de
las principales alternativas y cómo afectan a la naturaleza de las leyes probabilistas. Sobre
algunas de ellas volveremos más adelante cuando nos ocupemos de la explicación (cap. 7)
y, especialmente, de la inducción (cap. 12).
Se pueden distinguir en general tres familias de concepciones sobre la pro­
babilidad: la lógica, la subjetivista y la objetivista. Según la primera, los enunciados de
probabilidad son acerca de relaciones lógicas (inductivas) entre proposiciones. Según la
segunda, los enunciados de probabilidad son acerca de las creencias que tiene el sujeto
sobre cierto ámbito; el contenido de tales enunciados, en tanto que probabilistas, no tiene
que ver con estados del mundo objetivo sino con estados epistémicos de los sujetos, esto
es, con el estado de conocimiento o ignorancia, por parte del sujeto, de regularidades no
probabilistas, las únicas que hay objetivamente. Según la tercera, los enunciados de pro­
babilidad son acerca de propiedades empíricas objetivas independientes del sujeto de co­
nocimiento. Esta caracterización es extremadamente superficial y parcialmente inadecua­
da, pero la tomaremos como punto de partida para presentar las diferentes alternativas.

P ro b a b ilid a d lógica .
La interpretación lógica de la probabilidad se inicia con
Keynes (1921), Ramsey (1926) y Reichenbach (1935) y es desarrollada por Jeffreys
(1957) y, sobre todo, Carnap (cf. especialmente 1950), cuyos trabajos continúa Hintikka
(1966). En esta interpretación, las afirmaciones de probabilidad condicionada (al menos
en una de las nociones de ‘probabilidad’) expresan relaciones de inferencia lógica, no de­
ductiva sino inductiva; las afirmaciones probabilistas son por tanto, como todas las afir­
maciones lógicas, a priori. La afirmación “p es consecuencia deductiva de a ” expresa
una relación lógica objetiva, a saber, que la verdad de J3 está implicada por la de a.
Cuando la probabilidad es lógica, ‘p(p/ct) = r' significa “p es consecuencia inductiva de
a en grado r”, y esto expresa una relación lógica tan objetiva como la anterior que, igual
que aquélla, depende sólo del contenido de a y de p . El problema, claro está, es precisar
en qué consiste esa relación. En el caso de la inferencia deductiva es sencillo precisar cuál
LEYES CIENTIFICAS 161

es esa relación y los patrones inferenciaies correctos a que da lugar. No ocurre así con la
inferencia inductiva y todavía hoy se sigue trabajando en el desarrollo de un sistema de
lógica inductiva satisfactorio (tarea que para los críticos, como Popper, está condenada al
fracaso, pues según ellos simplemente no existe una lógica inductiva). En el capítulo 12
(§3) volveremos sobre esta cuestión. Como veremos, una posibilidad es subjetivizar la ló­
gica inductiva y sostener que sus leyes no son sobre relaciones objetivas que mantienen
las proposiciones independientemente de los sujetos cognoscentes, sino sólo sobre las
creencias de los sujetos. En este caso, la noción lógica de la probabilidad acabaría redu­
ciéndose a alguna de las versiones de la probabilidad subjetiva.
Incluso si se acepta este sentido lógico o inductivo de la probabilidad, es poco
plausible aplicarlo a las leyes científicas probabilistas. Ello supondría interpretar las leyes
concretas de tipo p (B/A) = r como afirmaciones lógicas que expresan casos concretos del
esquema argumentativo inductivo (I), y las leyes concretas de tipo p(BM) > p(fí/C) como
afirmaciones en que se establece que un caso concreto de (lia) es una inferencia inductiva
mejor que el correspondiente caso concreto de (II£>).

(I) A* (lia) Ax (IIb) Cx


M
~Bx Bx Bx

Nótese que los argumentos inductivos involucrados no tienen por qué ser “buenos” o
“fuertes”. En el primer caso r puede ser bajo, y ello no debería afectar en absoluto a su le­
gitimidad en tanto que ley probabilista (cf. p.ej. la ley según la cual la probabilidad de
que un electrón atraviese una barrera de potencial es 0,1). Las leyes probabilistas del pri­
mer tipo serían pues reglas de inferencia inductiva para pasar de unas afirmaciones a
otras, con mayor o menor garantía inductiva según sea la probabilidad aseverada en la
ley. Análogamente en el segundo caso, tanto (lio) como (II¿>) pueden ser muy débiles
mientras (lia) sea menos débil que (II¿>). Las leyes del segundo tipo establecerían compa­
raciones entre pares de tales reglas de inferencia. Esta interpretación de las leyes es, ade­
más de poco natural, implausible p rim a fa c ie pues convierte a las leyes de la ciencia em­
pírica en afirmaciones lógicas (de la lógica inductiva) y por tanto a p rio ri. Defender que
las leyes naturales (probabilistas) son verdades lógicas (inductivas) es identificar la necesidad
nómica con la necesidad lógica. Esta consecuencia es prim a fa c ie inaceptable, es un precio
demasiado elevado a pagar por el esclarecimiento de la noción de ley, probabilista o no.
Independientemente de la implausibilidad de esta eventual aplicación de la pro­
babilidad lógica a las leyes probabilistas, y suponiendo, como pretenden los inductivistas,
que es una noción aceptable, la noción lógico-inductiva de la probabilidad no puede ser la
única. Al menos por un motivo, a saber, los argumentos inductivos usan en muchos casos
en las premisas afirmaciones probabilistas o estadísticas. Es cierto que hay argumentos
inductivos, p.ej. los de inducción por enumeración, cuyas premisas no usan expresiones
probabilistas o estadísticas, pero otros sí. Y quien pretendiera que esta noción de proba­
bilidad es la única debería mostrar que todos los casos de argumentos inductivos con pre­
misas probabilistas se pueden reconstruir sin hacer intervenir afirmaciones probabilistas.
Como hemos mencionado, Carnap mismo no pretendía (y p.ej. Ramsey tampoco) que la
162 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

noción lógica fuese la única y aceptaba además una noción estadística o frecuencialista de
la probabilidad.

P ro b a b ilid a d subjetiva. Veamos ahora el núcleo de otra de las interpretaciones,


la subjetivista. Para las interpretaciones subjetivistas, la probabilidad no se refiere a l m u n ­
do sino a nuestro conocim iento. El lema de estas concepciones es: la probabilidad es una
medida de nuestra ignorancia. La diferencia entre una afirmación probabilista y una no
probabilista no tiene que ver con el mundo objetivo sino con el estado de conocimiento o
ignorancia del sujeto. La idea es que, cuando el sujeto no tiene toda la evidencia relevante
para a, le asigna un valor entre 0 y 1 (y distinto de ambos) que expresa la “intensidad” de
su creencia en a dada la evidencia de que dispone. La probabilidad, así entendida, es g ra ­
do de creencia (o confianza) racional (la exigencia de racionalidad es esencial para que
esta probabilidad satisfaga los principios de la teoría matemática). Entre los defensores de
esta noción, en alguna de sus diversas versiones, se cuentan Bernoulli (1713), Bayes
(1763), Laplace (1795), Ramsey (1928), de Finetti (1937) y Savage (1954) (para una bue­
na antología, cf. Kyburg y Smokler (eds.), 1964).
Las creencias son susceptibles de gradación o, cuando menos, de ser sostenidas
con mayor o menor intensidad, y la probabilidad subjetiva es una medida de dicho gra­
do, mide la confianza del sujeto en la ocurrencia del hecho en cuestión. Puesto que la
creencia, y sus grados, son relativos a la evidencia disponible, desde una perspectiva
subjetivista lo natural es considerar la probabilidad siempre condicionada. Así, p {pie)
mide el grado o fuerza de la creencia de cierto sujeto í en cierta proposición p a la luz
de la evidencia e de que dispone el sujeto. Es cierto que el cálculo de probabilidades
contiene también probabilidades absolutas o incondicionadas p (a ), pero en esta concep­
ción las probabilidades incondicionadas se deben interpretar como probabilidades con­
dicionadas encubiertas relativizadas todas ellas a cierta evidencia-base e 0 común fijada
en cada contexto. De este modo se debe entender la forma en que se determinan experi­
mentalmente las probabilidades subjetivas mediante experimentos de apuestas o prefe­
rencias. Se puede determinar la probabilidad subjetiva de un individuo sobre varias op­
ciones haciendo que apueste por cada una de ellas o que las ordene aisladamente y en
combinación. En estos procedimientos, el sujeto parte de cierta evidencia-base en rela­
ción a la cual establece sus apuestas o preferencias. En algunos casos no tiene evidencia
positiva discriminatoria y entonces considera todas las alternativas equiprobables (éste
es el fundamento del p rin cip io de in d iferen cia laplaciano, al que corresponde el dictum
“probabilidad igual a casos favorables entre casos posibles”); en estos casos es razona­
ble considerar que se acepta como evidencia de fondo la no existencia de factores que
discriminarían unas opciones frente a otras.
La diferencia entre las nociones lógica y subjetiva es sutil y se puede prestar a
confusión. Lo que puede motivar su confusión es que en ambos casos se caracteriza la
probabilidad como el grado de apoyo que una información proporciona a cierta proposi­
ción. Lo esencial para mantener la diferencia es que dicho grado de apoyo es objetivo en
el primer caso y subjetivo en el segundo. Así, si se identifica probabilidad con grado de
creencia, pero se caracteriza éste en términos objetivos o ideales, se está pasando de la
LEYES CIENTIFICAS 163

noción subjetiva a la lógica. Por ejemplo, si se apela al grado en que la creencia resulta
objetivam ente ju s tific a d a , esto es, si por grado de creencia racional en p sobre la base de
la evidencia e se entiende grado de justificación que objetivamente e confiere a p en vir­
tud del contenido de ambas, entonces estamos ante la probabilidad lógica o inductiva. Y
lo mismo si identificamos probabilidad con grado de creencia racional ideal, si con ello
se sugiere que todos los sujetos racionales d eben coincidir idealm ente en los grados de
creencia en una proposición p dada cierta evidencia e. El hecho distintivo de la proba­
bilidad subjetiva frente a la lógica es, entonces, que diferentes individuos o comunidades,
siendo todos ellos racionales, puedan diferir en sus probabilidades subjetivas básicas aun
disponiendo de la misma evidencia. Esto es, si todos los sujetos d eben idealmente coinci­
dir en la probabilidad de p dada la misma evidencia e , entonces es que ese valor de apoyo
de í a p depende sólo del contenido de e y de p , que es justamente lo que caracteriza la
probabilidad lógica.
Nótese que lo distintivo de la interpretación subjetivista es que diferentes indivi­
duos pueden diferir en las probabilidades básicas, no en el modo de combinar las básicas
para obtener valores derivados. Esos valores derivados se obtienen operando con los bási­
cos mediante los principios de la teoría matemática de la probabilidad y, recordemos, to­
das las interpretaciones, y también por tanto la subjetivista, aceptan la validez de tales
principios. Así, si dos individuos difieren en los valores que asignan a p (pie), será porque
difieren en los valores que asignan a p A e o a e , pues ambos aceptan el principio del cálcu­
lo de probabilidades según el cual p (pie) = p (p a e m e ) .
Si la probabilidad subjetiva se distingue de la probabilidad lógica por la posible
discrepancia ante la misma evidencia, de ja probabilidad objetiva se diferencia por d esa ­
p a re c e r en situaciones epistémicamente ideales, esto es, en situaciones en las que se dis­
pone de toda la evidencia relevante. ¿No puede ocurrir que tengamos a nuestra disposi­
ción toda la evidencia relevante de que idealmente se puede disponer y que a pesar de ello
la probabilidad se mantenga por debajo de 1 y por encima de 0?, ¿que sigamos siendo in­
capaces de garantizar p len a m en te qué va a pasar? Si se trata de probabilidad epistémica,
no. Si la probabilidad es epistémica, entonces tiende a decrecer con la disminución de ig­
norancia, es decir, con el aumento de evidencia relevante, e idealmente desaparece si la
evidencia disponible es toda la relevante. Si se cree que a pesar de disponer de toda
la evidencia relevante tiene sentido que la probabilidad esté entre 0 y 1, sólo puede ser
porque se cree que hay probabilidades objetivas, incertidumbres objetivas debidas a la na­
turaleza del mundo y no a nuestro estado de carencia de información. Por ello, según esta
concepción subjetivista, las leyes probabilistas dejarían de ser probabilistas, serían susti­
tuidas por otras deterministas, si dispusiéramos de todo el conocimiento posible. Las le­
yes probabilistas son, en realidad, semejantes a las leyes ceteris p a rib u s, o mejor, una for­
ma más precisa de las mismas. Las leyes probabilistas son sustitutos provisionales de
leyes no probabilistas estrictas más complicadas de las que se desconocen algunos com­
ponentes. “p(BM) = r" (0 < r < 1) es una regularidad estadística que sustituye pro­
visionalmente a la verdadera ley “A & C A-implica B ”, donde C es una propiedad com­
plementaria que todavía desconocemos. Según la interpretación subjetivista de las leyes
probabilistas, la probabilidad (no lógica) no está en la naturaleza, no informa del mundo
164 í;UNDAMHNTOS Di: FILOSOFIA DH LA CIHNC1A

sino que sólo es indicio de nuestra falta de evidencia. Corno desconocemos todos los fac­
tores nómicamente relevantes, debemos contentarnos provisionalmente con regularidades
estadísticas sobre frecuencias observadas. Pero estas regularidades no son verdaderas le­
yes; en una situación epistémica ideal serían reemplazadas por regularidades no probabi­
listas, las únicas a las que cabe considerar propiamente leyes de la naturaleza. En sentido
estricto, no se plantea entonces la cuestión de la relación entre frecuencias observadas y
leyes probabilistas. No hay, propiamente hablando, tales leyes, y las generalizaciones so­
bre frecuencias observadas son simples sustitutos provisionales, en situaciones de incerti­
dumbre epistémica, de las verdaderas leyes (deterministas).
Esta interpretación subjetivista de las leyes probabilistas se puede aplicar con cierta
plausibilidad a algunas de ellas, como la que correlaciona el fumar con el cáncer de pul­
món. Cuando sepamos todo lo que hay que saber sobre el origen del cáncer de pulmón po­
dremos sustituir la actual ley estadística por otra estricta y no probabilista (suponiendo que
haya leyes biofisiológicas estrictas, dejamos de momento de lado esta cuestión). Quizá se
puede proponer lo mismo de las leyes sobre los mecanismos de azar, p.ej. que la probabili­
dad de que salga número primo al lanzar un dado cúbico regular y homogéneo es 2/3. Si
pudiéramos computar toda la información física sobre el dado y el lanzamiento, lo que ac­
tualmente no podemos hacer por motivos tanto teóricos como técnicos, tendríamos leyes
mecánicas (estrictas) no probabilistas que predecirían los resultados de cada lanzamiento
sin incertidumbre. Las leyes de algunas teorías científicas estadísticas, como la mecánica
estadística o la genética de poblaciones, se interpretarían de la misma manera. Pero incluso
si esta interpretación es aplicable a algunas leyes probabilistas, ello no supone que se pueda
aplicar a todas. De hecho, actualmente se acepta de modo prácticamente general que esta
interpretación es inaplicable al menos a las leyes probabilistas de la mecánica cuántica. Las
probabilidades de las leyes cuánticas, como (6), (7) o (33), tienen que ver con el m u n d o , no
con nuestro conocimiento de él y, por tanto, no se eliminarían al culminar idealmente nues­
tro conocimiento. En los inicios de la teoría cuántica hubo quien defendió una interpreta­
ción subjetivista de sus leyes probabilistas. Einstein, entre otros, sostuvo la llamada inter­
pretación de las variables o cultas : hay ciertos parámetros que provisionalmente desconoce­
mos y que son los responsables del carácter indeterminista de las leyes cuánticas, y cuando
se conozca la naturaleza y comportamiento de dichos parámetros la mecánica cuántica se
podrá formular con leyes perfectamente deterministas. A pesar de la autoridad de algunos
defensores de esta interpretación, se acabó imponiendo la interpretación de C openhague ,
según la cual las probabilidades de estas leyes son objetivas, son propiedades de la natura­
leza independientes del estado de nuestro conocimiento.

La opción más inmediata para caracterizar las pro­


P ro b a b ilid a d o b je tiv a .
babilidades empíricas objetivas es identificarlas con, o a partir de, frecuencias relativas.
a. as frecuencia relativa de As que son B s es un hecho objetivo del mundo (A es la clase o
p ro p ied a d de referencia), y en relación a él se pueden caracterizar las probabilidades.
Algunos defensores de esta interpretación frec u en cia lista de la probabilidad objetiva son,
en diferentes versiones, Venn (1886), Peirce (1931-1958), Russell (1948), Reichenbach
(1949), Braithwaite (1953) y von Mises (1957). La idea es a n a liza r la noción de p r o ­
LEYES CIENTIFICAS 165

habilidad objetiva en términos de la do, frec u e n cia . Este análisis se encuentra con diversas
dificultades que originan diferentes versiones del mismo hasta conducir a la teoría de las
propensiones, que supone abandonar de hecho la posibilidad de tal análisis y aceptar
las probabilidades objetivas como conceptualmente primitivas.
Si la clase de referencia es finita, la probabilidad no se puede identificar con la
frecuencia relativa pues una probabilidad dada p(BM) es lógicam ente com patible con
cualquier frecuencia correspondiente a un número finito de casos (pasados o futuros). El
caso más manifiesto es aquel en el que sólo hay un A , pero en el fondo ocurre igual con
cualquier número finito. Que p(A/¿?) sea p.ej. 0,5 es compatible con que todos los 101000 A s
(pasados y futuros) que hay sean B ; o para ponerlo (sólo aparentemente) menos drástico,
con que lo sean el 99 % de los As; por ejemplo, que la probabilidad de sacar par al lanzar
un dado no cargado sea 0,5 es conceptualmente compatible con que todas las veces que se
tire salga impar. Esta posibilidad de desajuste entre las probabilidades y las frecuencias
observadas es algo que debe aceptar también el frecuencialista y por tanto no puede iden­
tificar directamente probabilidad con frecuencia en estos casos, a no ser al precio de negar
dicha posibilidad. Se podría defender que la probabilidad sólo tiene sentido con clases de
referencia efectivamente infinitas, identificándola con el límite de la secuencia infinita
de frecuencias. Pero esta opción es a) empíricamente arriesgada, pues es vacía si resultara
que de hecho todas las clases de referencia de nuestro universo físico fuesen finitas, y b )
conceptualmente problemática, pues tales límites varían con el modo en que se ordene la
clase B (cf. von Mises, 1957 y Pollock, 1990, §1.4).
Una alternativa, puede pensarse, es identificar la probabilidad con el límite de la
frecuencia de una secuencia p o ten cia lm en te infinita, esto es, de secuencias infinitas v ir­
tuales , hipo tética s o p o sib les. Pero ahora el análisis se torna circular, pues obviamente
‘posible’ significa aquí físic a m en te p o sib le , esto es, permitido por las leyes fís ic a s , y en
el caso que nos ocupa por las leyes físicas p ro b a b ilista s. Si, como defiende el objetivista,
hay leyes físicas objetivamente probabilistas, entonces de ellas depende qué secuencias
son físicamente posibles. Por este motivo, y otros que no podemos examinar ahora, los
objetivistas han acabado en general por renunciar a analizar o reducir la noción de proba­
bilidad objetiva en términos de otras nociones previas, como la de frecuencia. La única
salida es aceptar las probabilidades objetivas como entidades conceptualmente primitivas.
Estas entidades, denominadas ‘tendencias’ o ‘propensiones’, son propiedades objetivas
independientes de nuestro conocimiento, son propiedades que poseen las cosas. Así, igual
que el electrón tiene la propiedad de tener carga eléctrica -1, tiene también la propiedad
de tener la propensión 0,1 de atravesar la barrera de potencial contra la que se dispara.
Las leyes probabilistas tratan de estas propensiones al igual que las no probabilistas tratan
de las propiedades que no son propensiones.
Algunos representantes de esta versión del objetivismo probabilista son Popper
(1935-1958, 1956), Hacking (1965), Mellor (1971), Fetzer (1981), Suppes (1984) y Po­
llock (1990). Para muchos críticos, la principal dificultad de las teorías de las tendencias
o propensiones objetivas es que estas entidades parecen metafísicamente misteriosas. La
idea de una metafísica probabilista les parece inaceptablemente oscura o, simplemente,
contradictoria. Pero estas objeciones son en parte retóricas, pues en cierto sentido todas
166 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

las entidades teóricas son metafísicamente oscuras y de lo que aquí se trata es de si éstas
tienen una oscuridad específica. La verdadera dificultad, todavía no superada, es explicar
satisfactoriamente cómo se determinan empíricamente estas propensiones, cómo se eva­
lúan las hipótesis sobre ellas a partir de datos sobre frecuencias observadas dado que
cualquier frecuencia sobre un número finito de casos es lógicamente compatible con cual­
quier propensión.

6. La naturaleza de las leyes

Concluiremos este capítulo con una breve presentación de las principales concep­
ciones sobre la naturaleza de las leyes. Ahora nos centraremos exclusivamente en las le­
yes deterministas, en el sentido precisado más arriba, esto es leyes estrictas no probabilis-
tas. En las dos secciones anteriores hemos visto las peculiaridades de las leyes no estric­
tas y de las leyes probabilistas, así como las principales concepciones sobre las mismas.
Las diferentes alternativas presentan su concepción de la naturaleza de esos tipos de leyes
por contraste con la de las leyes deterministas, considerada en esos contextos aproblemá­
tica. Sin embargo, dista mucho de haber un acuerdo sobre el modo de considerar las leyes
deterministas. En esta sección vamos a examinar brevemente las principales posiciones al
respecto.
En la discusión sobre la naturaleza de las leyes se dirimen cuestiones filosóficas
globales sustantivas muy problemáticas, como las del realismo, la modalidad, los univer­
sales, la relación entre epistemología y metafísica, etc., y por ello la simplificación resulta
especialmente insatisfactoria. La riqueza e interés filosófico de cada posición concreta ra­
dica en el modo específico en que ella desarrolla la idea general y aquí no vamos a poder
detenernos en estos desarrollos específicos. Lo que sigue debe considerarse sólo una ca­
racterización muy general de las principales alternativas, insuficiente para evaluarlas en
su justa medida; para un estudio más detenido se puede consultar, p.ej. Armstrong, 1983
y van Fraassen, 1989 (cf. también este último y Cartwright, 1983, para dos escepticismos
acerca de cualquier noción de ley). En lo que sigue, y salvo advertencia en contrario, por
‘ley’ deberá leerse ‘ley determinista*.
Todo análisis satisfactorio de las leyes (deterministas) debe satisfacer dos requisi­
tos. En primer lugar, la condición de im plicación de regularidades fa c tu a le s (IRF): el
análisis debe mostrar cómo las leyes im plican regularidades factuales; esto es, el análisis
debe tener como consecuencia que de “A A-implica 5 ” se derive “Vt (Ax -» B x ) '\ En se­
gundo lugar, la con d ició n de distinción respecto de las regularidades fa c tu a le s (DRF): el
análisis debe mostrar cómo las leyes se distinguen de las meras regularidades factuales;
esto es, el análisis debe tener como consecuencia que las leyes, y no cualquier generali­
zación verdadera, tienen las propiedades que vimos en la sección 2 que distinguían las re­
gularidades nómicas de las accidentales. En breve: todo análisis ha de mostrar que no
toda regularidad factual es una ley, pero toda ley implica una regularidad factual.
En general se pueden distinguir tres tipos de análisis de las leyes: los regularitivis-
tas hum éa n o s , los regularitivistas realistas , y los n ecesitativistas (o también universalis­
LEYES CIENTÍFICAS 167

tas). Debe quedar claro que ninguno niega, en principio, la diferencia entre regularidades
accidentales y nómicas, todos pretenden dar cuenta de esa diferencia; la cuestión es los
términos en los que lo hacen.
Las concepciones regularitivistas analizan las leyes como regularidades de cierto
tipo. Una ley es una regularidad verdadera que satisface ciertas condiciones adicionales:

[Reg] A AMmplica B syssdCf Vx(Ay -> Bx) y y(\/x(A x -» B x )).

y expresa la condición adicional que debe satisfacer la regularidad para ser ley (condición
que a veces se formula como condición sobre el enunciado W x(A x -> B x )’)- La idea es
sencilla: el análisis satisface (IRF) pues según él toda ley es una generalización material
verdadera, y además puede satisfacer (DRF) pues no toda generalización material verda­
dera es Una ley, sólo lo son las que satisfacen y. Que se satisfaga o no efectivamente
(DRF) dependerá de que de y sé deríven o no las propiedades en cuestión (explicatividad,
apoyo a contrafácticos, intensionalidad, etc.).

6 .1 . R e g u l a r it iv is m o h u m e a n o

Es común caracterizar los análisis regularitivistas de h u m éa n o s , pues Hume fue el


primer defensor explícito de esta concepción. Pero eso es parcialmente confundente pues
la teoría de Hume se caracteriza además, y fu n d a m e n ta lm en te , por otra tesis, a saber, la
tesis según la cual no hay necesid a d es en la n a tu ra leza . Dentro de los regularitivistas dis­
tinguiremos, entonces, los que están de acuerdo con esa tesis y los que no. La diferencia
tiene que ver con la condición y. Si la condición y supone la aceptación de algún tipo de
necesidad o modalidad en la naturaleza independiente de nuestro conocimiento, califica­
remos dicho análisis regularitivista de realista. Si, contrariamente, la condición se da en
términos que suponen la tesis antirrealista de Hume, si la única necesidad a que se apela
es una necesidad p ro yecta d a por nosotros (nuestro conocimiento, la ciencia, etc.), lo cali­
ficaremos de hum eano.
Como es de esperar, Hume mismo es el primer regularitivista humeano. En su
caso y es una condición “epistémico-psicológica”, grosso m o d o : que los casos pasados
observados están de acuerdo con la regularidad y que tengamos la tendencia de proyectar­
los hacia el futuro. Una ley es una regularidad observada que, por hábito y otros mecanis­
mos psicológicos, proyectamos hacia el futuro, esperam os que continúe igual. En cierto
modo, todas las versiones posteriores del regularitivismo humeano son refinamientos de
esta idea.
Un intento de defender esta posición sin apelar tan inmediatamente a elementos
psicológicos o epistémicos es el de Hempel (1965). Hempel pretende dar una caracteriza­
ción de las leyes como cierto tipo de regularidades sin recurrir a una supuesta necesidad
en la naturaleza, pero sin recurrir tampoco explícitamente a condiciones epistémicas. Este
autor considera leyes los enunciados generales mismos y no lo que ellos expresan, pero
podemos ignorar esto de momento considerando que la condición y es relativa al enuncia­
168 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

do general ‘Vxfáx —> B x )’ que expresa la ley. La idea de Hempel es que y imponga sólo
constricciones sintácticas y semánticas, aproximadamente las siguientes: que el enuncia­
do general no contenga esencialmente términos singulares y que los predicados sean pre­
dicados cualitativos puros (p.ej. ‘oro’, ‘agua’), esto es, que no encubran referencias implí­
citas a particulares (como ‘barcelonés’ o ‘venusiano’). Pero esta estrategia no es viable
pues no da cuenta de la diferencia entre pares de regularidades como las ejemplificadas
por (25) y (26) relativas a las esferas de oro y de uranio. Estas dos regularidades no se di­
ferencian por ningún hecho sintáctico ni semántico y sin embargo una es accidental y la
otra nómica. Por tanto, ninguna caracterización de y en términos exclusivamente sintácti­
cos y semánticos sirve para la distinción.
En la línea humeana, si no se quiere apelar a necesidades naturales parece que no
hay más alternativa que recurrir a condiciones epistémicas de aceptación e integración
teórica. En este caso, y contiene sólo referencias al uso que hace la comunidad científica;
es dicho uso el que constituye la regularidad en ley. Defensores de esta propuesta, en al­
guna de sus versiones, son Goodman (1955), Ayer (1956) y Mackie (1966). La idea bási­
ca es que la diferencia entre generalizaciones nómicas y accidentales no reside en los he­
chos sino en la actitud de quienes las exponen (Ayer), en el modo en que se utilizan
(Mackie); no es que usemos una regularidad para explicar y predecir porque es una ley,
sino que la regularidad es una ley porque la usamos para explicar y predecir (Goodman).
Una ley es, pues, una regularidad (presuntamente verdadera) que forma parte del corpus
científico, que pertenece a alguna de las teorías con las que explicamos y predecimos.
En opinión de los huméanos esto basta para dar cuenta de las propiedades de las
leyes que vimos en la sección 2. Las propiedades relativas a su uso en la predicción y la
explicación, y a su confirmación, son inmediatas dado este análisis. Su intensionalidad
también, pues se deriva de que se usan en las explicaciones y de que las explicaciones son
intensionales (cf. capítulo 7). En cuanto a la capacidad de apoyar contrafácticos, también
se obtiene si, como es usual en esta concepción, los contrafácticos se analizan en términos
de leyes. Con lo que tienen más dificultad los huméanos es con la objetividad. Si por ob­
jetividad se entiende que la diferencia entre leyes y regularidades meramente fácticas es
independiente de nuestro sistema de conocimiento, obviamente no pueden explicar la ob­
jetividad de las leyes. Su tesis central es justamente que no son objetivas en ese sentido, y
acusarles de ello es, en su opinión, viciar la cuestión pues es precisamente eso lo que está
en juego. Pero esto no quiere decir que las leyes sean “inventadas” o que no se “descu­
bran”. E n tanto que regularidades , son verdaderas o falsas dependiendo del mundo, inde­
pendientemente de nuestro conocimiento. En este sentido son descubribles y objetivas.
Lo que no es objetivo, lo que depende de nuestro conocimiento, es qué regularidades ver­
daderas son leyes, esto es, cuáles cumplen las condiciones vistas en la sección 2. Para el
humeano la no objetividad en ese sentido no es objetable, pues según él tales condiciones,
incluidas la intensionalidad y el apoyar contrafácticos, son en el fondo relativas exclusi­
vam ente al uso en la práctica científica.
Esta concepción tiene una consecuencia que parece en principio inaceptable, pero
que los huméanos están prestos a aceptar pues es justamente su bandera, a saber, la reduc­
ción de la modalidad nómica a la modalidad epistémica. No hay necesidad en la naturale­
LEYES CIENTÍFICAS 169

za, toda necesidad (no meramente lógica) es proyección de nuestro conocimiento. Y re­
chazan que esto contradiga flagrantemente nuestras intuiciones pues éstas se limitan a las
propiedades sobre explicación, contrafácticos, etc. Se trata de proponer un análisis que sa­
tisfaga esas intuiciones y el suyo lo hace, salvo en lo referente a una noción de objetivi­
dad que, para los huméanos, no es un dato de nuestras intuiciones sino teoría filosófica,
parte de un análisis alternativo (y según ellos erróneo).
En su versión más simple, sin embargo, esta concepción sí tiene una consecuencia
que parece claramente contraintuitiva. Si (i) las leyes son las regularidades articuladas en­
tre sí dentro del sistema teórico y (ii) el sistema teórico es el conjunto de teorías a ctu a l­
m ente aceptadas por la comunidad científica, entonces (iii) la diferencia entre leyes y re­
gularidades puede variar de una comunidad a otra o, dentro de una misma comunidad,
variar con el tiempo. Dicho crudamente, las leyes naturales serían mutables. No se trata
de nuestras creencias sobre ellas, que son indudablemente cambiantes, sino que las leyes
m ism as serían cambiantes. Hoy la naturaleza estaría regida por una ley y quizá mañana
no. Los huméanos que no están dispuestos a aceptar esta consecuencia rechazan (ii). El
sistema teórico en relación al cual algunas regularidades se constituyen en leyes no es el
actual, sino “el” sistema teórico id ea l , el correspondiente al estado de la ciencia en condi­
ciones epistémicas ideales o, como se suele decir, a “la ciencia del Séptimo Día”. Las le­
yes son las regularidades que pertenecen a l mejor conjunto de teorías, al sistema episté-
micamente ideal, y por tanto no cambian con el tiempo, siempre han sido, son y serán las
mismas. Posiciones de este tipo se pueden atribuir a Sellars (1967) y al Putnam del realis­
mo interno (1981) (aunque seguramente se resistirían a aceptar ser calificados directa­
mente de huméanos; éste es quizá también el caso de Kitcher, cf. 1993 y más adelante
cap. 7, §6).
La principal dificultad con este humeanismo sofisticado es dar sentido a la noción
de el m ejo r sistem a teórico -exp lica tivo de modo preciso, y hacerlo sin recurrir a necesida­
des o divisiones en la naturaleza objetivas independientes de nuestro conocimiento. Casi
todos los que apelan al sistema teórico ideal coinciden en entender por tal “el” sistema
que mejor combina sim p licid a d y fu e r z a (adecuativa) ( ‘stre n g th ’). Para hacer precisa esta
idea, y que sirva a la función para la que se recurre a ella, se requieren dos condiciones.
En primer lugar, fija d o un lenguaje , dar criterios de simplicidad y fuerza que sean aplica­
bles y que no varíen de una comunidad a otra o, en una misma comunidad, de un momen­
to a otro. En segundo lugar, dar un criterio para so p esa r simplicidad y fuerza que permita,
en la comparación de cualesquiera dos sistemas por su “simplicidad+fuerza”, determinar
cuál es el m ejor, un criterio que además no varíe, etc. Sólo así tiene sentido hablar de el
sistema que mejor combina simplicidad y fuerza. Para los críticos la tarea es inviable
pues consideran estas condiciones insatisfacibles. Los partidarios de esta idea reconocen
que se está lejos de desarrollarla en sus detalles pero defienden su corrección conceptual
y la legitimidad de su uso en la discusión filosófica general.
170 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

6 .2 . R e g u l a r it iv is m o r e a l is t a

Aun aceptando su viabilidad en p rin cip io , el anterior programa se encuentra con


una dificultad aparentemente insalvable si permanece fiel al principio humeano de no re­
currir a constricciones externas al conocimiento. La dificultad se deriva de la relatividad
de los mencionados criterios a un lenguaje d a d o , pues afecta esencialmente la evalua­
ción de la simplicidad comparada. Si en lugar de usar unos predicados (p.ej. ‘verde’ y ‘azul’)
usamos otros (p.ej. ‘verdul’ y ‘acerde’), un sistema muy simple se puede convertir en
muy complejo y viceversa. Supuesto que se dé con un criterio universal de simplicidad, al
comparar dos sistemas, el criterio puede dar resultados opuestos según formulemos los
sistemas en un lenguaje u otro. Por tanto, caso de que existan tales criterios, sólo se ga­
rantiza que seleccionan un único sistema si se fija un lenguaje. Un modo de solventar esta
dificultad es abandonar el humeanismo y aceptar constricciones extern a s al co n o cim ien ­
to , esto es, aceptar algún tipo de necesidad o distinciones objetivas en la natu ra leza en re­
lación a las cuales fijar el lenguaje. Esto es lo que hace D. Lewis (cf. p.ej. 1973¿ y 1983,
con anterioridad había defendido posturas con consecuencias semejantes a las de Sellars).
Lewis analiza la causalidad en términos de contrafácticos, éstos en términos de leyes (y
de historias parciales de mundos posibles) y define las leyes como las regularidades ver­
daderas que pertenecen al sistema que mejor maximiza simplicidad y fuerza. Pero para
resolver la crítica mencionada termina aceptando una constricción externa: la compara­
ción de sistemas es relativa “a l ” lenguaje cuyos p red ica d o s son “n a tu ra le s”, esto es,
p red ica d o s que den o ta n p ro p ied a d es (clases, g én ero s) n a tu ra les ; y acepta la distinción
entre propiedades naturales y no naturales como una distinción primitiva y objetiva por
completo independiente de nuestro conocimiento, es una distinción que radica exclusiva­
mente en la naturaleza. En este sentido, Lewis ya no es humeano pues acepta que la dis­
tinción entre regularidades nómicas y meramente fácticas descansa en última instancia, a
través de las clases naturales objetivas, en la naturaleza; la necesidad natural no es algo
p ro yecta d o por nuestro conocimiento. A esta posición la denominamos regularitivism o
rea lista , por adoptar una posición realista, o antinominalista, sobre los universales o gé­
neros naturales. Aparentemente Kitcher defiende a veces una posición parecida, pues sos­
tiene también que el lenguaje de la mejor teoría refiere a clases naturales, pero cae en el
humeanismo en la medida en que aparentemente simpatiza con la idea de que “las divi­
siones de cosas en clases [...] son generadas por nuestros esfuerzos de organización”
(1993, p. 172, cursivas nuestras).
Estos son los diferentes tipos de regularitivismo. Para el humeano radical, y con­
tiene condiciones de aceptabilidad epistémico-teórica variables. Para el humeano sofisti­
cado, y contiene condiciones de aceptabilidad ideal invariables, pero que no recurren ni
explícita ni implícitamente a distinciones objetivas independientes del conocimiento. Para
el realista, la identidad del sistema ideal cuya pertenencia al mismo constituye algunas re­
gularidades en leyes presupone la existencia de distinciones objetivas en la naturaleza.
Pero para todos ellos las leyes son cierto tipo de regularidades, regularidades verdaderas
que cumplen ciertas condiciones.
LEYES CIENTIFICAS 171

6.3. N ecesitativismo

Concluiremos este repaso con otra forma de realismo nómico, aparentemente más
fuerte, el necesitativism o. Esta concepción comparte con el regularitivismo realista su an-
tihumeanismo: la necesidad nómica descansa en algún tipo de distinción objetiva que no
es proyectada, que “está en la naturaleza”. Pero se diferencia de él por rechazar la idea de
que las leyes son generalizaciones. Las leyes no son generalizaciones, las leyes consisten
en relaciones sin g u la res entre universales o propiedades naturales. Defensores de alguna
versión de esta concepción son, p.ej., Dretske (1977), Armstrong (1983) y Tooley (1977).
Los particulares son susceptibles de estar en ciertas relaciones, unas independien­
tes de nosotros y otras no. Por ejemplo, entre las primeras, “ser más pesado que” o “haber
comenzado a existir antes que”; y entre las segundas, “haber sido percibido antes que”.
Según esta concepción, los universales, que existen independientemente de nosotros, tam­
bién pueden estar en ciertas relaciones. Un ejemplo del primer tipo, relaciones que man­
tienen independientemente de nosotros, es “ejemplificarse en más individuos que”; un
ejemplo del segundo, “aparecer nombrado en el mismo escrito científico que”. Pues bien,
para el necesitativista, cada ley natural es un caso concreto de una determinada relación
del primer tipo, de cierta relación objetiva que se da entre algunos universales indepen­
diente de nuestro conocimiento. Esta relación ha recibido diversos nombres, ‘necesita-
ción\ ‘conexión nómica’ o ‘conexión causal’, pero la idea general es aproximadamente la
misma. Si usamos ‘=>’ para denotar esta relación, podemos expresar este análisis del si­
guiente modo.

[Nec] A AMmplica B syssdCf A => B.

Como el lector observará, esto no proporciona m ucho análisis. Para algunos, ésta
es la principal objeción, pues se toma como primitivo lo que requiere explicación. A ve­
ces el análisis se hace un poco más sofisticado, pero siempre se acaba en algún tipo de re­
lación nómica o causal primitiva entre universales que se considera forma parte, como los
universales, del mobiliario último del mundo. Pero ésta no es su principal dificultad.
Todo análisis ha de partir de algunos primitivos y la cuestión es si su articulación con el
resto de nociones logra la finalidad pretendida. En este caso, la cuestión es si este análisis
satisface, al menos, IRF y DRF. En cuanto a DRF, es sencillo ver que efectivamente se
obtienen las propiedades deseadas de las leyes. La relación es, tal como se ha presen­
tado, objetiva e intensional: se da o no entre ciertos universales independientemente de
nuestro conocimiento; y si se da entre dos universales concretos A y B no tiene por qué
darse también entre otros coextensivos con ellos. El resto de propiedades se obtienen in­
mediatamente pues contrafácticos, explicación, confirmación y predicción se suelen ca­
racterizar en esta concepción en términos de leyes. La dificultad mayor radica en IRE, en
explicar por qué el que se dé la relación entre el universal A y el universal B tiene como
consecuencia que todo particular que ejemplifica A también ejemplifica B. No podemos
ver aquí los detalles de las diferentes versiones, pero casi siempre se toma ese hecho
como constitutivo de =>, estrategia que los críticos consideran inaceptablemente oscura.
172 FUNDAMENTOS DE FiLOSOFÍA DE LA CIENCIA

La acusación de oscurantismo no constituye una objeción en sí misma; después de


todo, qué entidades nos parezcan oscuras o claras depende de qué filosofía profesemos,
Pero tras ella sí se encuentra una verdadera objeción. Se trata de la vieja crítica de Hume
según la cual este tipo de entidades (supuestas causas o necesitaciones “en la naturaleza”)
son empíricamente incontrastables y, con ello, inútiles para explicar el desarrollo de nues­
tro conocimiento y en ese sentido superfluas. La idea es que los enunciados *Vx(Ax ->
B xY y B ’ (suponiendo ahora que se satisface IRF y por tanto que el segundo impli­
ca el primero) son empírica o contrastacionalmente equivalentes. Toda experiencia que
confirma uno confirma el otro y viceversa. Por tanto, lo que de más contiene el segundo,
a saber, referencias a supuestas necesidades en la naturaleza, es empíricamente incontras­
table; la supuesta necesitación no se manifiesta en la experiencia más que como regulari­
dad funcional. Apelar a cosas del segundo tipo no ayuda en absoluto a la hora de dar
cuenta de la práctica científica. Por tanto, por lo menos desde el punto de vista del análi­
sis de la práctica científica, esas supuestas entidades son para el humeano perfectamente
prescindibles. Este es en esencia el núcleo del argumento del humeano, y por ello defien­
de que las leyes son cosas del primer tipo, regularidades factuales, que se usan de cierto
modo específico en nuestra práctica científica. Para ello debe sacrificar cierta intuición
preteórica que el realista cree que el análisis debe salvar, a saber, que la diferencia entre
regularidades nómicas y accidentales es independiente del conocimiento. De otro modo,
piensa el realista, el progreso científico resultaría inexplicable. La respuesta del humeano
es que la aceptación de supuestas necesidades en la naturaleza tampoco le sirve después
de todo al realista para explicar el progreso científico, pues el progreso científico es pro­
greso empírico y tales entidades son empíricamente incontrastables. Para el humeano, el
realista no puede dar cuenta de lo que pretendía y su realismo se reduce por tanto a un
realismo puramente testimonial. Éste es el núcleo del debate sobre el realismo científico,
que recorre implícitamente diversas partes de esta obra.
C a p ít u l o 6

LA MEDICIÓN EN LA CIENCIA

En el capítulo 4 presentamos los conceptos métricos como uno de los tipos, el más
elaborado, de conceptos científicos. En este capítulo vamos a profundizar en algunas
cuestiones que entonces abordamos sólo parcialmente y a ver otras nuevas relativas a al­
gunos aspectos de la medición que en aquel contexto no se examinaron. El presente capí­
tulo también complementa el estudio de las leyes científicas que hemos realizado en el
capítulo 5; en el capítulo anterior nos hemos ocupado básicamente de los aspectos cuali­
tativos de las leyes, en éste nos centraremos en su dimensión cuantitativa. Como adverti­
mos en el prólogo, gran parte de este capítulo (secciones 3 a 6) es un poco más técnico y
específico que el resto de esta obra y puede saltarse sin grave perjuicio para el seguimien­
to de los capítulos posteriores.
En primer lugar haremos algunas observaciones generales sobre la noción de m a g ­
n itu d y algunas distinciones previas importantes, en especial la distinción entre m edición
y m etrización. A continuación, y tras un breve repaso a la función de la medición en la
ciencia, examinaremos con detenimiento los tipos de metrización, fundamental y deriva­
da, y los procedimientos de medición, directos e indirectos.

1. Magnitudes. Medición y metrización


1.1. M a g n it u d e s , c u a l id a d y c a n t id a d

La medición constituye una práctica especialmente destacada de la actividad cien­


tífica, aunque no de toda actividad científica, sino sólo de aquella asociada a teorías cuan­
titativas o matematizadas. La matematización de una disciplina, o parte de ella, es un lo­
gro fundamental que posibilita alcanzar niveles de rigor y desarrollo teórico muy superio­
res por lo general a los de la investigación cualitativa. Gran parte del progreso de una dis­
ciplina científica está asociado al desarrollo y perfeccionamiento de los métodos cuantita­
tivos. El progreso que la ciencia en su conjunto ha experimentado en los últimos cuatro
siglos se debe en gran parte a la generalización de tales métodos en las diversas discipli-
174 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

ñas. Las ciencias físicas, pioneras y paradigmas de ciencia cuantitativa, están desde hace
tiempo totalmente matematizadas. Gran parte de las ciencias biológicas también, e inclu-
so en otras partes fundamentalmente cualitativas, como la taxonomía, se usan algunos
procedimientos cuantitativos. Las más avanzadas de las ciencias humanas, la economía y
(partes de) la psicología, se distinguen por su alto grado de matematización, presente tam­
bién en menor medida en otras como la sociología, la lingüística, la arqueología o, inclu­
so, los estudios literarios.
Aunque la matematización de una disciplina no supone necesariamente el uso de
métodos cuantitativos, esto es, el uso del análisis matemático (a veces se pueden usar re­
cursos provenientes del álgebra, o de la geometría, o de la topología), por lo general, y
casi invariablemente en las teorías matematizadas más usuales, así es. Este es el motivo
de que la medición tenga un papel tan destacado en la actividad científica. Los métodos
cuantitativos son cuantitativos porque trabajan con ca n tid a d es , y a éstas se accede, o se
las determina, en la práctica científica mediante la medición. La medición está pues indi-
solublementé ligada al uso de métodos cuantitativos en las teorías de la ciencia natural
matematizada y desempeña por tanto un papel fundamental en los beneficios que se deri­
van de la matematización de la ciencia. Por ello, sobre la medición recae también uno de
los aspectos más intrigantes de la ciencia cuantitativa, a saber, la aplicabilidad de las ma­
temáticas (del análisis) al mundo físico: ¿cómo es que la naturaleza se deja tratar cuantita­
tivamente?, ¿cómo es que los números se aplican a las cosas? Parte al menos de la res­
puesta a esta cuestión debe surgir del análisis de la medición, pues es mediante ella que
primariamente aplicamos, o atribuimos, “números” a las cosas.
Medir es asignar números a las cosas de modo que aquéllos, expresen ciertas pro­
piedades que éstas exhiben. Pero no toda propiedad de un objeto se puede medir, expresar
numéricamente. A las propiedades que son susceptibles de medición las llamamos m a g n i­
tudes; son ejemplos de magnitudes la masa y la longitud de los cuerpos, la duración de
los sucesos, la temperatura y la densidad de las sustancias, etc. El resultado de la medi­
ción es el va lo r de la magnitud para el objeto, o la ca n tid a d de magnitud en el objeto. El
valor o cantidad se expresa mediante escalas numéricas y se indica con un número segui­
do de la indicación de la escala; son ejemplos de cantidades los 8.848 metros (o 884.800
centímetros) de altura que tiene el Everest, o los 15 grados Celsius (o 59 grados Fahren-
heit) de temperatura en Barcelona el día de Navidad de 1995 (sobre las escalas, cf. capítu­
lo 4, §4 y también infra, secciones 3 y 5).
Las magnitudes se caracterizan por ser propiedades o atributos que “se dan según
un más y un menos”, que se ejemplifican en diverso grado. Un objeto puede ser humano
o no serlo, pero no puede ser más (o menos) humano que otro que también lo es; y lo mis­
mo ocurre con ser varón, ser cangrejo, ser español, ser roble, etc. En cambio, de dos obje­
tos músicos uno puede ser más másico que el otro, o una sustancia puede ser más densa
que otra, o un suceso ser más duradero que otro, etc. Esto podría sugerir que las magnitu­
des son cualesquiera propiedades binarias o relaciónales. Mientras que “humano” es una
propiedad monaria, “ser más másico que” es una propiedad binaria o relación (“ser mási­
co” o “tener masa” sería simplemente estar en el dominio de la relación). Aquí hay dos
consideraciones a hacer, la primera sencilla y la segunda complicada. La primera es que
MEDICIÓN EN LA CIENCIA 175

simplemente no es cierto que tras toda relación se encuentre una magnitud. En la mayoría
de los casos no es así: “ser padre de”, “ser múltiplo de”, “ser del mismo país que” son re­
laciones que no expresan magnitudes. Las magnitudes son, o se expresan en, un tipo es­
pecífico de relaciones binarias, las relaciones co m p a ra tiva s , relaciones del tipo “x es (tan­
to o) más ... que y” (transitivas, reflexivas y conexas, e.e. de orden débil). Puesto que las
magnitudes son propiedades que se dan según un más y un menos, las relaciones compa­
rativas relacionan pares de objetos que poseen (en diversos grados) la misma magnitud
estableciendo que uno la posee en mayor (o igual) grado que otro. Por tanto, toda propie­
dad relacional comparativa expresa p rim a fa c ie una magnitud (esta afirmación se matiza­
rá más adelante, cf. especialmente las secciones 3 y 7).
La segunda cuestión, que ahora sólo podemos mencionar, es mucho más compli­
cada. Tiene que ver con la “naturaleza última” de las magnitudes. Hemos dicho que, en
principio, tras toda propiedad relacional comparativa se encuentra una magnitud. ¿Cómo
hay que entender eso? Hay dos interpretaciones posibles. (1) Concepción relacional: la
magnitud es ella misma la propiedad relacional cualitativa, no hay además una propiedad
absoluta cuantitativa. (2) Concepción absoluta: la propiedad relacional es meramente un
síntoma de la magnitud, acompaña a la magnitud, que es una entidad existehte en el mun­
do además de la propiedad relacional.
Según la primera concepción, “ser másico” no es más que pertenecer al campo
de la relación comparativa “ser (tan o) más másico que”; y “tener una masa de 0,5 kg”
no es más que la propiedad que tiene un objeto cuando dos objetos tan másicos como él
son, conjuntamente, tan másicos como cierto objeto específico que hay en un museo de
París. Las “magnitudes” son sólo modos de representar cuantitativamente ciertas pro­
piedades relaciónales cualitativas; no existen “en el mundo” independientemente de
nuestro sistema de representación. Lo único necesario para comprender el uso de las
magnitudes y escalas en la medición es la existencia de tales relaciones comparativas
cualitativas (que esto es así se mostrará en el curso de este capítulo); no hay por tanto
por qué postular la existencia de otras entidades misteriosas, las p ro p ied a d e s c u a n tita ti­
vas m ism as. Podemos, si queremos, denominar cu a n tita tiva s a esas propiedades relació­
nales comparativas que son de tipo tal que se dejan representar numéricamente (y, como
veremos, no toda relación comparativa se deja, al menos no de modo interesante), pero
lo esencial para esta concepción es, por decirlo así, que eso es todo lo que h a y , no hay
adem ás propiedades cuantitativas.
Según la segunda concepción, las magnitudes existen en s í m ism a s : existe una
propiedad cuantitativa monaria que es “tener de masa 0,5 kg” (que puede ser nombrada
por diferentes términos generales, p.ej. “tener de masa 0,5 kg”, o “tener de masa 500 gr”,
etc.), y otra que es “tener de masa 3,4 kg”, y así sucesivamente. Estas propiedades se
ejemplifican igual que otras propiedades monarias; la pantalla de mi ordenador ejemplifi­
ca la segunda y no la primera, del mismo modo que la bandera rusa ejemplifica “ser roja”
pero no “ser verde”. Las propiedades relaciónales comparativas son en realidad derivadas
de éstas absolutas; un objeto será o no más másico que otro en virtud de las magnitudes
que ejemplifique cada uno. Esta concepción sigue el camino inverso de la anterior: aqué­
lla “reduce” las cantidades a determinado tipo de cualidades, ésta considera primitivos los
176 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

hechos cuantitativos absolutos e interpreta a partir de ellos los juicios comparativos. No


vamos a discutir aquí esta difícil cuestión, cuyo examen detallado excede los límites de
esta obra; nos limitaremos a hacer en la sección final algunos comentarios muy generales
tras completar el análisis de la medición.
Antes de presentar los elementos en cuyo estudio nos vamos a centrar, concluire­
mos esta introducción con una distinción clásica relativa a las magnitudes. Se trata de la
distinción entre magnitudes (atributos, propiedades) extensivas e intensivas. Esta distinción
se presenta casi siempre referida a las escalas, pero ello es inadecuado pues, aunque, como
veremos más adelante, guarda cierta relación con los diferentes tipos de escalas, ella tie­
ne que ver primariamente con los efectos para las magnitudes de ciertas operaciones empí­
ricas que se realizan entre los objetos que las exhiben. A veces, los objetos que exhiben
cierta magnitud son susceptibles de agregarse, concatenarse o, más generalmente, combi­
narse de algún modo, y alguno de esos modos de combinación se puede considerar asocia­
do a una magnitud específica. Por ejemplo, puedo combinar masas juntando dos cuerpos
músicos; puedo combinar temperaturas mezclando dos líquidos; puedo combinar longitudes
empalmando linealmente los extremos de dos varas, o lo puedo hacer ortogonalmente (en
ángulo recto); puedo combinar duraciones haciendo que un suceso (tan duradero como el
primero) suceda inmediatamente al otro; etc. El resultado de la combinación de dos objetos
que tienen cierto grado de magnitud es un nuevo objeto que también tendrá la magnitud en
cierto grado. La distinción entre magnitudes extensivas y m agnitudes intensivas tiene que
ver con el efecto que la combinación produce en la magnitud. A menudo se caracterizan las
magnitudes extensivas como aquellas para las cuales existe un modo de combinación repre­
sentable mediante la suma aritmética; por ejemplo, la agregación de masas (la masa del
compuesto es la suma de masas de los componentes) o la combinación lineal de longitudes.
A las magnitudes que carecen de un procedimiento de combinación representable mediante
la suma se las califica de intensivas ; por ejemplo, la temperatura, o la densidad (cuya mez­
cla da lugar a cantidades intermedias, esto es, mayores que el menor de los componentes y
menores que el mayor). Aunque a veces se afirma que las magnitudes extensivas dan lugar
a escalas proporcionales y las intensivas sólo a escalas de intervalos, no siempre es así,
puede haber atributos intensivos representables mediante escalas proporcionales (p.ej. las
escalas derivadas para la densidad). La relación entre esta distinción y los tipos de escalas
es más complicada y se aclarará más adelante.
La distinción entre propiedades extensivas e intensivas está relacionada con otra
más general y fundamental, relativa también a los efectos de la combinación en la magni­
tud. En general, tras cierto modo específico de combinación entre objetos que exhiben una
magnitud en cierto grado, puede ocurrir una de tres cosas: que el objeto resultante de la
combinación tenga la magnitud en un grado (1) mayor que el de ambos componentes, (2)
menor que el de ambos componentes, o (3) mayor que uno de los componentes y menor
que el otro. Ejemplos de lo primero son la combinación de masas por agregación, las com­
binaciones tanto lineal como ortogonal de longitudes, la combinación de duraciones me­
diante consecución, o la combinación de resistencias en serie; un caso del segundo tipo es
la combinación de resistencias en paralelo; ejemplos del tercer caso son la combinación de
temperaturas y la de densidades mediante mezcla. Nótese que esta distinción es relativa a
MEDICION EN LA CIENCIA 177

los atributos y a un m odo de com binación específico. Estas peculiaridades o comportamien­


tos no las tienen las magnitudes sin más, sino en relación a cierto tipo de combinación.
Aunque en la mayoría de casos sólo hay un modo de combinación naturalmente asociado a
cada magnitud, algunas pueden combinarse de diferentes modos (como la longitud o la re­
sistencia), y puede ocurrir que una magnitud se comporte de diferente modo con diferentes
combinaciones (como la resistencia, que se comporta de un modo con la combinación en
serie y de otro con la combinación en paralelo). Si ocurre (1) diremos que una magnitud M
es creciente respecto del modo de combinación C, si ocurre (2) diremos que es decreciente
y si ocurre (3) que es interna. En parte, la idea original de la distinción entre magnitudes
extensivas e intensivas era capturar la diferencia intuitiva entre lo que aquí hemos llamado
magnitudes crecientes e internas (con sus modos de combinación típicos). Pero en los tér­
minos en que se suele presentar, vistos más arriba, no lo hace exactamente. Las magnitudes
extensivas (respecto de un modo de combinación) son sólo un tipo de magnitudes crecien­
tes, las aditivas , aquellas en las que la combinación se puede representar matemáticamente
mediante la suma, habiendo magnitudes crecientes que no se pueden representar así. Pero
entonces, tal como se habían definido, los casos intensivos no coinciden, contra lo que se
pretendía, con los internos, pues hay magnitudes intensivas (e.e. no extensivas) crecientes
(y también decrecientes). Dejaremos esta cuestión por el momento y volveremos sobre ella
más adelante. Veamos ya cuáles van a ser las principales cuestiones a examinar en el estu­
dio de la representación numérica de magnitudes.
Son varios los aspectos relativos a la medición susceptibles de investigación. Los
principales son los siguientes: a) la función de la medición en la actividad científica; b ) las
condiciones empíricas que hacen posible la medición; c ) la naturaleza y tipos de los proce­
dimientos de medición; d) el problema del error; e ) problemas específicos de la medición
en ámbitos científicos particulares, como la mecánica cuántica, y f ) la ontología de las mag­
nitudes. En este capítulo vamos a ocupamos principalmente de b) y c). Acerca de la fun­
ción de la medición en la actividad científica nos limitaremos a algunas consideraciones
muy generales en la próxima sección (el lector interesado puede encontrar un excelente tra­
tamiento de esta cuestión en Kuhn, 1961, y una buena discusión de algunos puntos en Hac-
king, 1983, capítulo 14). Sobre el problema del error haremos tan sólo una breve referencia
al tratar de la función de la medición; en particular, no diremos nada de la llamada teoría
del error . Los problemas específicos de las diversas ciencias, y en especial el llamado “pro­
blema de la medición en la mecánica cuántica”, quedan fuera del ámbito de una obra de fi­
losofía general de la ciencia (para esta cuestión se puede consultar Cartwright, 1983, cap.
9). Sobre las diferentes concepciones ontológicas sobre las magnitudes, además de la breve
presentación que hemos hecho, ya hemos anunciado que nos limitaremos a unas considera­
ciones finales muy generales (para una discusión detallada, cf. p.ej. Forge [ed.], 1987).

1 .2 . E s t r u c t u r a d e l a m e d ic ió n : m e d ic ió n d ir e c t a e in d ir e c t a ; m e d ir y m e t r iz a r

En el resto de este capítulo no vamos a ocuparnos de la fu n c ió n de la medición


sino de su estructura, entendiendo por ello sus elementos, condiciones, procedimientos y
1 78 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

tipos. Vamos a presentar ahora las principales distinciones que articularán nuestro estudio
de la estructura de la medición, principalmente las distinciones entre m edición directa y
m edición indirecta y entre m edición y m etrización.
Caracterizamos más arriba la medición como la asignación de números a las cosas
de modo que aquéllos representen propiedades que éstas tienen, no cualquier propiedad
sino aquellas que se pueden dar en los objetos en diverso grado, las magnitudes. Esta
asignación, la medición, puede hacerse de modo directo o indirecto. En la medición indi­
recta asignamos valores a los objetos haciendo uso de valores previos, bien de la misma
magnitud para otros objetos, bien de otras magnitudes para el mismo objeto, bien de am­
bas cosas a la vez. A partir de los valores-asignaciones previamente conocidos, se obtiene
el valor buscado calculándolo a partir de aquéllos mediante ciertas leyes, o en general fór­
mulas, que correlacionan los valores conocidos con el desconocido. Puedo medir la longi­
tud final de una barra que se ha calentado a partir de su longitud inicial, su temperatura
original y final (junto con el coeficiente de dilatación para el material) y la ley de dilata­
ción. O puedo medir la masa de un cuerpo celeste a partir de la masa de un cohete, de
su trayectoria y de ciertas leyes mecánicas. Éste es el tipo de medición más común en
la ciencia.
Aunque la medición indirecta sea la más usual en la ciencia, es obvio que no pue­
de ser la única. En la medición indirecta usamos valores previamente conocidos, esto es,
medidos con anterioridad. Si la medición de estos valores se ha realizado también indirec­
tamente, usa ciertas otras cantidades que se han debido medir con anterioridad, y así suce­
sivamente. Es claro, por tanto, que, en algún momento debemos poder asignar valores a
los objetos sin usar otros previamente asignados, esto es, que no toda medición es indirec­
ta. En algún lugar hem os de em p eza r . La medición directa es ese lugar donde com ienza la
asignación de cantidades a las cosas. En la medición directa asignamos, para una magni­
tud, valores a los objetos sin hacer uso de mediciones-asignaciones previas, sin hacer uso
de datos cuantitativos anteriores, d irectam ente a partir de datos puramente cualitativos
(por ejemplo, que un brazo de una balanza desciende respecto del otro). Esto hay que en­
tenderlo en un sentido amplio que dé cabida a la medición por comparación directa con
un estándar; en sentido estricto, la única medición directa sería la que se realiza para el
estándar, pues para asignar un valor a los otros objetos comparándolos directamente con
él se usa el valor asignado al estándar. Aquí entenderemos la idea de medición directa en
sentido amplio, pues es este sentido el que queremos contraponer a lo que hemos conside­
rado medición indirecta. Son ejemplos de medición directa, mediante comparación con
un estándar, la medición de la masa de un objeto de tamaño medio mediante una balanza
de brazos, o la de la temperatura de una sustancia mediante un termómetro, o la de la lon­
gitud de un cuerpo mediante una cinta métrica.
La diferencia entre medición directa e indirecta es relativa a los p ro ced im ien to s de
asignación, no a las m agnitudes. Una misma magnitud se puede medir unas veces direc­
tamente y otras indirectamente. Pero, salvo que se trate de una magnitud que se introduce
a partir de otras, al menos en algunos casos se ha de medir directamente. Así, aunque las
mediciones indirectas son las más comunes en la ciencia, y prácticamente las únicas
“cuando la cosa ya está en marcha”, desde un punto de vista conceptual las mediciones
MEDICIÓN EN LA CIENCIA 179

directas son más fundamentales. Ello no quiere decir que las mediciones indirectas no
sean importantes, o que sean prescindibles. Las mediciones indirectas son igual de esen­
ciales para la ciencia pues, aunque al menos en algunos casos la medición ha de ser direc­
ta, no es posible en general hacerlo en todos los casos, para todo el rango de objetos que
exhiben la magnitud. Mido directamente la masa poniendo objetos en una balanza, pero
no todo objeto con esta propiedad se puede medir mediante este procedimiento, o me­
diante otro también directo; el único modo de medir la masa de algunos objetos (p.ej. es­
telares) es utilizar procedimientos indirectos. En estos casos, la medición directa entra en
la m agnitud a través de unos pocos objetos y se expande al resto mediante cadenas de
medición indirecta a partir de aquéllos.
En la medición, tanto directa como indirecta, es posible realizar la asignación de un
valor a un objeto gracias a que ciertos hechos ocurren en la naturaleza, esto es, gracias a
que se dan determinadas condiciones empíricas. Estos hechos empíricos constituyen las
condiciones de posibilidad de la medición, las condiciones de m ensurabilidad. La medi­
ción, en sentido amplio, incluye o presupone la determinación de dichas condiciones de
mensurabilidad. Por tanto, en la medición se deben distinguir, de un lado, la asignación
efectiva de valores a los objetos, y de otro, las condiciones que hacen posible tal asigna­
ción, condiciones que a la vez determinan el uso que podemos hacer de ella. Las asignacio­
nes se realizan siguiendo ciertos procedimientos. Las condiciones que las hacen posibles y
determinan su uso, se estudian. La realización de las asignaciones y el estudio de sus condi­
ciones de posibilidad son ambas tareas o actividades que corresponden a la ciencia, pero
son actividades de naturaleza diferente. La primera, para la que usaremos ‘medir’ (con su
derivado ‘medición’) en sentido estricto, es básicamente una actividad p rá ctica , cuyo resul­
tado es la asignación de una entidad a otra mediante ciertos procedimientos. La segunda,
para la que usaremos ‘metrizar’ (con su derivado ‘metrización’), es una actividad eminente­
mente teórica, cuyo resultado es la afirmación de que ciertas cosas son de cierto modo.
Puesto que en la metrización se investigan las condiciones empíricas que hacen posible
la medición, y la medición es parte de la práctica científica, a veces tiende a presentarse la
metrización como una tarea, no propiamente científica, sino m etacientifica. Pero aunque
ciertamente (a diferencia de otras investigaciones empíricas) tiene algo de metacientífico,
es propiamente un estudio de ciertos hechos que ocurren en la naturaleza, y por lo tanto una
investigación empírica. Que tales hechos sean las condiciones para la práctica de la medi­
ción no elimina el carácter empírico de su estudio. Esta distinción entre m edición y m etri­
zación, presentada de forma abstracta en estos comentarios preliminares, deberá quedar cla­
ra en el transcurso de la exposición de las secciones 3 a 6.
El análisis metacientífico de la medición, por tanto, debe tener dos partes: a) el
análisis de los procedimientos efectivos de medición o asignación y b ) el estudio metateó-
rico de la investigación 'sobre las condiciones empíricas que hacen posible dichos proce­
dimientos. Realizaremos ambas tareas en las secciones 3 a 6, distinguiendo en cada ámbi­
to entre la medición directa e indirecta. A la investigación sobre las condiciones de posi­
bilidad de la medición directa la denominaremos ‘metrización fundamental’, y se estudia­
rá en la sección 3, y a la investigación sobre las condiciones de posibilidad de la medición
indirecta, ‘metrización derivada’, y se tratará en la sección 4. De los procedimientos de
180 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

medición directa nos ocuparemos en la sección 5 y de los procedimientos de medición in­


directa en la 6. Precedemos el estudio de la metrización al de los procedimientos de medi­
ción pues, como se ha indicado, éstos dependen de las condiciones que investiga aquélla,
por lo que en el análisis de los procedimientos haremos mención de tales condiciones.
Como se trata de una presentación introductoria, en el estudio de la metrización fun­
damental haremos más énfasis en las condiciones mismas que en la naturaleza de su
estudio.
Para concluir estos comentarios introductorios, hagamos una breve aclaración ter­
minológica referente al uso que hacemos del término ‘metrizar’ (y de su derivado ‘metri­
zación’). Cuando se usa este término en la literatura (y se usa muy escasamente) se suele
querer significar “la introducción de un nuevo concepto cuantitativo o concepto métrico”
(cf. Stegmüller, 1970, esp. cap. 1; otros lugares en que se usa son Hempel, 1952, §12;
Berka, 1983, esp. cap. 6, §3, y Mosterín, 1978, p. 36), entendiendo por ello, en el caso de
la metrización fundamental, la especificación de un criterio que permita representar nu­
méricamente un orden cualitativo. Esta tarea se considera en general que tiene dos partes.
La primera, investigar las condiciones que debe satisfacer un sistema cualitativo cualquie­
ra para que sea posible la representación, probar que ellas son efectivamente suficientes y
estudiar qué uso es legítimo hacer de una tal representación. La segunda, determinar el
procedimiento de comparación cualitativo y el estándar con el que arbitrariamente se co­
mienza a efectuar la asignación. Estas tareas son esencialmente diferentes. El uso que no­
sotros hacemos del término ‘metrizar (fundamentalmente)’ corresponde sólo a la primera,
pues la segunda es parte de lo que hemos llamado ‘procedimientos de medición’. Es esen­
cial distinguir ambas cosas. Una vez lo hagamos, qué palabras usemos para cada una es lo
de menos. Aquí usaremos las expresiones mencionadas en el sentido indicado.
Como anunciamos, antes de emprender el estudio detenido de los diversos tipos
de medición y metrización, haremos unos breves comentarios sobre la función de la me­
dición en la ciencia.

2. Función de la m edición

Sin duda, el lugar donde la medición tiene una mayor presencia no es la investiga­
ción científica teórica sino su aplicación práctica, la técnica. La medición, y los instru­
mentos para realizarla, se hallan omnipresentes en cualquier proceso de aplicación tecno­
lógica mínimamente sofisticado. Desde los antiguos agrimensores mesopotámicos que
parcelaban la tierra hasta las más modernas empresas de telecomunicaciones que ponen
satélites en órbita, la historia de la humanidad está indisolublemente ligada a un sinnúme­
ro de prácticas y técnicas que dependen de una forma u otra de la medición, prácticas o
técnicas en relación a las cuales se han introducido la mayoría de los instrumentos de me­
dición: balanza, reloj, sextante, astrolabio, brújula, termómetro, barómetro, etc. Sin em­
bargo, ahora nos interesa la función de la medición no tanto en la aplicación tecnológica
cuanto en la investigación teórica, en el establecimiento y desarrollo de constructos teóri­
cos. Y aunque en menor medida que en la técnica, la medición desempeña también una
MEDICIÓN EN LA CIENCIA 181

función fundamental en el trabajo teórico, especialmente, aunque no exclusivamente, des­


de la(s) revolución(es) científica(s) de ios siglos xvn y xviil
La función de la medición en el desarrollo teórico tiene dos vertientes principales:
su papel en la búsqueda y formulación de nuevas leyes y teorías, y su uso para contrastar
otras ya existentes. La forma en que la medición opera en cada uno de estos ámbitos no es
en modo alguno sencilla ni uniforme y depende casi siempre del particular estadio en que
se encuentre la teoría o disciplina en cuestión. En estas consideraciones introductorias nos
vamos a limitar a mencionar tan sólo los fenómenos más destacados.
La recolección de datos cuantitativos es una de las tareas características de lo
que Kuhn llama cien cia n o rm a l (sobre esta noción, cf. capítulo, 9, §2), del trabajo coti­
diano vinculado al desarrollo de una teoría. Parte del progreso científico en estos perío­
dos consiste justamente en aumentar el caudal y precisión de los datos cuantitativos
existentes. Esa fue, por ejemplo, la principal contribución de los astrónomos geocenins­
tas árabes y tardomedievales (por ejemplo, las Tablas de Toledo del siglo XI) y también
de personajes como Regiomontano y, sobre todo, Tycho Brahe, quien ocupa un lugar en
la historia de la astronomía más por la increíble precisión de las mediciones astronómi­
cas que realizó a simple vista que por su sistema geocéntrico mixto. La función que se
da a esos datos es sin embargo muy variable. Casi siempre, su función en los períodos
de ciencia normal consiste simplemente en ir aumentando la precisión en la aplica­
ción de la teoría a la experiencia. Otras veces parecen desempeñar un papel más impor­
tante, sirviendo de guías para el descubrimiento. Aunque nunca propician directamente
la generación de grandes constructos teóricos, sí parece que a veces desempeñan una
función de guía bastante inmediata en la formulación de leyes específicas. Tal es el
caso, por ejemplo, de las dos primeras leyes de Kepler. La precisión de los datos obteni­
dos por Brahe acabó por convencer a Kepler de que los desajustes cuantitativos del sis­
tema heliocéntrico copernicano no eran debidos a errores de observación, y tras arduos
esfuerzos por mantener el dogma pitagórico de las órbitas circulares sostenido por todos
los astrónomos durante dos mil años, acabó por abandonar y postular órbitas elípticas.
También parece que hubo una dependencia muy directa de los datos en la formulación
por Galileo de la ley de caída de los cuerpos, en el establecimiento por Boyle de la ley
que relaciona presión y volumen en los gases, o en el descubrimiento de Hooke de la
ley de expansión elástica. Sin embargo, no debe pensarse por ello que hay, siquiera en
algunos casos, üna especie de “camino directo de las mediciones a la ley cuantitativa”.
Un resultado formal elemental establece que cualquier secuencia finita de números es
igualmente subsumible bajo infinitas ecuaciones numéricas diferentes, por lo que no
hay algo así como una única ecuación implícitamente contenida en los datos numéricos
(sobre esto volveremos en el capítulo 12 dedicado al problema de la inducción). El viejo
mito baconiano de un método que conduzca de los datos a la ley es eso, un mito que no
se corresponde con la realidad. En el proceso de formulación de leyes intervienen esen­
cialmente consideraciones de simplicidad, belleza, coherencia con otras hipótesis y, por
supuesto, el genio creativo del científico. Se trata simplemente de que en ocasiones los
datos cuantitativos parecen representar una guía particularmente importante en el proce­
so creador; el modo preciso en que desempeñan esta función queda fuera del ámbito de
182 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

estudio de la filosofía de la ciencia, compete más bien a otras disciplinas, principalmen­


te la psicología de la ciencia.
Otra función destacada de la medición es su papel como piedra de toque en los
procesos de contrastación de leyes o teorías ya disponibles. En el capítulo 3 vimos que
una de las virtudes de una buena contrastación era el grado de precisión, tanto de la pre­
dicción como de los datos. Que la predicción sea cuantitativa y que los datos no se reco­
jan por simple observación sino por medición, es en principio una garantía de rigor de la
contrastación, tanto más elevada cuanto más precisos cuantitativamente sean la predic­
ción y los datos medidos. De todas formas, también aquí hay muchas salvedades que ha­
cer. No se trata simplemente de que la determinación de los datos mediante medición ten­
ga un papel de criba inmediata en caso de desajustes cuantitativos con la predicción. Ya
vimos en ese capítulo que la cosa es compleja, que casi siempre se dispone de salidas
apelando a los supuestos auxiliares o incluso a las condiciones iniciales, las cuales en los
casos cuantitativos también se establecen por medición y son susceptibles por tanto de
mayor o menor precisión en su determinación. Cuando la contrastación involucra medi­
ción, cobran especial importancia tres tipos de supuestos auxiliares relacionados: los que
tienen que ver con la idealización de las leyes, los relativos a la fiabilidad de los instru­
mentos de medición y los que establecen más o menos implícitamente el margen de error
admisible. Los datos cuantitativos nunca encajan perfectamente con la predicción y no
siempre se considera eso un problema. Sólo se considera así en caso de que el desajuste
supere ciertos límites más o menos difusos de concordancia, el grado de erro r adm isible.
El margen de error que se considera admisible depende básicamente de la idealización de
las condiciones empíricas reales contenida en las leyes involucradas en la contrastación y
del grado de fiabilidad o sensibilidad de los instrumentos de medición empleados.
La aplicación de las leyes siempre idealiza ciertas “condiciones de entorno”, y en
algunos casos esta idealización puede tener consecuencias cuantitativamente importantes.
Un caso típico es el del péndulo, donde se desprecia el peso del hilo de suspensión y la
fricción del aire, que conjuntamente pueden tener efectos cuantitativos considerables.
Otro caso es el de la aplicación de las leyes de Newton a las predicciones astronómicas.
Según dichas leyes, todos los cuerpos celestes se atraen entre sí. Sin contar ahora con la
presencia de asteroides, polvo espacial, estrellas lejanas, etc., y suponiendo que en el sis­
tema solar sólo están presentes el Sol, los satélites y sus lunas, para el cálculo de una
órbita deberían tomarse en cuenta los efectos simultáneos de dichos cuerpos. Pero, sim­
plemente, ése es un problema matemático que no se ha resuelto (ni siquiera de modo to­
talmente satisfactorio para el caso de tres cuerpos a la vez). Lo que se hace es calcular la
órbita de las lunas como si estuvieran atraídas sólo por sus planetas, o la de cada planeta
como si estuviera atraído sólo por el Sol. Eso supone un margen de error que se suele
considerar despreciable pero que a veces puede ser considerable, como vimos en el caso
de la órbita anómala de Urano y el descubrimiento de Neptuno. A veces, establecer el lí­
mite de error es un trabajo teórico muy complejo. Durante mucho tiempo se pensó que los
desajustes de las mediciones de la órbita de Mercurio estaban dentro de los límites de
concordancia razonable; fue preciso el trabajo de los mejores matemáticos de los si­
glos xviu y xix para mostrar que no era así; el movimiento anómalo de Mercurio no podía
MEDICIÓN EN LA CIENCIA 183

ser explicado en el sistema newtoniano ni siquiera teniendo en cuenta el grado de error ad­
misible; el fenómeno sería posteriormente explicado por la relatividad general de Einstein.
Otra fuente típica de error cuantitativo tiene su origen en los límites de sensibili­
dad de los instrumentos y métodos de medición. Todos hemos experimentado que los ve­
locímetros de nuestros vehículos son insensibles a pequeñas variaciones de velocidad, las
balanzas no discriminan por debajo de ciertos umbrales, los galvanómetros no manifies­
tan pequeñas o muy rápidas variaciones de corriente, etc. La historia de la astronomía
contiene ejemplos sencillos de los efectos de esta otra fuente de error. Durante la Anti­
güedad y la Edad Media se consideró que muchos desajustes del sistema tolemaico con
los datos se debían a la imperfección de los sistemas de medición. A finales de la Edad
Media y en el Renacimiento se fueron perfeccionando los métodos e instrumentos de me­
dición a simple vista, mejora que culminó en la figura de Tycho Brahe, quien perfeccionó
los antiguos instrumentos y diseñó otros nuevos. Después del trabajo experimental de
Tycho, Kepler consideró que los desajustes cuantitativos del nuevo sistema heliocéntrico
de órbitas circulares no podían ya ser explicados apelando a la escasa fiabilidad de los
procedimientos y optó por proponer órbitas elípticas. Éste no es más que un ejemplo sen­
cillo de un fenómeno común: el perfeccionamiento de los instrumentos de medición redu­
ce el grado de error considerado admisible y pasan a ser problemáticos desajustes cuanti­
tativos que hasta entonces se consideraban aceptables. No se piense por ello que la mejo­
ra de las técnicas de medición tiene siempre como consecuencia la puesta en cuestión de
ciertas hipótesis. Con frecuencia ocurre lo contrario, simplemente porque la mejora obser-
vacional reduce el error cuantitativo por debajo de los nuevos límites admisibles. Durante
el siglo xvm se observaba un persistente desajuste de aproximadamente el 20 % entre los
valores predichos y los realmente medidos de la velocidad del sonido en el aire. A princi­
pios del siglo xix, Laplace realizó una medición indirecta a partir de las propiedades tér­
micas de los gases, medidas mediante un procedimiento experimental que superaba las
capacidades de otros métodos disponibles hasta entonces. El resultado de esa medición
indirecta perfeccionada redujo el desajuste a menos del 3 %.
Hemos dicho que el desajuste entre los valores predichos y los medidos se consi­
dera problemático sólo si supera los límites (más o menos difusos) de lo que se considera
error admisible debido a ciertas idealizaciones o a las limitaciones de los procedimientos
de medición. En ese caso tenemos lo que Kuhn ha llamado anom alías em píricas. Convie­
ne advertir que las anomalías no se consideran siempre fatales, más bien ello ocurre pocas
veces. A menudo se espera a que el progreso teórico o empírico las resuelva, o incluso al­
gunas terminan simplemente por ignorarse aunque no se resuelvan si la teoría está bien
asentada. Es más, como indica Kuhn, en ocasiones cuestionan únicamente al científico
que ha realizado las mediciones, no a la teoría (recuérdese el caso de Millikan y las medi­
ciones de Ehrenhaft presuntamente anómalas). Las anomalías tienen una función impor­
tante en los episodios de cambio teórico, donde un número elevado de desajustes, o la
persistencia de algunos considerados especialmente importantes, puede propiciar la pro­
puesta de hipótesis alternativas. En estos casos es particularmente interesante el hecho de
que desde las nuevas hipótesis sea posible realizar nuevas predicciones y diseños ex­
perimentales, incluidos nuevos o mejores instrumentos de medición, que arrojan nueva
184 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

evidencia contraria a la antigua hipótesis (sobre estas cuestiones volveremos en los capí­
tulos sobre la inducción y sobre el cambio teórico).
Hasta aquí la revisión, muy superficial, de la función de la medición como guía de
la investigación y como piedra de toque en las contrastaciones. Antes de concluir, conviene
insistir en que éstas son las funciones de la medición metodológicamente más interesantes,
pero ni mucho menos las más usuales. Como dijimos, la finalidad más común, y por lo ge­
neral anónima, de la medición en la práctica científica consiste simplemente en ir aumen­
tando la precisión de la aplicación de la teoría a la experiencia dentro siempre de los límites
de error admisible. Aunque en cierto sentido ello supone un refuerzo para la teoría, no se
pueden considerar, en sentido estricto, ni intentos de descubrimiento ni de confirmación.
No se trata de pretender poner la teoría enjuego, de contrastarla con la experiencia, sino de
una tarea mucho menos ambiciosa; se trata simplemente de ir mejorando su (incuestionada)
aplicabilidad empírica (sobre esto, cf. especialmente Kuhn, 1961, §2).

3. M etrización fundam ental (*)

Supongamos que tenemos un diamante frente a nosotros. Es pequeño, brillante, li­


viano, duro, bonito y caro. Si nos piden que precisemos un poco más, podremos decir que
es muy pequeño, bastante liviano, muy, muy duro y extremadamente caro. Podemos se­
guir precisando nuestros adjetivos pero, por más que los refinemos, parece que siempre
podremos hacerlo un poco más. Sin embargo, si respondiésemos dando las medidas del
diamante para las propiedades que exhibe, no se nos exigiría ya mayor precisión. Pero
ello no es posible para todas sus propiedades: puedo decir que su volumen es x, su masa
y, incluso que su dureza es z, pero no que su belleza es v. ¿Por qué?
Supongamos que tenemos también un trozo de yeso ante nosotros. Es pequeño,
mate, liviano, blando, feo y barato. Ambos, el yeso y el diamante, son pequeños y livia­
nos, aunque el yeso no lo es tanto. También ahora podemos precisar más hasta dar (cuan­
do sea posible) sus medidas, y quizá nos interese además compararlas con las del diaman­
te. Podemos decir entonces que la masa del yeso es cien veces la del diamante mientras
que su dureza es sólo la décima parte. Pero mientras lo primero significa algo, lo segundo
no. O, mejor dicho, ambas cosas significan algo, pero sólo lo significado por la primera
depende de los dos objetos exclusivamente. Ambas expresan un hecho numérico (el co­
ciente de las masas es 100, el de las durezas 0,1) pero sólo el expresado por la primera re­
presenta un hecho relativo exclusivamente a los objetos. ¿Por qué?

3 .1 . M e t r iz a c ió n f u n d a m e n t a l y m a g n it u d e s

La empresa teórica que hemos denominado m etrización fu n d a m e n ta l responde a


los interrogantes anteriores investigando los hechos o condiciones que hacen posible la
medición de una propiedad y el modo en que es posible usar la medida obtenida para ha­
cer afirmaciones sobre los objetos. Investigando tales condiciones, la metrización funda­
MEDICIÓN EN LA CIENCIA 185

mental determina a su vez el uso que se puede hacer de las asignaciones para dar informa­
ción de los objetos relativa exclu siva m en te a la propiedad en cuestión, esto es, el uso que
se puede dar a las escalas para expresar hechos matemáticos que dependan sólo de la
magnitud en cuestión.
Como vimos en el capítulo 4 (§4), no tiene un sentido absoluto decir que la masa
de un objeto es 6, se ha de especificar la escala que usamos (kilogramos, gramos, tonela­
das, etc.) pues ese valor matemático cambia de una escala a otra. Lo mismo ocurre con la
temperatura termométrica. Pero en relación a la masa sí tiene sentido absoluto decir que
el cociente de las masas de dos objetos es 2 (e.e. que la masa de un objeto es doble que la
de otro), pues ese hecho se preserva en cualquier escala que usemos para medir la masa;
si las medidas originales eran en kilogramos (p.ej. 6 y 3 respectivamente), el cociente se
preserva aunque las transformemos a gramos (6.000 y 3.000) o a toneladas (0,006 y
0,003) o a cualquier otra escala. El cociente de masas es absoluto, independiente de la es­
cala. Pero eso no es así con cualquier magnitud. Con la temperatura (termométrica) no
pasa eso. No tiene sentido decir que la temperatura a medianoche de hoy es doble que la
de ayer, pues dada la m ism a temperatura esa afirmación puede ser verdadera en una esca­
la y falsa en otra; si las medidas originales eran en grados Celsius (p.ej. 10 y 5 respectiva­
mente), el cociente no se preserva si las transformamos a grados Fahrenheit (50 y 41). El
cociente de temperaturas no es absoluto sino que depende de la escala usada. Sin embar­
go, para la temperatura tiene sentido absoluto otra relación más débil, a saber, el cociente
entre intervalos de temperatura. Si el cociente entre la diferencia de temperaturas al me­
diodía y a medianoche de hoy y la diferencia de temperaturas al mediodía y a medianoche
de ayer es 1/2, medidas en grados Celsius (p.ej. 10 y 5, y 20 y 10 respectivamente), dicho
cociente de intervalos (5/10 = 1/2) se mantiene aunque las transformemos a grados
Fahrenheit (50 y 41, y 68 y 50; el cociente de intervalos es 9/18 = 1/2) o a cualquier otra
escala.1Como adelantamos en el capítulo 4, las escalas de masa son escalas proporciona­
les, los cambios de escala preservan los cocientes o proporciones de cantidades; las esca­
las de temperatura (termométrica) son escalas de intervalos o diferencias, los cambios de
escala preservan los cocientes de intervalos o diferencias de cantidades. Y todavía hay
otros tipos de escalas. Puesto que las escalas no son más que las asignaciones numéricas
que representan las magnitudes, esta diferencia en las escalas debe derivarse de las condi­
ciones que hacen posible la representación numérica; si las condiciones fuesen las mis­
mas, el tipo de asignación también sería el mismo (el otro sentido no es válido, puede
ocurrir que diferentes tipos de condiciones posibiliten un mismo tipo de escala). Así, la
metrización fundamental investiga los diferentes tipos de condiciones que hacen posible
la representación cuantitativa de magnitudes (sin usar otras mediciones previas) y, ha­
ciendo eso, da cuenta de los diferentes tipos de asignaciones o escalas. Antes de ver algu­
nos de los diferentes tipos de condiciones y las escalas a que dan lugar, es conveniente
hacer algunas consideraciones generales.

1. Este es el motivo de que en las leyes físicas en que interviene la temperatura termométrica, p.ej.
las de dilatación de metales, no aparezca nunca la magnitud absoluta sino sus intervalos. En otras leyes, como
la de los gases y, en general, en la Termodinámica, aparece la magnitud absoluta, pero no se trata entonces
de la temperatura termométrica sino de la tem p era tu ra ab so lu ta , para la que no hay metrización fundamental.
186 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

En primer lugar, hablar de metrizar fundamentalmente (en el resto de este parágra­


fo omitiremos, dándolos por sobreentendidos, ‘fundamental’ y sus derivados) una propie­
dad específica es un tanto extraño. Las propiedades se miden y al metrizar investigamos
cómo ello es posible. Ahora bien, las condiciones que se investigan en la metrización no
se refieren esencialmente a ninguna propiedad concreta, son condiciones generales a sa­
tisfacer por una propiedad cualquiera para ser susceptible de medición. Si en algún senti­
do se puede hablar de metrizar una propiedad concreta, por ello habría que entender, en
todo caso, la investigación (empírica) sobre si tal propiedad satisface o no determinado
grupo de condiciones.
En segundo lugar, si la metrización consistiese simplemente en el análisis de las
condiciones que hacen posible la asignación de números a objetos que exhiben una pro­
piedad, no habría obviamente nada que analizar, pues bajo cualesquiera condiciones es
posible asignar números a cualquier dominio de objetos. Es esencial añadir que se trata de
condiciones que hacen posible una asignación numérica que exprese m atem áticam ente
los hechos que se dan entre los objetos p o r ejem p lifica r la p ro p ied a d . No toda asignación
se considera una medición y la metrización debe hacer precisa esa restricción adicional.
Los objetos conforman ciertos hechos, algunos de los cuales se deberán a la propiedad
que se desea medir. La asignación numérica debe rep resen ta r esos hechos, expresarlos
numéricamente. Y además lo debe hacer de modo “interesante”, esto es, sistem ático. No
se trata meramente de asociar un número a cada objeto y después “reescribir numérica­
mente” los hechos conocidos entre objetos. Eso siempre se puede hacer con tal de que
haya tantos números como objetos, pero no es medición genuina sino mera “renominali-
zación”; por eso las “escalas” meramente o rd in a les , que en el fondo no hacen más que
esto, no son realmente escalas de medición genuinas (cf. cap. 4, §4).
En tercer lugar, y relacionado con lo anterior, los diferentes grupos de condiciones
de mensurabilidad son los que determinan qué propiedades son m agnitudes. Más arriba ca­
racterizamos las magnitudes como aquellas propiedades que se dan en los objetos en diver­
so grado, según un más y un menos, y dijimos que las magnitudes no eran expresadas por
cualesquiera relaciones, sino sólo por relaciones comparativas. Ahora conviene explicitar
un matiz que entonces dejamos implícito al afirmar que “toda propiedad relacional compa­
rativa expresa p rim a fa c ie una magnitud”. Sólo p rim a fa c ie , pues, aunque toda magnitud es
(o es expresada por) una relación cualitativa comparativa, quizá no toda relación compara­
tiva sea (o exprese) una magnitud. Las magnitudes serán las propiedades relaciónales com­
parativas que satisfacen (algún grupo u otro de) condiciones de m ensurabilidad . Qué rela­
ciones comparativas constituyen magnitudes se descubre mediante la metrización, que es la
que establece los diversos grupos de condiciones de mensurabilidad.
Por último, hemos dicho que la representación numérica no lo es de todos los he­
chos conformados por los objetos, sino de aquellos hechos que involucran la propiedad a
medir, de los estados de cosas que se dan entre los objetos p o r ejemplificar la magnitud.
Dada la naturaleza relacional y comparativa de las magnitudes, los hechos a representar
que se dan entre los objetos p o r ejemplificar la magnitud serán hechos com parativos. Por
otro lado, estos hechos comparativos a representar deben ser p u ra m en te cu a lita tivo s , no
pueden contener ninguna referencia implícita ni explícita a cantidades ya medidas pues la
MEDICIÓN EN LA CIENCIA 187

metrización fundamental investiga las condiciones de posibilidad de la medición directa y


ésta asigna cantidades a los objetos sin usar mediciones previas.

3.2. T e o r ía d e l a m e t r iz a c ió n . E s t r u c t u r a s , r e p r e s e n t a c ió n , u n ic id a d y e s c a l a s

Hasta aquí la caracterización introductoria de esa actividad teórica que hemos lla­
mado m etrización fu n d a m en ta l. El resultado de esta actividad es, en un sentido amplio del
término, una teoría, la teoría de la m etrización (fundam ental), en adelante ‘T M \ TM es,
aunque peculiar, una teoría empírica en el sentido de que las condiciones de mensurabilidad
que estudia son condiciones em píricas (algunas de ellas, como también ocurre en las teorías
usuales, con ciertas idealizaciones); esto es, son condiciones cualitativas que satisfacen sis­
temas cualitativos física m en te realizados , como balanzas, varas, líquidos, etc. TM, por tan­
to, hace aserciones empíricas, dice o p reten d e que tales y cuales sistemas concretos física­
mente realizados satisfacen tales y cuales condiciones. Sin embargo es cierto que TM es
peculiar pues, a diferencia de las teorías empíricas usuales, no parece ser explicativa sino
meramente descriptiva. No podemos ver aquí en detalle esta peculiaridad, pero ella no eli­
mina su carácter empírico en el sentido m ínim o indicado. Este carácter queda patente en su
desarrollo histórico, donde las modificaciones del formalismo, la determinación de condi­
ciones alternativas de mensurabilidad, han respondido siempre al deseo de capturar situa­
ciones empíricas nuevas que no satisfacían las condiciones estudiadas hasta entonces
(cf. Diez, 1997a y 1997¿> para una historia actualizada de TM). Puesto que éste es un estu­
dio introductorio, y el contenido de TM no es por lo común conocido, vamos a presentar
los rasgos generales de TM haciendo énfasis más en el contenido mismo que en su estruc­
tura u otras peculiaridades metateóricas. Esta estructura se puede especificar, de acuerdo
con el enfoque semántico que veremos en el capítulo 10, en términos de los modelos que la
teoría define o caracteriza. Como aquí no nos interesa sino dar un esquema del contenido
de TM, nos limitaremos a presentar informalmente el tipo de sistemas o estructuras de que
se ocupa, el tipo de condiciones o leyes que definen tales estructuras y un tipo especialmen­
te importante de consecuencias o teoremas que formula. Completaremos esta aproximación
general abstracta con algunos ejemplos de modelos específicos.
Acabamos de indicar que las condiciones de mensurabilidad que investiga TM, en
tanto que teoría sobre las condiciones de, representación numérica de magnitudes, son re­
lativas a hechos co m p a ra tivo s y p u ra m en te cualitativos. Esto determina ya parcialmente
la naturaleza de los sistemas de que se ocupa. Como los sistemas de que se ocupa expre­
san magnitudes, tales sistemas han de contener n ecesariam ente una relación cualitativa de
comparación que exprese el orden o posición en que se encuentran los objetos que exhi­
ben la magnitud de que se trate en cada caso. Estas relaciones comparativas cualitativas
son generadas o determinadas por diversos procedimientos empíricos, por ejemplo la
comparación mediante balanzas para la masa, o la comparación de varas rígidas para
la longitud, etc. Así, los sistemas empíricos que investiga TM han ser sistemas comparati­
vos, han de estar formados, al menos, por un dominio A de objetos y una relación em p íri­
ca cualitativa de com paración entre los elementos de A .
188 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

Estas estructuras comparativas son las que en el capítulo 4 dijimos que correspon­
den a la extensión del concepto comparativo subyacente a determinado concepto métrico
(cuando tal es el caso, pues recuérdese que hay conceptos métricos que no se introducen
de este modo, como se aclarará en la próxima sección). En ese contexto, a efectos exposi­
tivos, nos referíamos al sistema comparativo mediante una relación de precedencia P y
otra de coincidencia K, e identificábamos la extensión del concepto comparativo con la
unión P u K. En el presente contexto, y también a efectos expositivos (y notacionales), es
más conveniente partir de dicha unión, a la que denotaremos mediante ‘S \ Así, ‘xSy’ va a
significar “x es tanto o más .... que y” (p.ej., x es tanto o más másico que y, x es tanto o
más caliente que y, etc.). Esto es equivalente a lo anterior, pues a partir de S se pueden
obtener inmediatamente las relaciones de precedencia (estricta) y de coincidencia: xP y
syss xS y y no ySx; x K y syss xS y y ySx. Que S sea una relación de comparación entre los
objetos de A significa, técnicamente, que es una relación de orden d éb il , esto es, reflexi­
va, transitiva y conexa, cuyo campo es A. Así, cuando S es un orden débil sobre A, las re­
laciones derivadas P (“ser estrictamente más ... que”) y K (“ser tan ... como”) tienen las
propiedades apropiadas: K es una relación de equivalencia, P es transitiva y son mutua­
mente excluyentes y conjuntamente conexas en A (cf. cap. 4, def. 4.2).
Que S sea una relación empírica cualitativa significa que se determina mediante al­
gún procedimiento de comparación cualitativa físicamente realizable. Por ejemplo, si A es
un determinado dominio de cuerpos de tamaño medio, S se puede obtener mediante el si­
guiente procedimiento: xSy syss puestos cada uno en uno de los platos de una balanza de
brazos iguales, el plato de x permanece a la misma altura o por debajo del plato de y; este
procedimiento de comparación sería el asociado a la propiedad relacional que expresa (o
que es, si defendemos que las magnitudes sólo son propiedades relaciónales) la masa. O, si
A es un dominio de varas rígidas, mediante este otro: xS y syss haciendo coincidir r e y por
la base, el extremo de x coincide con, o supera, el extremo de y; en este caso la magnitud
involucrada sería la longitud. En todos los casos en que haya medición directa de una mag­
nitud se procedería análogamente mediante el apropiado procedimiento de comparación
empírica cualitativa que genera un orden débil entre los objetos del dominio.
Las estructuras de que se ocupa TM contienen pues al menos un dominio A de
objetos y una relación de orden débil S generada por algún procedimiento empírico cualita­
tivo de comparación. La tarea de TM es entonces investigar las condiciones-leyes empíri­
cas cualitativas que satisfacen estos sistemas y que posibilitan la existencia de una repre­
sentación numérica. Una representación numérica es una asignación de números reales a
los objetos del dominio tal que preserva el orden S, esto es, una función/de A en Re que
cumple: xS y s y s s //) > /y ) . Pero ahora es cuando las cosas se complican un poco. Si no
exigimos nada más, bajo condiciones formales muy débiles y empíricamente irrestrictas
(p.ej. que A sea numerable) siempre existe una tal representación; es lo que antes hemos ca­
lificado de mera renominalización de los objetos. Pero esta representación es extremada­
mente débil y poco útil, es una escala meramente ordinal que apenas puede considerarse
una escala cuantitativa genuina; las escalas ordinales (como la de Mohs para la dureza) no
proporcionan ningún avance real respecto de los simples conceptos comparativos. Si quere­
mos representaciones interesantes, genuinamente cuantitativas, son necesarias condiciones
MEDICIÓN EN LA CIENCIA 189

efectivamente restrictivas. Y aquí es donde aparece la complicación, pues no hay un único


grupo de condiciones que garanticen la representación. Diferentes sistemas empíricos pue­
den satisfacer diferentes condiciones y todas ellas garantizar la existencia de cierto tipo de
representación (interesante). Y lo que es más, esos grupos de condiciones requieren por lo
general algún elemento adicional además de A y S. La representación se obtiene entonces
con ayuda de alguna otra relación u operación sobre A, por ejemplo una operación de com­
binación asociada, que denotaremos mediante o exigiendo que A tenga algunas propie­
dades estructurales específicas, por ejemplo que esté formado por pares. Ahora la represen­
tación numérica no sólo debe preservar el orden S sino además determinados hechos relati­
vos a esos nuevos elementos y, si ha de ser una representación interesante, si da lugar a una
escala no meramente ordinal, son necesarias condiciones efectivamente restrictivas.
Vamos a ver a continuación cómo procede en general TM, es decir, en qué consis­
te en general la metrización fundamental. En primer lugar expondremos de modo abstrac­
to este tipo de tarea y después ilustraremos la exposición con ejemplos concretos de la
misma, esenciales para hacerse una idea precisa de la naturaleza de la metrización funda­
mental. En esta exposición volveremos sobre algunos de los aspectos que quedaron pen­
dientes en el capítulo 4, que ahora deben quedar totalmente elucidados, en especial el re­
lativo al motivo por el que podemos decir que determinadas asignaciones numéricas son
escalas diferentes que miden la m ism a propiedad-magnitud.
Los sistemas de que se ocupa la metrización fundamental son pues, según las con­
sideraciones anteriores, estructuras del tipo <A, S, ...>, donde puede haber constituyentes
adicionales o A puede tener ciertas propiedades estructurales. Diversos grupos de condi­
ciones o leyes sobre los constituyentes de los sistemas caracterizan diversos tipos de es­
tructuras comparativas cualitativas efectivamente representables mediante escalas no me­
ramente ordinales. Las leyes caracterizan o definen los diversos tipos de sistemas empíri­
cos, y que tales sistemas son efectivamente representables numéricamente lo establece la
teoría p ro b a n d o un teorem a de representación (TR). Vamos ha llamar a partir de ahora
‘métricas’ a las estructuras cualitativas de que se ocupa TM.2 TM define (caracteriza, de­
termina) los diversos tipos de métrica mediante instancias particulares del siguiente es­
quema:

MET <A, S, ...> es una m étrica---- syssf/e/ Ci(A, S ,...),..., C„(A, S , ...).

siendo C, condiciones o leyes referentes al comportamiento de los componentes de la mé­


trica. El teorema de representación establece entonces lo siguiente:

TR Si <A, S, ...> es una métrica — , entonces existe/de A en Re tal que:


para todo x, y de A: xSy syss f(x ) > f(y )\ y .........

2. Este uso de ‘métrica’ no debe confundirse con io que en matemáticas, y en especial en geome­
tría, se denomina así. Mediante este nombre abreviamos la expresión ‘sistema representable numéricamente’
o ‘sistema mensurable’. Puesto que el contexto evita confusiones, nos parece adecuado usar este nombre para
connotar que aun siendo sistemas puramente cualitativos, es en ellos donde d esca n sa en última instancia toda
medición.
190 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Los últimos puntos suspensivos indican el modo en que la representación preserva, además
del orden, otros hechos cualitativos que involucran los demás elementos de la métrica.
TR no recoge sin embargo todo lo que se debe probar. TR no indica cuán fuerte,
estricta o, como se dice técnicamente, unívoca es la representación; esto es, no indica de
qué tipo es la escala-representación. Usualmente hay más de una representación posible,
más de una función/de la que es verdadero TR, y es crucial saber cuán diferentes son las
posibles representaciones para determinar el uso que podemos hacer de las mismas (re­
cuérdese los casos de las escalas para la masa y la temperatura termométrica mencionados
más arriba y en el capítulo 4). Puede ocurrir que las representaciones se diferencien sólo
en que unas son múltiplos de otras, esto es, que se obtengan unas de otras multiplicando
por un número; o puede que sean más diferentes, por ejemplo que unas se obtengan a par­
tir de otras multiplicando por un número y sumando otro. O todavía hay más posibilida­
des. Estos modos de pasar de unas representaciones a otras, y que determinan cuán dife­
rentes son las diferentes funciones que satisfacen TR, son lo que en el capítulo 4 denomi­
namos tran sfo rm a cio n es entre escalas. El lector recordará que las más importantes son las
siguientes (cf. cap. 4, §4):

Transformaciones sim ila res ; una función se obtiene a partir de otra multiplicando
por una constante, e.e. g(x) = a fix) (a e Re+).
Transformaciones lin ea les : la nueva función se obtiene multiplicando por una
constante y sumando otra, e.e. g(x) - a fix) + b (a e Re+, b e Re).
Transformaciones lineales sim ples: la nueva función se obtiene sólo sumando una
constante, e.e. g{x) = fix ) + b (b € Re).
Transformaciones exp o n en cia les : la nueva función se obtiene elevando a cierta
potencia y multiplicando por una constante, e.e. g(x) = a(f{x))n (a , n e Re+).
Transformaciones exponenciales sim ples: la nueva función se obtiene sólo elevan­
do a cierta potencia, e.e. g(x) = (/fx))" (n e Re+).

Además de TR es preciso entonces probar un teorem a de unicidad (TU) que esta­


blece cuán unívoca es la representación, esto es, el tipo de transformación que relaciona las
diferentes representaciones cuya existencia establece TR. Al tipo dado de transformación se
la denomina transform ación adm isible, admisible en el sentido de que si tenemos una fun­
ción-representación del sistema, todas las funciones que se obtienen a partir de la primera
mediante ese tipo de transformación, y sólo ellas, son también una representación del siste­
ma, satisfacen también TR. El teorema de unicidad tiene siempre la siguiente forma:

TU Si <A, S, ...> es una m étrica---- , entonces cualesquiera/, g que satisfagan


TR son tales que g es una transformación___de/.

Conjuntamente tomados, TR y TU (TRU) tienen la siguiente forma característica


de los teoremas de existencia unívoca:3

3. Los teoremas de existencia unívoca son de la forma: “3x (cp(jr) a V y (tp(y) syss x R y ))” (o más
MEDICIÓN EN LA CIENCIA 191

TRU Si <A,£,...> es una métrica — , entonces h a y /d e A en Re tal que:


(1) Para todo x, y de A: xS y syss f( x ) >/(y); y ....
(2) Toda g que satisfaga (1) es una transformación___ de/

O simplemente, de forma abreviada: “H a y /d e A en Re tal que (1), y es única bajo trans­


formaciones ___
TRU determina el uso que podemos hacer de las representaciones, esto es, da
cuenta de la naturaleza de los diferentes tipos de escalas (para los siguientes hechos,
cf. cap. 4, §4): si las transformaciones admisibles para determinado sistema son las
tra n sfo rm a cio n es sim ila re s, la representación es una esca la p ro p o rcio n a l, el cociente de
valores permanece constante al pasar de una función a otra; si las transformaciones ad­
misibles son las tra n sfo rm a cio n es lin ea les, la representación es una esca la de in terva lo s
(o de d iferen cia s), el cociente de valores no permanece necesariamente constante pero
el cociente de intervalos o diferencias de valores sí; si las transformaciones admisibles
son las tra n sfo rm a cio n es lin ea les sim p les, la representación es una esca la de in terva lo s
abso lu to s, permanece constante la diferencia de valores; si las transformaciones admisi­
bles son las tra n sfo rm a cio n es e xp o n en cia les, tenemos esca la s de in terva lo s lo g a rítm i­
cos, permanece constante el cociente de diferencias de los logaritmos de los valores;
para tra n sfo rm a cio n es exp o n e n c ia les sim p les obtenemos esca la s de p ro p o rc io n e s lo g a ­
rítm icas, caracterizadas por permanecer constante el cociente de los logaritmos de los
valores; y así sucesivamente.
Esta es la explicación de los hechos aparentemente misteriosos relativos a los usos
que se puede dar a las escalas de las diferentes magnitudes, como los que mencionamos
para los casos de la masa y la temperatura. En el capítulo 4 vimos que las escalas para la
masa y la temperatura eran de diferente tipo y que, por tanto, determinados cocientes que
se preservaban en una no se preservan en otra. Eso estaba relacionado con el tipo de
transformación mediante el que pasamos de unas escalas a otras de la misma magnitud,
pero quedó abierta la cuestión de qué determina cuáles son las escalas de una magni­
tud, qué determina la extensión del concepto métrico (el conjunto de todas las escalas
para dicha magnitud). Ahora podemos saber cómo se establece eso, se establece mediante
el teorema de representación. Todas las funciones/de las que, dado un sistema compara­
tivo cualitativo <A, S , ...>, sea verdadero TR, son escalas que miden la magnitud expresa­
da por (o “contenida en”) dicho sistema. Todas ellas representan numéricamente la mag­
nitud y, por tanto, son escalas diferentes que miden (representan numéricamente) la
misma magnitud. Y TU prueba cuál es tipo de transformación que las relaciona. Todo
ello, cuáles sean las funciones y cómo se relacionan entre sí, depende, como se ve, de las
condiciones G , ..., C„ que satisface el sistema empírico. Aquello en virtud de lo cual po­
demos considerar que diferentes asignaciones numéricas a los mismos objetos son asigna­
ciones que representan la misma propiedad es el hecho de que todas ellas representan el
sistema comparativo como TRU establece.

abreviado “3 x Vy ((p(y) syss x R y )'’), siendo R una relación de equivalencia (si R es la identidad, la existencia
es estrictamente única, sólo hay una entidad que satisfaga (p).
192 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Éste es, muy resumidamente, el modo como TM investiga los diversos grupos de
condiciones de mensurabilidad para sistemas empíricos cualitativos, prueba después el
tipo de representación que corresponde a cada uno y determina con ello el uso que se
puede hacer de las escalas. Conviene señalar que, aunque se investigan y establecen di­
ferentes grupos de condiciones, éstos no están totalmente desconectados. Si se estudian
con detenimiento los diferentes grupos de condiciones se observa que se pueden “estra­
tificar” de forma natural, que hay algunas muy generales exigidas a todos los sistemas,
otras más específicas exigidas sólo a un grupo de sistemas, hasta llegar a otras válidas
para un único tipo de sistemas. Es decir, se pueden agrupar los diversos grupos de con­
diciones en “ramas” de modo que los modelos formen una típica estructura de red te ó ri­
ca, en el sentido estructuralista que veremos en el capítulo 10 (§5). Lo característico de
TM en tanto que teoría sobre las condiciones em p írica s que posibilitan la medición fun­
damental es que en cada una de las ramas de la red es posible probar al menos un teore­
ma de representación y unicidad: la existencia de representación única bajo ciertas
transformaciones; las posibilidades representacionales de las diferentes métricas de la
red serán más o menos fuertes según lo sea el tipo de transformación, esto es, el grado
de unicidad de la representación. No vamos aquí a resumir siquiera la estructura de la
red (cf. Moulines y Diez, 1994, para la subred de las métricas combinatorias, y Diez,
1992, para una presentación esquemática de la red completa). En lugar de ello presenta­
remos, para fijar, ideas dos métricas específicas, las más comunes, junto con su corres­
pondiente TRU.

3 .3 . T ip o s d e m é t r ic a s

Se pueden distinguir en general cuatro grandes tipos de estructuras métricas: las


métricas combinatorias, las métricas de intervalos, las métricas conjugadas y las métri­
cas algebraicas (llamadas a veces ‘probabilistas’). Vamos a ver aquí las dos primeras
(en realidad algunos subtipos de ellas); de las dos últimas nos limitaremos a dar una
idea general.

M é trica s co m b in a to ria s .
Históricamente, los primeros sistemas que se estudia­
ron disponían, además del dominio A y de la relación comparativa S, de una operación
empírica de concatenación o, en general, de co m b in a ció n , a la que denotaremos median­
te <0\ asociable de algún modo al procedimiento de comparación; ejemplos de combina­
ciones, como mencionamos al presentar la diferencia entre magnitudes extensivas e in­
tensivas, son la agregación de objetos, la mezcla de sustancias, la concatenación de va­
ras, la sucesión de espirales eléctricas, etc. Llamaremos a estos sistemas, que tienen la
forma <A , S , °>, m étrica s co m b in a to ria s. Hay muchos tipos de métricas combinatorias
dependiendo del comportamiento relativo de S y El más conocido, y con el que se ini­
ció TM, es el que corresponde a las m étrica s co m b in a to ria s e xten siva s p o sitiv a s. En
realidad hay también varios subtipos de estos sistemas, y aquí vamos a presentar sólo el
más sencillo (en adelante, P y K son, respectivamente, las relaciones de precedencia es­
MEDICIÓN EN LA CIENCIA 193

tricta (“estrictamente más ... que”) y de coincidencia (“tan ... como”) derivadas a partir
de S del modo establecido más arriba).

D efinición 6 ,1 :

<A, ó, °> es una m étrica com bin a to ria extensiva p o sitiva syss
(1) S es reflexiva, transitiva y conexa en A.
(2) o es una operación binaria cerrada en A .
(3) Para todo x, y de A: x ° y P x y x°yP y.
(4) Para todo x, y, z de A: x ° (y oz)K (xoy)°z.
(5) Para todo x, y, z de A: (xSy syss x°zS y°z) y (xSy syss z°xSz°y).
(6) Para todo x, y de A \ si x P y entonces hay n e N tal que nyPx.
(donde ‘rcy’ significa que concatenamos y consigo mismo, o con equivalentes
a él, n veces).

La condición (2) exige que exista la combinación de cualesquiera dos individuos;


esta exigencia es muy fuerte y se puede debilitar sin perder capacidades representaciona-
les complicando el resto de condiciones, pero no lo vamos a ver aquí. (3) expresa la P-po-
sitividad de °, esto es, el objeto resultante de la combinación es estrictamente mayor que
cualquiera de sus componentes. (4) expresa la K -a so cia tivid a d de (5) es la S-m onoto-
nía: el orden se preserva tras combinaciones con el mismo objeto (o en general con equi­
valentes). (6) es la condición de a rq u im ed ia n id a d , que afirma que ningún objeto es “infi­
nitamente” mayor que otro, esto es, si uno es mayor que otro podemos superar el primero
combinando el segundo consigo mismo (o en general con equivalentes de él) un número
finito de veces.
Estas son las condiciones que definen este tipo de métricas y, simplemente, hay
sistemas empíricos que las satisfacen y otros que no. Las satisfacen, por ejemplo, cuer­
pos de tamaño medio con la comparación mediante balanza y la agregación; sucesos
con la comparación mediante coincidencia de inicios y la consecución; varas rígidas con
la comparación mediante coincidencia de bases y la concatenación lineal; varas rígidas
con la misma comparación y la concatenación ortogonal; espirales eléctricas con la
comparación mediante galvanómetro cualitativo y la consecución en serie. No las satis­
facen, por ejemplo, las espirales con la misma comparación y combinación en paralelo;
los líquidos con la comparación cualitativa de temperatura y la mezcla; las sustancias
con la comparación cualitativa de densidades y la agregación; los ángulos con compara­
ción mediante coincidencia de bases y la consecución; los bienes de consumo con la
comparación según preferencias subjetivas y la conjunción. Todos estos sistemas vio­
lan, al menos, la condición de positividad (y con ella, otras): la resistencia resultante de
la combinación en paralelo no es mayor sino menor que ambos componentes, esa com­
binación es n e g a tiv a ; la temperatura del líquido resultante de mezclar otros dos está en­
tre la de ambos, dicha combinación es in te rn a ; igualmente ocurre con la combinación
de densidades; la combinación de ángulos es a veces mayor a veces menor que los com­
ponentes, es p e rió d ic a en cierto entorno. Nótese, como advertimos más arriba, que una
194 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

misma magnitud, como la resistencia, puede tener unas propiedades con una operación
de combinación y otras diferentes con otra operación.
Esto son, simplemente, hechos del mundo. La realidad es de modo tal que algunos
fenómenos empíricos tienen estas características y otros no. Si un sistema empírico cuali­
tativo las tiene, entonces es numéricamente representable de cierto modo específico, se
pueden asignar números a los objetos de manera que representen sus propiedades cualita­
tivas debidas a la magnitud exhibida mediante la relación de comparación. En este caso
específico existe una representación numérica que preserva el orden, que representa« me­
diante la suma y que es única bajo transformaciones similares. Estos sistemas son repre­
sentables, medibles, mediante escalas proporcionales, y lo que hace posible que sean me-
dibles, y lo sean de ese modo específico, es que ocurren para ellos los hechos empíricos
expresados en Def. 6.1. Esto es lo que dice el siguiente TRU (que presentamos sin prueba
pues excede los límites de este texto):

T eorem a 6 .1 :

Si <A, S , °> es una m étrica com binatoria extensiva p o sitiv a , entonces hay / de A
en Re tal que:
(1) a) Para todo x, y de A : xS y syss f(x ) > f(y);
b) Para todo x, y de A: f(x°y) =/(x) + f(y).
(2) Para toda g que satisfaga (1) hay a e Re+ tal que, para todo x de A , g(x) =
af(x).

Algunas veces se expresa la parte (1) diciendo simplemente q u e /e s un homo-


morfismo de <A, S, °> en <Re, >, +>. No hay nada que objetar a esta versión como mera
abreviatura de la que hemos usado, pero no conviene concederle demasiada importancia.
En ocasiones se caracteriza la tarea de TM como la de investigar las condiciones para la
existencia de representaciones homomórficas, e.e., se caracterizan los teoremas TR como
asegurando la existencia de un homomorfismo entre un sistema empírico y otro numéri­
co. Pero, aunque en casos específicos como el visto (que además fue el inicial de la teo­
ría), la '‘versión homomorfismo” es natural, en general no tiene por qué ser así. Hay mu­
chos tipos de métricas y muchos tipos de representaciones y no siempre se dejan expresar
en la versión “homomorfismo” de forma natural. Es cierto que siempre podremos d efin ir
operaciones matemáticas complejas con cuya ayuda defin ir un sistema numérico apropia­
do para expresar TR como la existencia de un homomorfismo entre dos sistemas, pero en
general el sistema matemático resultante será muy poco natural.
A las representaciones de los sistemas combinatorios que expresan numéricamen­
te la operación cualitativa de combinación mediante la suma o adición matemática se las
denomina representaciones aditivas. Las métricas combinatorias presentadas tienen pues
representaciones aditivas únicas bajo transformaciones similares. Ahora se puede com­
prender con mayor propiedad la diferencia que se pretendía recoger mediante la distin­
ción tradicional entre magnitudes extensivas e intensivas, que es propiamente relativa a
magnitudes y procedimientos de combinación. Una magnitud es extensiva relativamente a
MEDICIÓN EN LA CIENCIA 195

un procedimiento de combinación si el orden cualitativo constituye ju n to con ese modo


de combinación un sistema que tiene representaciones aditivas. Una magnitud es intensi­
va relativamente a un modo de combinación si la combinación es interna respecto del or­
den, esto es, si el objeto resultante está en el orden en una posición intermedia entre los
constituyentes. Así precisada, la distinción no es exhaustiva ni excluyeme. No es exhaus­
tiva pues puede haber magnitudes que relativamente a cierto modo de combinación no
sean extensivas ni intensivas (p.ej. la combinación de ángulos). No es excluyente, referi­
da a las m a gnitudes so la s , pues podría ocurrir que una magnitud fuese extensiva respecto
de un modo de combinación e intensiva respecto de otro; por supuesto que sí es excluyen-
te referida a los sistemas enteros, incluyendo pues si una magnitud es intensiva respecto
de un modo de combinación, seguro que no existen representaciones aditivas de dicho
modo, y viceversa.
Hemos visto que algunos sistemas combinatorios, como los de Def. 6.1, tienen re­
presentaciones aditivas, en las que o se expresa mediante la suma. Pero eso no quiere de­
cir que sólo tengan representaciones aditivas. En realidad, es un hecho matemático simple
que si una métrica combinatoria tiene representaciones aditivas, entonces siem pre tiene
tam bién representaciones no aditivas. Por ejemplo, multiplicativas, que son aquellas re­
presentaciones en las que B se expresa matemáticamente mediante el producto: simple­
mente se aplica eva la representación aditiva y se obtiene otra multiplicativa. Por tanto se
puede probar otro teorema para estos mismos sistemas que sustituya en (1) la suma por el
producto; en ese caso hay que modificar también (2): estas representaciones multiplicati­
vas son únicas, no bajo transformaciones similares, sino bajo transformaciones exponen­
ciales simples, esto es, son escalas de proporciones logarítmicas. Es muy importante enfa­
tizar que, en ese caso, la parte (2) de Teor. 6.1, la unicidad, cambia. TU no establece la
unicidad de cu a lq u ier representación, sino de las representaciones de cierto tipo, aditivas,
o multiplicativas, u otras. Esto no es una limitación, no quiere decir que después de todo
la unicidad no sea tal. Lo que sucede es que simplemente no tiene sentido preguntarse por
la unicidad de las representaciones si no sabemos cómo se representa °, dejar la represen­
tación matemática de ° abierta supone dejar sin precisar la representación: no podemos
preguntar qué otras funciones hacen “eso” porque no sabemos del todo qué es “eso”. Por
tanto la unicidad expresada en (2) depende esencialmente de la representación de ° que
especifique (1). Es cierto que este hecho introduce un elemento de indeterminación, pero
ésta no se refiere a la metrización sino a la medición. Ciertamente hay que elegir entre las
representaciones aditivas o las multiplicativas u otras, y en función de ello los valores
asignados cambian. Esa elección corresponderá a los procedimientos de medición directa.
Determinados procedimientos de medición directa (p.ej. los que efectivamente se usan en
la física para la masa, la longitud y la duración), eligen una representación frente a las
otras (p.ej. la aditiva). Pero, como algunos autores han señalado (cf. p.ej. Ellis, 1966,
pp. 79 ss.), toda la física se podría reescribir en principio usando representaciones multi­
plicativas, nada hay en el mundo de lo que ello dependa. Sobre las consecuencias de este
elemento de arbitrariedad volveremos en la última sección.
Las métricas combinatorias extensivas positivas son sólo un tipo de métricas com­
binatorias para las que existe representación numérica. Hay muchos otros tipos, negati­
196 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

vas, periódicas, internas, con sus correspondientes subtipos. Cada uno satisface determi­
nadas condiciones empíricas que posibilitan su representación, esto es, que posibilita la
prueba de un teorema análogo a Teor. 6.1. Algunos de ellos tienen también, como los de
Def. 6.1, representaciones aditivas; otros no, su representación es esencialmente no aditi­
va (esencialmente, porque, como acabamos de ver, los que tienen representaciones adi­
tivas tienen también otras no aditivas). No vamos a exponer ninguno de estos sistemas.
La relación de comparación entre los objetos que exhiben una magnitud permite
por sí sola, al ser un orden débil, escalas meramente ordinales, pero ya hemos visto que
éstas apenas se pueden considerar genuinamente escalas cuantitativas (cf. cap. 4, §4). En
las métricas combinatorias, con la ayuda de una operación empírica de combinación con
ciertas propiedades es posible encontrar representaciones más fuertes, con un grado ma­
yor de unicidad. Eso no ocurre siempre que hay un procedimiento natural de combina­
ción. Algunas magnitudes llevan naturalmente asociado algún procedimiento de combi­
nación, pero éste no satisface ningún conjunto de condiciones que permitan probar la
existencia de una representación más fuerte que la meramente ordinal. Este es el caso, por
ejemplo, de la combinación de temperaturas mediante mezcla. Esta operación empírica
tiene algunas propiedades, p.ej. es intensiva en el sentido que hemos precisado (interna),
pero no se complementa con la satisfacción de otras propiedades que conjuntamente
constituyeran una métrica combinatoria interesante, e.e. con representación más fuerte
que la meramente ordinal. No se piense que ello ocurre con todo sistema combinatorio in­
tensivo, hay sistemas intensivos, como los sistemas de bisección (cf. Krantz e t a l ., 1971,
cap. 6, §6), con representaciones interesantes.

M étrica s de intervalos. En algunos sistemas empíricos, aun cuando la magnitud


no disponga de un procedimiento de combinación útil a efectos métricos, es posible sin
embargo establecer representaciones numéricas interesantes explotando otros hechos. El
caso más interesante, del que vamos a ver un ejemplo, es el que explota ciertos hechos re­
lativos a los pares de objetos que exhiben la magnitud. Hasta ahora sólo hemos mencio­
nado casos en los que los procedimientos empíricos de comparación comparan un objeto
con otro. Por ejemplo en la comparación de masas mediante una balanza. O la compara­
ción de temperaturas de líquidos: un líquido está tanto o más caliente que otro si al pasar
un tubo con mercurio del primero al segundo la columna de mercurio desciende o se que­
da igual. Pero también se pueden comparar p a res de objetos que expresen el intervalo o
diferencia de magnitud entre ellos. Por ejemplo, podemos comparar pares de líquidos del
siguiente modo: xyS zw syss el descenso de la columna de mercurio al pasar de x a y es
igual o menor que el descenso al pasar de z a w (con algunas complicaciones adicionales
si incluimos casos en que la columna asciende; intente el lector formularlo precisamente
para estos casos). O pares de bienes de consumo: xySzw syss la preferencia de x a cambio
de y es igual o mayor que la de z a cambio de w (también con algunas complicaciones
adicionales que aquí obviamos). En estos casos la relación cualitativa de comparación
compara, no las cantidades en las que los objetos tienen la magnitud, sino sus diferencias
o intervalos. Pues bien, si esa relación cualitativa de comparación entre pares de objetos
satisface determinadas condiciones, son posibles también representaciones interesantes,
MEDICIÓN EN LA CIENCIA 197

que por lo general son escalas de intervalos, esto es, únicas bajo transformaciones linea­
les. De nuevo, aquí no hay un único grupo de tales condiciones sino varios, cada uno con
su propia especificidad pero todos suficientes para garantizar la existencia de una repre­
sentación. Los sistemas ahora están constituidos por una relación comparativa sobre pares
de objetos del universo, esto es, S ordena débilmente A x A. Vamos a denominar a estos
sistemas m étricas de in terva lo s . Presentaremos aquí, a modo de ejemplo, el tipo más sen­
cillo de estos sistemas, las métricas de intervalos a lg eb ra ico s :

D efinición 6.2:

<A, S> es una m étrica de intervalos a lgebraicos syss


(1) S reflexiva, transitiva y conexa en A x A .
(2) Para todo x, y, z, w de A; si xyS zw , entonces w zSyx.
(3) Para todo x, x \ y, y ', z, z r de A: si x y S x 'y ' y y zS y 'z', entonces xzSx'z*.
(4) Para todo x, y, z, w de A: si xyS zw , entonces hay /, v tales que xtK zw K vy.
(5) Para todo x, y, z, w de A: si xyP zw , entonces hay una serie finita de n interva­
los (n e N ) t]t2, h h , ..., í„.]í„ equivalentes a zw y tales que t[tn Pxy.

(1) ya se ha explicado. (2) dice que el orden se invierte con los intervalos opuestos; esto
es lo que hace a estos intervalos a lg eb ra ico s , la diferencia en magnitud no sólo depende
de la “distancia” sino también, como en la temperatura, del “orden” de los objetos (otras
métricas de intervalos, las de intervalos a b so lu to s , se caracterizan por el hecho de que la
diferencia en magnitud es “absoluta”, no depende del orden de los extremos). (3) es el
análogo a la monotonía, el orden se preserva al “conectar” intervalos. (4) dice que es po­
sible “reproducir” un intervalo en otro mayor, esto es, encontrar interval s equivalentes al
pequeño empezando por cada extremo del grande. Por último, (5) es la versión para inter­
valos de la arquimedianidad: ningún intervalo es infinitamente mayor que otro, podemos
superar el mayor a partir del menor conectando un número finito de intervalos equivalen­
tes al menor.
De nuevo, algunos sistemas empíricos satisfacen estas condiciones y otros no. Las
satisfacen, por ejemplo, la temperatura y la utilidad. Cuando son satisfechas, existe enton­
ces una representación numérica única bajo transformaciones lineales; por tanto estos sis­
temas son representables mediante escalas de intervalos. Eso es lo que dice el siguiente
teorema:

Teorem a 6 .2 :

Si <A, S> es una m étrica de intervalos a lg eb ra ico s , entonces h a y /d e A en Re tal


que:
(1) Para todo x, y, z, w de A: xyS zw syss f[ x ) - f ( y ) > f{z) - f{ w ) .
(2) Para toda g que satisfaga (1) hay a e Re+ y b e Re tales que, para todo x de
A, g(x) = af(x) + b .
198 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Hay otras métricas de intervalos diferentes a las algebraicas con propiedades re-
presentacionales interesantes (entre ellas las de intervalos absolutos mencionadas más
arriba). No las vamos a exponer aquí. Concluiremos mencionando brevemente otros tipos
de métricas diferentes de las combinatorias y de las de intervalos.

M étrica s conjugadas. En estos Casos los sistemas empíricos “contienen” dos


magnitudes que, aunque son claramente distintas, se d a n co n ju n ta m en te , es decir, es la
acción conjunta de ambas la que se refleja en el procedimiento empírico de comparación
cualitativa. Un ejemplo paradigmático de magnitudes conjugadas lo constituyen la u tili­
d a d y el g ra d o de creencia (probabilidad subjetiva) cuando se comparan mediante juicios
de preferencia de una muestra de sujetos frente a un dominio de opciones. Se pide al suje­
to que diga si prefiere una opción a otra, o si le es indiferente. Así, por ejemplo, si tene­
mos que decidirnos por o bien comprar una entrada para un concierto al aire libre, que
nos interesa mucho, pero en un día nublado en el que puede llover, o bien una entrada
para una obra dramática en un local Gérrado, que nos interesa algo menos, nuestra deci­
sión resultará de una ponderación simultánea entre, por un lado, la mayor “utilidad” que
representa para nosotros el concierto frente a la obra dramática y, por otro, la mayor o
menor “probabilidad” (subjetiva) que asignemos a la creencia de que va a llover. Otro
ejemplo lo constituyen pares de valores (utilidades) económicos, como el va lo r m onetario
y el va lo r de uso. En este caso se pide al sujeto que diga si prefiere pagar determinada
cantidad x por el objeto y a pagar otra cantidad z por otro objeto w.
En estos ejemplos, como en todos los demás casos de sistemas conjugados, combi­
namos dos dominios distintos de objetos. En el primer caso, un dominio A constituido por
acciones (ir al concierto, ir al teatro, quedarse en casa, etc.) y un dominio B constituido
por acontecimientos (que llueva, que haga frío, que haga sol, etc.). En el segundo caso, un
dominio A de cantidades de dinero y otro dominio B de bienes de consumo. O por ejemplo,
en otro caso, un dominio de destinos vacacionales y otro de medios de transporte. En gene­
ral, pues, las métricas conjugadas se caracterizan por ser sistemas comparativos en los que
la relación de comparación S se establece entre dos pares de objetos de diferentes dominios
(a diferencia de las métricas de intervalos en las que los dos dominios son necesariam ente
el mismo): hay A, B tales que S ordena débilmente A x B. Por supuesto la condición de or­
den débil no basta para tener representaciones interesantes, y hay diferentes tipos de siste­
mas conjugados según cuáles sean los diferentes grupos de condiciones adicionales sufi­
cientes para la representación. Una de estas condiciones es la resolubilidad , que expresa la
idea de que cada componente es “proyectable” en el otro: dados un par ap de A x B y un ob­
jeto b de A, existe un objeto q de B tal que apK bq (y análogamente con el otro componente).
No vamos a detenernos aquí en esta ni en otras propiedades de los sistemas con­
jugados. Basta saber que cuando el sistema satisface determinado grupo de ellas, enton­
ces se pueden representar numéricamente las dos magnitudes involucradas, y lo esencial
de esta representación es que se hace para ambas “a la vez”. Esto es, el teorema de re­
presentación prueba que, si el sistema satisface ciertas condiciones, entonces hay /i de A
en Re y / 2 de B en Re tales que: a p K b q syss F ( f i ( a ) , f 2(p )) > F (f\{b), f 2(qj), donde F es
una operación matemática binaria específica, como la suma, o la resta, u otra más com-
MEDICION EN LA CIENCIA 199

plicada (p.ej. el producto del primero por el logaritmo del segundo). Las funciones f y f 2
son las escalas de cada magnitud, y la función F es la particular combinación matemáti­
ca que “sopesa” las dos magnitudes. Los sistemas más sencillos son aquellos en los que
F es la suma, a los que se denomina sistem a s co n ju g a d o s aditivos. Como en los casos
anteriores, también aquí se debe probar además un teorema TU que establece el grado
de unicidad de las escalas, en este caso de cada uno de los dos grupos de escalas.

M étrica s algebraico-conjam istas. Este último tipo de sistemas corresponde a los


que la literatura denomina ‘sistemas de probabilidad’ (cf. p.ej. Krantz e t a l , 1971, cap. 5).
Preferimos darles una denominación más genérica porque, en principio, ningún tipo de
métrica tiene por qué estar vinculado a un único tipo de interpretación empírica. Es una
cuestión empírica abierta si las condiciones que caracterizan estos sistemas son satisfe­
chas por magnitudes diferentes de la probabilidad (o de las probabilidades, si es que hay
varias magnitudes probabilistas). Este tipo de sistemas se caracterizan por el hecho de que
el dominio sobre el que se establece la relación cualitativa de comparación S es en este
caso un álgebra de conjuntos, esto es, una colección de conjuntos cerrada bajo el comple­
mento y la unión. En la interpretación probabilista, el universo A es un universo de suce­
sos, y la relación cualitativa S determina de entre la totalidad de los sucesos, mediante
procedimientos empíricos (p.ej. frecuencias, para la probabilidad objetiva; o juicios de su­
jetos, para la subjetiva), cuáles son “tanto o más probables” que otros. Cuando estos siste­
mas algebraico-conjuntistas satisfacen determinadas condiciones, se puede probar un teo­
rema TR que establece la existencia de una función numérica de A en [0,1] que cumple
los axiomas de Kolmogorov. En este caso (TU) la representación es única, cualesquiera
dos funciones tales son iguales. La escala es por tanto una escala absoluta, su tipo de
transformación es la función identidad.

4. M etrización derivada (*)

En la medición indirecta asignamos números, o mejor cantidades, a las cosas utili­


zando otras cantidades ya conocidas (medidas) con anterioridad y ciertas fórmulas que re­
lacionan las cantidades involucradas. Este tipo de medición, como la directa, también es
posible gracias a que se dan ciertas condiciones. La investigación de las condiciones que
hacen posible la medición directa corresponde a la metrización fundamental; la investiga­
ción de las condiciones que hacen posible la medición indirecta es tarea de la m etrización
d eriva d a . La metrización derivada tiene sin embargo un carácter completamente diferente
al de la metrización fundamental; no realiza una investigación empírica especifica pues su
tarea, o es meramente definicional, o es realizada ya por las teorías empíricas cuantitati­
vas usuales.
200 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

4 .1 . M etrización DERIVADA Y TEORÍAS CUANTITATIVAS

Lo que hace posible la medición indirecta es, por un lado, la existencia de medi­
ciones previas conocidas, tanto de la misma magnitud para otros objetos, como de otras
magnitudes para el mismo objeto; y, por otro, la existencia de ciertas fórmulas que expre­
san correlaciones entre los valores conocidos y el que se desea medir. El estudio de las
condiciones que hacen posible la medición indirecta se divide pues en a) el estudio de
las condiciones que hacen posible las mediciones previas que en ella se usan, y b ) el estu­
dio de las correlaciones con cuya ayuda se obtiene el valor buscado. El primero nos retro­
trae entonces a las condiciones de posibilidad de los procedimientos de medición con los
que hemos realizado las mediciones previas. Si son procedimientos de medición indirec­
tos, volvemos a empezar. Si son directos, el estudio de sus condiciones de posibilidad
exige otro tratamiento, el que hemos visto en la metrización fundamental. La tarea de la
metrización derivada se reduce pues al estudio y determinación de las correlaciones entre
magnitudes que se usan en el “cálculo” de una cantidad a partir de otras. Pero en la medi­
da en que esas correlaciones expresen hechos del m undo, se tratará simplemente de leyes
científicas investigadas y establecidas por las teorías científicas cuantitativas usuales. Así
es en la mayoría de los casos. Por ejemplo, en la medición de la masa de un cuerpo celes­
te a partir de la variación de trayectoria de un cohete de masa conocida, la correlación
cuantitativa consiste en una combinación de leyes dinámicas generales con la ley de gra­
vitación universal; las condiciones empíricas que hacen posible esa medición son pues
las estudiadas por la dinámica y expresadas por sus leyes. Análogamente ocurre con la
medición de una masa mediante un dinamómetro. O con la medición de distancias inacce­
sibles mediante triangulación, que involucra determinadas leyes de la geometría física.
Así pues, en la medida en que las correlaciones usadas en la medición indirecta
son del tipo indicado, su estudio no es tarea específica de cierta disciplina. El estudio y
establecimiento de dichas correlaciones, las leyes naturales, corresponde simplemente a
las diversas teorías empíricas cuantitativas. La metrización derivada es entonces una tarea
realizada (parcialmente) por las teorías usuales, no tiene contenido en tanto que disciplina
empírica específica diferente de las teorías cuantitativas usuales. Entiéndase bien, estas
teorías, obviamente, no estudian tales correlaciones empíricas con el f i n de establecer las
condiciones que hacen posible la medición indirecta; lo que ocurre es que en esa medi­
ción empleamos las leyes que de hecho han investigado y descubierto previamente las di­
versas teorías. No hay pues un estudio específico de las leyes en tanto que son aquello
que p o sib ilita la m edición indirecta', simplemente, en la medición indirecta se usa el he­
cho de que ciertas cosas se comportan de cierto modo, cosas y modos de los que se ocu­
pan las teorías empíricas usuales.
La matización contenida en el párrafo anterior es fundamental. La metrización de­
rivada es una tarea realizada de hecho por las teorías cuantitativas usuales, pero sólo p a r ­
cialm ente, esto es, sólo en la m edida en que las correlaciones usadas en las m ediciones
indirectas expresen leyes em píricas. Puede ocurrir que algunas de las correlaciones usa­
das para calcular el valor desconocido a partir de otros conocidos no expresen leyes natu­
rales en sentido estricto. ¿Qué expresan entonces? ¿Qué estatuto les corresponde a esas
MEDICION EN LA CIENCIA 201

correlaciones? El de definiciones. A veces las correlaciones usadas en la medición indi­


recta son definiciones mediante las que se introduce una nueva magnitud a partir de otras,
considerando entonces aquélla una magnitud derivada a partir de éstas, calificadas como
prim itivas en ese contexto (aunque alguna de ellas pueda haber sido introducida con ante­
rioridad como derivada a partir de sus propias primitivas). Concluiremos el examen de la
metrización derivada con algunas observaciones sobre este tipo de introducción de mag­
nitudes derivadas mediante definición; en algunos casos, sólo plantearemos la cuestión,
que dejaremos abierta.

4 .2 . M e t r iz a c ió n d e r iv a d a y d e f in ic io n e s

D efin icio n es que no p resu p o n en leyes. El tipo de definición más sencillo es


aquel que claramente no involucra ni presupone ninguna ley o hecho empírico, más allá
de la mera existencia de las magnitudes primitivas usadas. De éstos, los casos más sim­
ples son los que usan sólo una magnitud primitiva, como en la introducción de la superfi­
cie o del volumen a partir de la longitud (aunque están limitados a superficies y volúme­
nes regulares de formas específicas). Antes de continuar conviene dejar claro desde el
principio que el que la magnitud sea derivada no quiere decir que siempre que se mide in­
directamente se use como correlación su definición. Por ejemplo, hay mediciones indirec­
tas de volumen que usan su definición, en el caso de la medición del volumen de un cubo
a partir de la longitud de sus aristas; pero hay otras mediciones indirectas del volumen
que usan leyes físicas, como la medición del volumen de un cuerpo irregular a partir del
empuje sufrido en la inmersión en un fluido, o la del de un cuerpo celeste a partir de cier­
tos efectos dinámicos.
Los casos de magnitudes introducidas mediante definiciones que involucran una
única magnitud primitiva son muy escasos, por lo general la definición involucrará varias
magnitudes. El ejemplo paradigmático es el de la velo cid a d m edia. Esta magnitud, que es
una propiedad de los cuerpos en movimiento (o de los movimientos mismos, si se prefie­
re), se define como el cociente entre la longitud o distancia recorrida y la duración del
movimiento. Aquí, como en la definición de superficie, no hay ninguna ley física involu­
crada. Podemos definir después un movimiento como uniform e si, dividiendo idealmente
la duración en partes tan pequeñas como queramos, la velocidad media en cada parte es la
misma (e.e. si el cociente no depende de la duración). Es un hecho físico que cierto mo­
vimiento será uniforme o no lo será, pero la definición de la velocidad media no depende
de la existencia o no de movimientos uniformes. Por otro lado, nótese que el que en un
movimiento uniforme la velocidad media sea constante tampoco es una ley física, simple­
mente hemos definido así los movimientos que llamaremos uniformes; esto es obvio en
este caso, pero se ignora a veces en otros casos análogos (como en el caso de la densi­
dad). Prácticamente lo mismo se aplica a la a celeración m edia (con alguna complicación
adicional). O a la in ten sid a d m edia de co rrien te , que se define como el cociente entre
la cantidad de carga eléctrica que atraviesa la sección de un conductor y la duración del
proceso.
202 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

No todos estos casos involucran el tiempo. Un caso estrictamente análogo que no


lo involucra es el de la densidad definida a partir de la masa y el volumen. La d ensidad
(m edia), que es una magnitud de los cuerpos físicos (sólidos o no), se define como el co­
ciente entre la masa del cuerpo y su volumen. Podemos después lla m a r , esto es mediante
definición, h o m ogéneo a un cuerpo si la densidad de todas sus partes es la misma. Es un
hecho físico que unos cuerpos son homogéneos y otros no, pero no es una ley fís ic a que
“en los cuerpos homogéneos el cociente entre masa y volumen es independiente del volu­
men” (cf. Krantz et a l , 1971, p. 456, donde se afirma, erróneamente, lo contrario); esta
afirmación es verdadera exclusivamente en virtud de nuestras definiciones. No es verdad,
por tanto, que “la noción de densidad de un material es una medida derivada cuya exis­
tencia depende de la validez de una ley” (ibid .). Es importante no confundir este punto
para no complicar más de lo necesario la relación entre definición de magnitudes deriva­
das y hechos físicos.

D im ensiones. Hay muchas otras magnitudes introducidas de este modo: el m o ­


m ento linea l como producto de la masa por la velocidad, el trabajo como producto de la
fuerza por la distancia, y tantas otras. Cuando definimos una magnitud a partir de otras,
éstas confieren cierta dim ensión a la definida. En física, por ejemplo, hay seis magnitudes
básicas: masa (M ), longitud (L), tiempo-duración (2"), ángulo plano (A), temperatura abso­
luta (.R ) y carga eléctrica ( Q ). Las dimensiones de las magnitudes básicas (simbolizadas
entre paréntesis) son las dim ensiones básicas, y el resto de magnitudes tiene por dimen­
sión una combinación de ellas. Así, por ejemplo, el volumen tiene dimensiones V , la ve­
locidad L ]T~\ la intensidad Q}T~[, la densidad M lLr3, el trabajo M ]L 2T~2, la entropía
R~XM XL 2T 2, etc. El estudio de las relaciones entre las magnitudes y sus dimensiones es el
objeto de una disciplina específica, el A n á lisis D im ensional. Aunque determinar las di­
mensiones de cierta magnitud es en general sencillo, a veces hay problemas específicos
difíciles e interesantes relativos a la coherencia dimensional de las leyes y al papel de
ciertas constantes en las mismas. El análisis dimensional tiene también aplicaciones inte­
resantes en la resolución de algunos problemas empíricos. Por ejemplo, si se sabe que
cierta magnitud está vinculada legalmente a otras, pero se desconoce la forma matemática
específica de la relación, a partir de las dimensiones de las magnitudes involucradas es
posible determinar dicha forma específica (salvo por lo que se refiere a la posible presen­
cia de coeficientes numéricos puros adimensionales). No podemos exponer aquí, ni si­
quiera brevemente, los principales elementos de esta disciplina; el lector interesado puede
consultar con provecho Palacios, 1956 (cf. también, como texto pionero en el tema,
Bridgman, 1931).

Introducción sin elim inabilidad. Las anteriores consideraciones sobre las dimen­
siones de las magnitudes no deben llevar a conclusiones reduccionistas erróneas. Hemos
dicho que las definiciones confieren dimensiones a las magnitudes derivadas, y también
que toda magnitud tiene dimensiones que son combinación de las dimensiones básicas.
Pero eso no quiere decir que todas las magnitudes (p.ej. de la física), sean d efinibles como
magnitudes derivadas a partir de las consideradas básicas. Hemos calificado las seis mag­
MEDICIÓN EN LA CIENCIA 203

nitudes mencionadas de b á sica s , no hemos dicho que eran p rim itiva s justamente para no
sugerir que todas las demás son d efinidas a partir de ellas. Algunas lo son, pero no todas.
Por ejemplo, la fuerza, o la entropía, tienen también por dimensión cierta combinación de
las básicas, pero no son definibles a partir de ellas (ni de otras, cf. las observaciones
de los capítulos 8 y 10 sobre la no eliminabilidad de los términos teóricos). Las magni­
tudes no básicas y no definidas adquieren sus dimensiones a través de las leyes que las
vinculan con otras magnitudes y, aunque las leyes son coherentes con las dimensiones, no
son definiciones. Éste es uno de los temas de que se ocupa el análisis dimensional y que
no podemos tratar en detalle aquí.

Escalas. Las magnitudes introducidas a partir de otras se expresan en escalas que se


derivan o componen de las escalas básicas. El tipo de escala de la magnitud derivada depen­
derá del tipo de escala de las originales y del modo de derivación. Por ejemplo, es fácil pro­
bar que si las escalas de las magnitudes originales son proporcionales y, como en los ejem­
plos vistos, la derivación involucra sólo productos y cocientes de las magnitudes primitivas,
entonces la escala de la magnitud resultante también es proporcional (puede demostrarlo el
lector como ejercicio). Hemos visto que las escalas de la longitud son proporcionales (me­
tros, centímetros, etc.), ello hace que las escalas para el volumen (metros cúbicos, centíme­
tros cúbicos, etc.) también lo sean. Eso, unido a que las de la masa (kilogramos, gramos, etc.)
son también proporcionales, hace que las escalas para la densidad, en tanto que m agnitud de­
rivada, sean también escalas proporcionales. Éste es pues un caso en que una magnitud in­
tensiva es representable derivadam ente mediante escalas proporcionales .

Contrariamente a los ejemplos vistos hasta


D efin icio n es que p resu p o n en leyes.
ahora, a veces la introducción de una magnitud derivada mediante definición parece invo­
lucrar algún tipo de ley física. Se trata de leyes de proporcionalidad o de constancia del
tipo “el cociente entre tales cantidades y tales otras es constante”, e.e. m /m ' = K o, equiva­
lentemente, m = K m '. Pero no son realmente leyes de constancia absoluta pues la propor­
ción o constante depende del objeto, material o sustancia. Los siguientes son algunos
ejemplos.

“La dilatación de un metal es proporcional al incremento de temperatura, el factor


de proporción es el coeficiente de dilatación del metal.”
“El cociente entre la cantidad de calor suministrada y el producto de la masa por
el incremento de temperatura es constante para cada sustancia, es su calor especí­
fico.”
“En un hilo conductor, el cociente entre el producto de la intensidad por la sección
y el producto de la diferencia de potencial por la longitud es constante para cada
material (a una temperatura dada), es su conductividad eléctrica.”
“El cociente entre la fuerza externa incidente sobre un cuerpo y la aceleración que
adquiere es constante, es su masa inercial.”
“La elongación de un material elástico es proporcional a la fuerza, el factor de
proporcionalidad es el coeficiente de elasticidad del material.”
204 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

De modo análogo ocurre en los casos de los coeficientes de conductividad térmi­


ca, de conductividad calórica, de permisividad eléctrica del medio, de refractancia, de
compresibilidad, y otros. Estos coeficientes o factores de proporcionalidad no son cons­
tantes absolutas (como la de gravitación o la de Planck), dependen de las entidades invo­
lucradas y pueden tener diferentes valores. Son pues propiedades de los cuerpos que se
pueden dar en diferentes individuos en diversos grados, o incluso pueden variar para un
mismo individuo en momentos diferentes (pues algunas dependen, p.ej. de la temperatu­
ra). Esto es, son magnitudes. La cuestión es si se pueden o no considerar introducidas por
definición mediante estas leyes. La respuesta puede variar de unos casos a otros y depen­
de de la función que desempeñe la magnitud en otras leyes y teorías. Hay casos en los que
claramente no se puede considerar que las leyes definen la magnitud, como el de la masa
(al menos si ha de ser la misma que la gravitatoria). En otros casos claramente sí, como el
del índice de refracción de una sustancia, que es como convenimos en llamar al cociente
entre la velocidad de la luz en ella y en el vacío; quizá se pueden considerar igual, p.ej.,
las conductividades. En otros casos puede no estar tan claro. ¿Es la ley de Ohm, “diferen­
cia de potencial entre tres intensidad es igual a resistencia”, una definición de ‘resisten­
cia’ o una regularidad entre tres magnitudes independientemente determinadas? Como he­
mos dicho, la respuesta depende de la función de la resistencia en el resto de la disciplina.
Sea cual sea en cada caso la respuesta a esta cuestión, lo que debe quedar claro es
que en los casos en que es correcto considerar que la magnitud se define propiamente me­
diante una ley, ello no implica en absoluto un elemento de convencionalidad en la ley, re­
sultado que sería catastrófico para la empiricidad de la disciplina. Es cierto que la defini­
ción, y sus variantes, serán verdaderas por convención, en virtud del significado fijado;
pero no lo es que todo es convencional, pues la definición presupone una regularidad na­
tural verdadera o falsa no convencionalmente. Supongamos que la ley de Ohm, AVII ~ R,
no define la resistencia sino que es una correlación entre magnitudes determinadas inde­
pendientemente. No hay ningún riesgo, ni siquiera aparente, de convencionalidad. Pero
supongamos que no es así y que se debe considerar una definición, en sentido estricto, de
la resistencia. Es cierto entonces que la afirmación “la diferencia de potencial es igual al
producto de la intensidad por la resistencia” es convencionalmente verdadera en virtud de
nuestras reglas del significado. Pero eso no elimina el hecho de que la afirmación “el co­
ciente entre la diferencia de potencial y la intensidad es constante” sea una afirmación no
convencional , empírica y no analítica, verdadera o falsa (en este caso verdadera) en virtud
de cómo es el mundo físico, no en virtud del significado. Quizá algunas de las llamadas
leyes se pueden considerar definiciones, pero esas definiciones son posibles porque se
dan determinadas regularidades empíricas de constancia o proporcionalidad. Es una regu­
laridad empírica que cierto cociente de magnitudes es constante (para un material, objeto
o sustancia), y gracias a ello podemos después convenir en llam ar de cierto modo a ese
cociente.

Implicaciones ontológicas. Por último, ¿existen las magnitudes derivadas?, ¿están


en el mundo como propiedades que se ejemplifican en los objetos según un más y un me­
nos? ¿Son las definiciones de magnitudes meras abreviaturas notacionales? ¿Son por el
MEDICIÓN EN LA CIENCIA 205

contrario enunciados que expresan la reducción de una propiedad a otras? En principio pa­
recería que en un sentido inmediato sí existen, pero, sin necesidad de entrar en profundidad
en la cuestión ontológica, hay casos en los que tenderíamos a dar una respuesta negativa.
No podemos definir lo que queramos; o mejor, sí podemos, pero parece que no todo lo que
definamos tendrá sentido em pírico. Por ejemplo, podemos definir la m asura, S, de un cuer­
po como el producto de su masa m por su temperatura T, pero no parece que eso sea una
propiedad. El motivo es que de eso no hablan las leyes, éstas no incluyen un producto así.
Quizá este ejemplo no es el mejor. Hay una ley que afirma que la cantidad de calor sumi­
nistrada a un cuerpo es igual a su calor específico por su masa y por el incremento de tem­
peratura, Q = cem (T2 - Ti ); pero como eso es equivalente a Q = ce(m T2 - m T x), se podría re­
formular entonces diciendo que el calor suministrado es igual al producto del calor especí­
fico por el incremento de masuras, Q — ce(S2 - Si). ¿Existe entonces la masura, propiedad
de la que nadie había hablado hasta ahora? ¿Qué decir de la cantidad de m ovim iento (o
momento lineal) p, de la que hablaban los físicos antiguos, y que ahora se define como el
producto de la masa por la velocidad? Claramente hay leyes que “manejan” ese producto,
en las que parece que eso está operando. Si existe la cantidad de movimiento, ¿existe la
masura? Quizá sólo se pueden descartar las “combinaciones” no presentes en leyes. Por
ejemplo, el producto de la aceleración de un cuerpo por su volumen V no interviene (explí­
citamente) en ninguna ley. Pero ése es un criterio difuso, pues siempre es posible reformu­
lar artificialmente las leyes para que incluyan las combinaciones que queramos. Por ejem­
plo, si d es la densidad, podemos reescribir la ley F - m a como F = dVa, con lo cual la
fuerza resulta ser igual al producto de la densidad por esa cosa. Se pueden imponer cons­
tricciones adicionales, como que la ley sea simple, esto es, que no se pueda simplificar más.
Pero qué simplificaciones son posibles depende en parte de qué combinaciones se acepten
como magnitudes. Llamemos volución , C, al producto Va. Si la volución es una propiedad,
¿es más simple F = m a que F = d C l En el sentido en que lo es, también habría entonces ex­
presiones más simples de las leyes que se refieren al momento lineal. Podemos optar por
descargamos de todas, pero ¿no parece que, por ejemplo, el volumen o la velocidad son
efectivamente propiedades?
La respuesta a todas estas cuestiones ontológicas dependerá de cuál sea nuestra
teoría para individualizar o identificar propiedades, uno de los temas actualmente más de­
batidos en metafísica, y en el que no podemos entrar aquí. Con la presentación informal
de estas cuestiones concluimos el análisis de la metrización derivada y pasamos al de los
procedimientos de medición.

5. Procedim ientos de m edición directa (*)

En la medición directa asignamos un valor a un objeto sin disponer de otros valo­


res numéricos previos, d irectam ente a partir de la experiencia cualitativa. Ya advertimos
que esto se ha de entender en un sentido amplio, que incluya la medición por compara­
ción directa con un estándar. El estándar es el primer objeto al que se le asigna el valor
numérico y por comparación con él se asigna un valor a los demás. En este sentido, la
206 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

asignación a los demás supone el uso de una asignación previa, la del estándar. Ello es así
en sentido estricto, y poco interesante puesto que la asignación numérica del estándar es
arbitraria; en ese sentido estricto sólo habría medición directa para el estándar mismo. La
medición directa se debe entender por tanto en el sentido amplio indicado, que es el inte­
resante.

5 .1 . E je m p l o s d e p r o c e d im ie n t o s d e m e d ic ió n d ir e c t a

Ejemplos paradigmáticos de medición directa son la medición de masas mediante


una balanza, la de longitudes mediante varas y la de la temperatura (termométrica) me­
diante termómetros. Las asignaciones resultantes en los primeros casos son escalas pro­
porcionales, la del último es una escala de intervalos. El examen detenido de estos proce­
dimientos debe aclarar el sentido preciso en que la metrización fundamental está presu­
puesta en los procedimientos de medición directa. Veámoslo.
La medición directa de masas mediante una balanza procede, como el lector sabrá,
más o menos de la siguiente manera. Tenemos una serie de cuerpos de tamaño medio que
se comparan cualitativamente mediante una balanza del modo indicado en la sección 2,
cuerpos que podemos componer o combinar mediante agregación poniéndolos juntos en
el mismo plato de la balanza. Este orden cualitativo y esta operación de agregación se
comportan conjuntamente de cierto modo. Se elige un objeto cualquiera del dominio, por
ejemplo un determinado objeto que está ahora en cierto lugar de cierta sala de un museo
de París, y se le asigna un número real n arbitrario, p.ej. 1, o 1.000, 0,001 o el que se pre­
fiera (14, 137, V2, ti o lo que sea). Ese objeto es el estándar. Una vez asignado un valor
arbitrario al estándar, los demás objetos del dominio tienen determinada su asignación.
Los objetos equivalentes al estándar reciben el mismo número. Con los no equivalentes,
mayores o menores, se procede como sigue. Por ejemplo, si el objeto es equivalente a la
agregación de dos equivalentes al estándar, se le asigna 2n; si es equivalente a la agrega­
ción de tres equivalentes al estándar, 3n; y así sucesivamente. Si, en cambio, el objeto es
menor, se procede de la siguiente forma: si su agregación con otro equivalente a él
es equivalente al estándar, se le asigna n! 2; si su agregación con otros dos equivalentes es
equivalente al estándar, n! 3; y así sucesivamente.
Lo esencial de este procedimiento está, como habrá adivinado el lector, en el “y
así sucesivamente”. ¿Qué nos garantiza que podemos proceder así sucesivamente con to ­
dos los objetos de ese dominio específico? Aquí es donde entra la metrización fundamen­
tal. Ese “y así sucesivamente” es posible, queda garantizado, porque el comportamiento
de la relación comparativa y la agregación en ese sistema empírico cualitativo específico
satisfacen de hecho ciertas condiciones empíricas. Que esas condiciones son suficientes
para asegurar que mediante ese procedimiento podemos dar asignaciones a todos los ob­
jetos del dominio es lo que prueba TRU que, como vimos, establece además la relación
entre las diversas series de asignaciones posibles. En este caso, las diversas series o esca­
las dependerán del número n que se le asigne al estándar; para pasar de los valores asig­
nados por una escala / a los asignados por otra f multiplicamos los primeros por el co­
MEDICEÓN EN LA CIENCIA 207

cíente de los números asignados al estándar p o r / ' y / e.e. p o r n'in. P o r ejemplo, cierta es­
cala asigna al mencionado objeto de París el 1, otra el 1.000 y otra el 0,001. Para distin­
guir entre estas asignaciones ponemos al lado del signo numérico un signo arbitrario, p.ej.
‘kilogramo’ en el primer caso (escala MKS), ‘gramo’ en el segundo (escala cegesimal) y
‘tonelada’ en el tercero. Así, un objeto al que, por comparación con el estándar, la segun­
da escala le asigna 3.000, la tercera le asigna 0,003, esto es 3.000 x (0,001/1.000). Por su­
puesto que se podría elegir cualquier otro número para ese objeto, como 14, 137, V2, n
(escala “pitagórica”) o 6,023 x 1023 (escala “avogadriana”), y nada cambiaría. Bueno,
cambiarían desde luego los números asignados a los demás objetos, p e ro no el cociente
entre cualesquiera d o s de ellos, pues pasamos siempre de una escala a otra multiplicando
por cierto real. Y exactamente lo mismo daría coger como estándar cualquier otro objeto,
como el zapato que Kruchev exhibió en la ONU.
La medición directa de la longitud procede de un modo estrictamente análogo, y
lo mismo ocurre en general con toda magnitud qué satisfaga las condiciones de las métri­
cas combinatorias positivas extensivas. Con la temperatura, cuyos sistemas empíricos
cualitativos tienen propiedades diferentes, las cosas son un poco más complicadas. En
este caso no se selecciona un objeto arbitrario que hace de estándar sino dos, por ejemplo,
el agua cuando se congela y el agua cuando se hierve. A esos objetos se les asignan dos
números n, m arbitrarios, por ejemplo 0 al primero y 100 al segundo, o 0 y 1, o 32 y 212,
o los que sea. Lo que se elige no es pues una ejemplificación de la magnitud a la que se
da un valor arbitrario, sino dos ejemplificaciones, esto es, un intervalo o d iferencia de
magnitud, al que se le da un valor arbitrario, a saber, m - n (100 en el primer caso, 1 en el
segundo y 180 en el tercero). Para poder manipular ese intervalo se usa cierto instrumen­
to. En este caso es un tubo con mercurio en el que la diferencia en temperatura de las dos
ejemplificaciones se plasma en una diferencia entre las alturas del mercurio. Así, pode­
mos decir que los dos objetos elegidos son el mercurio cuando, tras sumergirlo en agua,
a ) está a la altura correspondiente al instante en el que el agua se congela, y b ) está a la al­
tura correspondiente al instante en el que el agua se evapora; a la primera altura le asigno
n y a la segunda m. De este modo, comparando intervalos o alturas, es posible asignar va­
lores a todos los demás objetos de ese dominio. Si la columna correspondiente a otro ob­
jeto está justo en la mitad de las dos columnas estándar, al nuevo objeto le asigno n + [(m
- n)i 2]; si está a la tercera parte, n + [(m - n)/3]; y así sucesivamente. Si supera el primer
estándar el doble de lo que el segundo estándar supera el primero, le asigno n + [2(m -
«)]; si supera el primero el triple de lo que el segundo supera el primero, n + [3(m - «)]; si
supera el primero una vez y media lo que el segundo estándar supera el primero, n +
[(3/2)(m - n)]; y así sucesivamente.
Como antes, el “así sucesivamente” es efectivamente posible p a ra to d o s los o b ­
je to s del d o m in io si el sistema cualitativo de comparación de intervalos cumple ciertas
condiciones empíricas, en este caso las de las métricas de intervalos algebraicos. El
modo más sencillo de hacer la asignación es dividir la distancia entre las alturas de los
estándares en m - n intervalos iguales y extender la división por arriba y por abajo. Los
límites de esos intervalos son los grados de temperatura. Las diversas series de asigna­
ciones o escalas dependerán de los números n , m que se asigne a los estándares. Si los
208 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

dos estándares son los mencionados, con n = 0 y m = 100, tenemos grados Celsius; si
con esos estándares n — 32 y m = 212, grados Fahrenheit; etc. Si la escala / l e s asigna n
y m , y la escala/' les asigna r í y tr í , es fácil ver que para pasar de los valores asignados
p o r / a los asignados por/ ' hay que multiplicar los primeros por (m' - rí)i{m - n) y su­
marles (m rí - n m ')l(m - n)\ por ejemplo, para pasar de grados Celsius a grados Fahren­
heit, multiplicamos por 9/5 y sumamos 32. Por supuesto que se podrían elegir cuales­
quiera otros números para ese par de objetos y nada cambiaría. Bueno, cambiarían des­
de luego los números asignados a los demás objetos, y también el cociente entre los va­
lores, p e ro no ca m b ia ría el cociente entre p a re s o d iferen cia s de v a lo re s , pues pasamos
siempre de una escala a otra multiplicando por cierto real y sumándole otro. Y exacta­
mente lo mismo daría coger como estándares cualquier otro par de objetos, como el
vino congelándose y comenzando a hervir.

5 .2 . F o r m a g e n e r a l d e l o s p r o c e d im ie n t o s d e m e d ic ió n d ir e c t a

Hemos dicho que en los casos examinados, y en cualquier otro caso de medición
directa, el procedimiento de asignación se puede completar para todos los objetos del do­
minio gracias a que los sistemas empíricos satisfacen ciertas condiciones cualitativas, al­
gún grupo de las estudiadas por la teoría de la metrización fundamental. Éste es el orden
de dependencia lógica de la medición directa respecto de la metrización fundamental.
Pero no se piense por ello que es también el orden de dependencia práctica o de realiza­
ción, esto es, que la medición directa no se realiza hasta que se ha determinado que el sis­
tema satisface tales condiciones. Esto tiene una lectura fuerte, en la que es falso, y otra
débil, en la que se puede considerar correcto. En la primera interpretación, fuerte, signifi­
ca que las mediciones directas no se pueden realizar, y por tanto no se realizan, hasta que
la investigación teórica desarrollada por TM establece los grupos de condiciones, los teo­
remas TRU con el tipo de transformación admisible, y comprueba que cierto sistema con­
creto satisface uno de esos grupos. Esto es claramente falso. Masa, longitud, temperatura
y otras magnitudes se medían directamente con este tipo de procedimientos mucho antes
de que se iniciara la investigación en metrización fundamental, que se remonta como mu­
cho a finales del siglo xix con Helmholtz. TM proporciona los fu n d a m e n to s de esos pro­
cedimientos, e.e. investiga sus condiciones de posibilidad. Se procedía así pero, en cierto
sentido, sin fu n d a m e n to , sin estar teóricamente bien fundamentada la diferencia entre es­
calas proporcionales, de intervalos, logarítmicas, etc., que generaban los procedimientos.
Ahora bien, es claro que se podía proceder de hecho así antes de esa investigación teórica
pues, obviamente, esos sistemas cumplían de hecho esas condiciones antes de que nadie
se pusiera a investigarlas y a probar teoremas de representación y unicidad a partir de
ellas. Ésta es la interpretación débil, correcta, de aquella afirmación.
La medición directa no es posible si no se cumplen ciertas condiciones; pero, si de
hecho se cumplen, la realización efectiva del procedimiento se puede considerar una de­
terminación implícita de que así es, pues el procedimiento “usa” tales propiedades. Esto
es así “antes” (e.e. independientemente) del desarrollo de TM, a no ser que se quiera con­
MEDICIÓN EN LA CIENCIA 209

siderar que la realización de los procedimientos constituye un adelanto, implícito y par­


cial, de TM. Es mejor no considerarlo así pero, una vez aclarado el punto importante, lo
demás es una cuestión terminológica. Esta aclaración tampoco debe hacer creer que TM
no es de ninguna ayuda para la práctica de la medición directa. TM fundamenta las prácti­
cas que ya existían con anterioridad, pero tam bién ayuda a establecer otras nuevas para
magnitudes para las que no existían procedimientos de medición directa con anterioridad.
Gran parte de la investigación actual en TM está vinculada al intento de dar con procedi­
mientos de medición directa para magnitudes, principalmente psicológicas y económicas,
tratadas hasta entonces de forma puramente cualitativa.
Para concluir, y a modo de resumen esquemático, representaremos formalmente la
forma general o estructura de los procedimientos de medición directa y haremos algunas
observaciones al respecto.
La representación formal de la estructura de estos procedimientos ha de expresar
los elementos o constituyentes que intervienen y el modo en que están relacionados. He­
mos visto que la representación cuantitativa directa de un sistema cualitativo es posible
porque éste satisface de hecho ciertas condiciones o leyes, que estudia y descubre TM.
Los procedimientos de medición directa deben estar pues parcialmente constituidos por
sistemas cualitativos que satisfacen algún grupo de condiciones de mensurabilidad, esto
es, por métricas. Pero ello es así sólo parcialmente, esto es, no están constituidos sólo por
estos sistemas pues éstos expresan sólo la mera posibilidad de medición, no la asignación
efectiva. En tanto que asignación efectiva, el procedimiento elige o destaca una de las
funciones-representaciones cuya existencia garantiza el (o mejor, uno de los) TRU de la
métrica. Para ello se destacan un número finito de objetos del dominio, los estándares del
procedimiento (si la métrica es combinatoria, uno, si es de intervalos, dos, etc,), y la mis­
ma cantidad de números reales, los valores arbitrariamente asignados a los estándares y
que determinan la función-representación / específica. Podemos representar entonces un
procedimiento de medición directa del siguiente modo:

PMD Un p ro ced im ien to de m edición directa de la magnitud asociada a S, relati­


vamente a los estándares a , ..., ak, es una estructura del tipo
<A, 5,..., a i , ..., ah n u ..., nk,f> tal que:
(1) <4, S y ...> es una métrica, e.e. un tipo de estructura caracterizado por TM.
(2) a¡ e A y n¡ e Re (1 < / < k ).
(3) Cierto TRU específico es verdadero para/respecto de <A, S, ...>.
(4) f(a¡) = n , ( \ < i < k ) .

La condición (1) expresa que un constituyente del procedimiento es un sistema cua­


litativo que satisface condiciones apropiadas de mensurabilidad. (2) indica que hay tantos
estándares como números destacados. (3) requiere especial atención. Por ser <A, S, ...> una
métrica tendrá algún teorema TRU asociado. Pero vimos que no sólo tiene uno sino mu­
chos, p.ej. en el caso de las métricas combinatorias extensivas positivas había un teorema
TRU que establecía la existencia de representaciones aditivas y su grado de unicidad, y
otro análogo para representaciones m ultiplicativas ; y hay muchos otros que no menciona­
210 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

mos. Dijimos entonces que nada en el sistem a cualitativo obliga a elegir un tipo de repre­
sentación frente a otro, que eso es una elección arbitraria que se realiza en los procedimien­
tos de medición directa. (3) expresa este hecho. Al decir que d e /e s verdadero, entre los va­
rios posibles, un teorema TRU específico , se está expresando el hecho de que cada procedi­
miento determ ina convencionalm ente un único tipo de representación de entre los diversos
posibles (aditivas, multiplicativas, etc.). (3) determina por tanto el tipo de representación,
ahora bien, no la función/concreta. Aun satisfaciéndose (3),/puede ser todavía una de va­
rias funciones posibles, aunque, eso sí, todas del mismo tipo (una de entre las aditivas, o
una de entre las multiplicativas, etc.), y el procedimiento debe elegir una de ellas. Eso es lo
que expresa (4): de entre todas las funciones del mismo tipo (que cumplen (3)), el procedi­
miento elige arbitrariamente aquella que asigna ciertos números a los estándares. Una vez
se ha asignado arbitrariamente un número a cada estándar, entonces el valor de la asigna­
ción para los otros objetos de A queda determinado, esto es, queda determinada una asig­
nación /específica, la escala a que da lugar el procedimiento.
Esta caracterización resume los elementos esenciales, y sus relaciones, de todo
procedimiento de medición directa; el lector puede aplicar el esquema a los casos para­
digmáticos de la masa y la temperatura esbozados más arriba. Nótese que la medición di­
recta contiene dos elementos de arbitrariedad o convencionalidad: qué tipo de representa­
ción elegimos (3), y qué valores elegimos para los estándares (4). Los ejemplos vistos
mostraban explícitamente sólo el segundo, pero contenían también im plícitam ente el pri­
mero, más fundamental como veremos en las consideraciones finales.
Además de la noción de p ro ced im ien to de m edición d irecta , es conveniente dispo­
ner de otra más general, la de m étodo de m edición directa. Los procedimientos de medi­
ción que hemos caracterizado son específicos o sin g u la res , cada procedimiento es un caso
concreto de asignación. Un procedimiento con ciertos objetos específicos de tamaño me­
dio comparados mediante una balanza, combinación por agregación, ciertos estándares,
etc., es un PMD; otro con otros objetos también comparados mediante una balanza, agre­
gados, etc., es o tro PMD; y lo mismo otro con varas rígidas, comparación por superposi­
ción, combinación lineal, etc. Sin embargo, aunque los tres mencionados son procedi­
mientos particulares diferentes, los dos primeros comparten algo que no comparte el ter­
cero. En un sentido más general de ‘procedimiento’, los dos primeros usan el mismo pro­
cedimiento, diferente al del tercero; en tanto que p ro ced im ien to s p a rticu la res son casos
de un mismo p ro ced im ien to general. Llamaremos ‘métodos5 a estos procedimientos ge­
nerales. Un método de medición directa (MMD) es entonces simplemente un conjunto
de procedimientos de medición directa que comparten algo, vinculados o relacionados de
cierto modo. Puesto que los métodos de medición son prácticas operacionales, diremos
que lo que hace que dos procedimientos correspondan al mismo método es que estén en
cierta relación de equivalencia operacional. En función de qué incluya dicha relación, de
qué sea lo que consideremos que deben compartir, tendremos una noción más o menos
estrecha de MMD.
Intuitivamente, lo mínimo que han de compartir dos procedimientos para corres­
ponder al mismo método ha de ser el modo de comparación. Debemos exigir esto si que­
remos distinguir los dos primeros ejemplos del tercero. También debemos exigir que
MEDICIÓN EN LA CIENCIA 211

compartan las otras operaciones o demás elementos constituyentes de las métricas, para
distinguir p.ej. los métodos para resistencias mediante combinación en serie y en paralelo.
Ahora bien, han de compartir estas cosas intensionalm eníe, esto es, han de compartir el
procedimiento de comparación, el de combinación, etc., intensionalmente considerados,
la “idea” de los mismos. Exigir que los compartan (sólo) extensionalmente sería en parte
demasiado y en parte demasiado poco. Sería demasiado, pues entonces dos PMD del mis­
mo método deberían tener siempre los mismos individuos en el dominio, y eso da una no­
ción de método demasiado estrecha; no queremos excluir que los dos primeros ejemplos
sean del mismo método sólo porque se distingan en algunos objetos. Y sería a la vez de­
masiado poco, pues dos PMD intuitivamente diferentes podrían coincidir. Por ejemplo,
para un determinado conjunto de varas rígidas de igual sección y material (homogéneo),
los órdenes extensionales establecidos mediante una balanza y mediante superposición
coinciden, y la combinación lineal es una forma de agregación, pero no por eso queremos
decir que son el mismo método.
Esto por lo que respecta a las exigencias relativas a los constituyentes de la métri­
ca. Estas exigencias son las mínimas, y según ellas, los dos primeros ejemplos correspon­
den al mismo método. Pero se pueden hacer otras exigencias más fuertes, según alguna de
las cuales esos dos procedimientos dejen de corresponder al mismo método. Se puede
exigir a) que/satisfaga el mismo TRU, o b) que los estándares sean los mismos, o c) que
además se les asigne los mismos valores. Así se obtienen diferentes nociones más fuertes
que la acepción mínima. La elección depende de qué consideramos que es esencial a los
métodos. Si sólo los aspectos cualitativos, exigiremos lo mínimo; si también el tipo de re­
presentación, exigiremos además a)\ si además los estándares elegidos, incluiremos b ); y
si incluso se considera esencial los números asignados, también exigiremos c). Lo único
claro es que estas exigencias deben ser acumulativas. No tiene mucho sentido exigir que
los valores de los estándares sean los mismos si el tipo de representación (aditiva, multi­
plicativa, etc.) es diferente. Un conservadurismo metodológico general hace quizá preferi­
ble la exigencia mínima. Además, es ella la que está especialmente vinculada con la idea
de magnitud, pues diferentes procedimientos de medición de un mismo método deben
medir la misma magnitud (aunque quizá pudiera haber en algunos casos métodos, en este
sentido mínimo, diferentes y que midieran directamente la misma magnitud). Sin embar­
go, aunque en general sea preferible la noción mínima, para ciertos fines puede ser útil al­
guna de las otras nociones más fuertes. Nótese que la última es extremadamente fuerte
pues acaba identificando métodos con escalas, las mediciones directas de la masa en gra­
mos y en kilos serían métodos diferentes. Eso parece excesivo, pero quizá haya un senti­
do de ‘método’ en que es así; si lo hay, esta caracterización hace preciso cuál es. En las
consideraciones finales volveremos sobre estas cuestiones.

6. Procedim ientos de m edición indirecta (*)

En la medición directa hemos visto que, una vez fijado arbitrariamente el tipo de
representación y los valores para los estándares, los valores para los demás objetos que-
212 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

dan unívocamente determinados. Para el análisis general de la medición es fundamental


insistir en un hecho crucial, aunque obvio, a saber, que en la medición directa sólo que­
dan determinados los valores de los objetos del dom inio d el sistem a , de los que entran en
la relación empírica cualitativa de comparación del sistema; o si se quiere, puesto que
para una misma magnitud puede haber varios sistemas cualitativos con diferentes domi­
nios, sólo queda determinado el valor de los objetos que están en el dominio de alguno de
esos sistemas comparativos. Ahora bien, es claro que no todos los objetos que exhiben
una magnitud pueden pertenecer al dominio de algún sistema de comparación cualitativa;
por tanto, como avanzamos al comienzo del capítulo, no todos los objetos que exhiben la
magnitud se pueden medir directamente por comparación cualitativa con un estándar.
Aquí es donde entra la medición indirecta.
En la medición indirecta asignamos cantidades a los objetos utilizando otras canti­
dades ya conocidas con anterioridad (mediante medición directa o indirecta) y ciertas fór­
mulas que relacionan las cantidades involucradas. Ahora vamos a ver sólo los casos de
medición indirecta en los que las fórmulas que correlacionan los valores expresan leyes
naturales, no definiciones de una magnitud introducida a partir de otras. Sobre este segun­
do tipo de casos ya nos extendimos en la sección dedicada a la metrización derivada; los
elementos estructurales de los procedimientos de medición indirecta para estos casos se
puede colegir fácilmente de lo dicho entonces.
La idea central para la caracterización de los procedimientos y métodos de medi­
ción indirecta (mediante leyes) es sencilla. Como en la medición indirecta obtenemos el
valor deseado mediante otros valores ya conocidos y relacionados con el ignorado de
cierto modo, este modo en que están vinculados los valores conocidos y el desconocido
es lo que caracteriza el método de medición. Los procedimientos serán casos o aplicacio­
nes concretas de esos métodos: una medición indirecta concreta, un p ro ced im ien to de m e ­
dición indirecta , utiliza cierto modo de obtener el valor desconocido a partir de los cono­
cidos, modo en el que puede coincidir con otras mediciones concretas conformando así
un procedimiento general, un m étodo de m edición indirecta. Por ejemplo, los diferentes
casos concretos de medición de distancia mediante triangulación, independientemente de
los diferentes datos que se manejen en cada caso, coinciden en que obtienen la distancia
desconocida entre dos puntos con la ayuda de un tercer punto, con las nuevas distancias y
ángulo conocidos, y de cierta ley geométrica que relaciona todos estos valores y que pro­
porciona, por tanto, el modo de obtener mediante cálculo el valor deseado a partir de los
otros ya conocidos. Lo mismo ocurre con las diferentes mediciones de la masa de cuerpos
celestes mediante desviación de la trayectoria de un proyectil controlado. O con las me­
diciones de la masa de cuerpos de tamaño medio mediante un dinamómetro. Y análoga­
mente en los restantes casos de medición indirecta.
Si ésta es la idea intuitiva, la caracterización formal de los procedimientos y métodos
de medición indirecta es sencilla. ¿Qué entidades van a representar los procedimientos con­
cretos de medición indirecta? La respuesta está implícita en la caracterización intuitiva. Lo
que hace a esos sistemas apropiados a fines de medición es que “contienen” cierto vínculo
entre el valor a medir y otros valores ya conocidos. Puesto que no nos ocupamos ahora de re­
laciones definicionales, ese vínculo es un hecho físico , una relación real entre los diferentes
MEDICIÓN EN LA CIENCIA 213

valores involucrados, esto es, una ley de la naturaleza. El mejor modo de representar estos
sistemas, de acuerdo con el enfoque semántico que veremos en el capítulo 10, es en términos
de modelos. De momento nos basta una noción intuitiva de modelo de una teoría T como
aquellos sistemas reales, formados por objetos y propiedades estudiados por X, en los que ri­
gen las leyes de T (p.ej., en la mecánica, el sistema solar, o el sistema Tierra-Luna, o un
cohete acercándose a la Luna, o un cuerpo suspendido de un muelle, etc.). Así, puesto que
los modelos de las teorías cuantitativas contienen o expresan las leyes de la naturaleza usadas
en los procedimientos de medición indirecta, estos procedimientos se pueden identificar por
tanto con modelos de cierta teoría que satisfacen ciertas constricciones adicionales.
No vamos a ver aquí en detalle las constricciones adicionales que han de cumplir
los modelos de una teoría T para ser modelos de medición indirecta. En general, las cons­
tricciones se expresarán mediante cierta fórmula p que deberán satisfacer los modelos de T
y que permite determinar (con cierto grado de unicidad) el valor desconocido. La caracteri­
zación es en realidad un poco más complicada puesto que es posible que en la medición del
valor buscado se usen leyes que no son estrictamente leyes de T (sólo de X), sino le­
yes-puente entre T y otras teorías; esto es, es posible que en la medición entren indirecta­
mente en juego modelos de otras teorías. A veces se puede reducir el caso complejo a una
combinación de casos simples cada uno de los cuales involucra sólo modelos de una teoría,
pero la existencia de leyes-puente genuinas hace que no siempre se pueda proceder así (cf. la
noción estructuralista de vínculo interteórico introducida en la sección 5 del capítulo 10).
Ignoraremos provisionalmente estas complicaciones adicionales y presentamos la
caracterización general de procedimiento de medición indirecta sólo para los casos más
simples, esto es, relativizada a una única teoría T. Así simplificada, la caracterización es,
en líneas generales, la siguiente.
Un procedimiento de medición indirecta determina el valor de una magnitud M
para un objeto a, M {a ), usando valores conocidos de otras magnitudes Mi, M„ para a, o
de M y Mi, ..., M„ para o tro s objetos a u ..., ak (o ambas cosas a la vez). En el caso más
sencillo, en el que se usa una ley de una teoría, el procedimiento es un modelo de la teo­
ría, que contiene entre sus funciones M y Mi, ..., M,„ y que es ampliado de cierto modo
mediante valores destacados. Así, si los modelos de T son del tipo <D, R u ..., Rm>, los
procedimientos de medición indirecta se pueden representar del siguiente modo:

PMI Un p ro ced im ien to de m edición indirecta , relativamente a T, de M (a ) me­


diante M ...... M„, a \ , a k, es una estructura del tipo
<D , f l i,..., R„„ a, a u ..., ak > ( m > n) tal que:
(1) <D, R u R,„> es un modelo de (al menos algunas leyes de) T.
(2) a, a ..... . a k son objetos de D.
(3) M, M ¡,..., M n se encuentran entre R m.
(4) M {a i), ..., M (a k,), M,(n), M i(<2 ,)..., M \(ak) , ..., M n{ a \ M„(a,)..., M„(ak)
determinan unívocamente M (a) en <D, R i ..... R m>.

Un procedimiento de medición indirecta es pues un modelo de cierta teoría, un


sistema que satisface determinadas leyes de la teoría, ampliado con ciertos valores desta­
214 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

cados que determinan el valor a medir; estos valores pueden ser, tanto de la misma mag­
nitud para otros objetos, como de otras magnitudes para el objeto en cuestión además de
para esos otros objetos. En realidad, en la determinación de M {a ) no intervendrán todos
los valores de todas las magnitudes destacadas para todos los objetos destacados, pero ex­
presarlo así de modo preciso supone una complejidad notacional adicional considerable.
Por ejemplo, en la medición indirecta de la masa de la Luna (/) mediante su acción mecá­
nica sobre un cohete (c) enviado a sus proximidades, el valor a medir m (l) se obtiene a
partir de la masa conocida del cohete m(c) y de las trayectorias conocidas de la Luna y del
cohete, esto es, de los valores para ambos objetos de la función posición s durante cierto
intervalo de tiempo h - íi. A partir de m (c) y de los valores s¡(l) y s,{c) (las trayectorias de
ambos objetos durante t2 - q) se puede obtener m (l) suponiendo que el sistema Lu­
na-cohete satisface ciertas leyes mecánicas, al menos los principios de Newton y la ley de
gravitación universal, esto es, que el sistema es modelo de (al menos algunas leyes de) la
mecánica clásica.
Este es pues el esquema general de los procedimientos de medición indirecta. Así
dice muy poco, y el análisis es filosóficamente interesante cuando se desarrollan sus deta­
lles, pero no podemos hacerlo aquí (un análisis detallado en esta línea puede encontrarse
en Balzer, 1985). Concluiremos con tres comentarios adicionales.
En primer lugar, el análisis de la medición indirecta hace explícito el sentido prin­
cipal en que los datos empíricos están cargados de teoría. Puesto que la medición indirec­
ta no sólo es la más común en la ciencia, sino la única en procedimientos sofisticados de
contrastación que involucran predicciones cuantitativas, los datos de estas contrastaciones
dependen esencialmente de la validez de las leyes que se usan para su determinación.
Pero veremos más adelante que, aunque a veces se ha sostenido lo contrario, esta carga
teórica de los datos no socava la legitimidad empírica de las teorías. Sobre esta cuestión
nos extenderemos en los capítulos 8, 9, 10 y 12.
En segundo lugar, desaparece ahora cierta extrañeza que podía haber suscitado
el análisis de la medición directa. El lector atento habrá advertido entonces que la medi­
ción directa sólo genera fracciones de los valores asignados a los estándares. Eso no
quiere decir que sólo genere como valores número racionales, pues los valores asigna­
dos a los estándares pueden ser irracionales. Pero sí que, si a los estándares se les asigna
racionales, o enteros como de hecho se hace en las escalas usuales, la medición directa
sólo generaría valores racionales. Y sin embargo, aun usando en la práctica científica
valores enteros para los estándares, la ciencia maneja usualmente valores irracionales.
Nada hay de extraño en ello pues la medición directa es sólo uno de los modos de reali­
zar asignaciones. Aunque ella genere sólo valores racionales, a través de la medición in­
directa obtenemos valores irracionales por efecto de las relaciones cuantitativas conteni­
das en las leyes (cf. Hempel, 1952).
Por último, mencionaremos un fenómeno común en la medición que, aunque no
suele tener consecuencias prácticas importantes, es conceptualmente interesante. Se trata
de lo que a veces se ha llamado fa llo s sistem áticos (cf. p.ej. Balzer, op. cií., cap. 5). Este
fenómeno consiste, descrito en general, en que algunas veces los procedimientos para me­
dir la magnitud de un objeto modifican dicha magnitud. Por ejemplo, al medir mediante
MEDICIÓN EN LA CIENCIA 215

un dinamómetro la fuerza de atracción gravitatoria de un objeto a una distancia d del cen­


tro de la Tierra, el valor finalmente obtenido en el punto de equilibrio no es el correspon­
diente a esa magnitud para la distancia d sino para otra distancia d menor (debido a la
elongación del muelle), siendo ambos valores diferentes. O al medir la temperatura de un
líquido mediante un termómetro el valor obtenido no es la temperatura antes de introducir
el termómetro sino después, una vez se han equilibrado la temperatura del líquido y la del
term óm etro ; ambos valores pueden no coincidir, de hecho no coinciden salvo que el ter­
mómetro estuviera ya a la temperatura del líquido. Como hemos indicado, las consecuen­
cias prácticas de este fenómeno son casi siempre (pero sólo casi siempre) despreciables,
pues ambos valores apenas difieren, Pero aunque a la mayoría de efectos prácticos se pue­
dan identificar, eso no elimina el hecho de que son valores diferentes. Se trata pues de f a ­
llos de m edición, en el sentido de que el valor medido no coincide con el realmente bus­
cado. Pero son también fallos sistem áticos, esto es, responden a una regularidad natural y
son por tanto corregibles. Haciendo la medición un poco más larga, siempre podemos ir
de los valores obtenidos a los realmente buscados mediante leyes físicas adicionales.

7. Consideraciones finales

1. A lo largo de este capítulo nos hemos ocupado de la medición como represen­


tación cuantitativa de magnitudes, propiedades que las cosas ejemplifican según un más y
un menos. Pero en la ciencia parece haber otra clase de d eterm inación num érica. Se trata
de la “medición” de las constantes universales. Antes que nada conviene aclarar lo que las
constantes universales no son. No son valores de ciertas magnitudes destacadas para cier­
tos objetos destacados. Contrariamente a lo que a veces se sugiere (cf. Krantz et a i , 1971,
tabla de la página 457), valores como la masa de la Tierra, la masa o la carga del electrón,
etc., no son constantes universales. Obviamente lo son en un sentido trivial, la masa del
electrón es constante, la masa de la Tierra es (más o menos) constante; pero en ese senti­
do la masa de la corona de la reina de Inglaterra también es una constante universal, pues
también es (más o menos) constante. Las verdaderas constantes universales, como la gra-
vitacional (G = 6,67 x 10-8 cm3/gr ■s2), la de los gases (R = 8,3143 x 107 erg/mol-gr - °K)
o la de Planck (h = 6,626 x 10"27 erg *s ), no son de este tipo. Estas constantes son valores
numéricos que intervienen en ciertas leyes naturales pero, a diferencia de otras mal llama­
das también constantes que vimos en la sección 4 (coeficientes de dilatación, conductan­
cias, etc.), no dependen de ningún cuerpo o material. No son pues valores que correspon­
dan a ninguna m a g n itu d y por tanto, aunque se determina su valor numérico, no se m iden
en el sentido estricto del término. Es cierto que tienen dimensiones, y por ello, en función
de qué escalas usemos para las magnitudes de las dimensiones, el coeficiente numérico de
estas constantes puede variar (p.ej. h = 6,626 x 10-34 joul-s; por supuesto que eso no las
hace menos constantes ni menos universales). Pero esas dimensiones no corresponden a
ninguna magnitud, son simplemente producto de exigir la coherencia dimensional a las
leyes en que aparecen.
2. Hemos dicho que la medición indirecta “completa” a la directa asignando va­
216 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

lores a objetos que exhiben la magnitud pero a los que no se les puede asignar valores
mediante comparación directa con estándares. Ahora bien, esta afirmación supone un he­
cho adicional no explicitado hasta el momento, a saber, que “lo” medido indirectamente,
mediante las leyes, es lo mismo que “lo” medido directamente a partir de sistemas pura­
mente cualitativos. Brevemente: ¿por qué lo medido directamente mediante una balanza
es la masa, es esa cosa de la que habla la Mecánica Clásica? Análogamente con la tem­
peratura. Desde luego que en la medición directa medimos alguna magnitud, pero ¿por
qué es la misma magnitud que aparece como función numérica en los modelos de cierta
teoría cuantitativa? Eso indica que nuestro análisis de la medición directa es incompleto.
Hemos caracterizado los procedimientos y métodos de medición directa en general, pero
no los procedimientos y métodos de “medición directa de la m a g n itu d M ”. Para ello es
necesario hacer explícito el vínculo entre ciertos procedimientos de medición directa y la
teoría cuantitativa que incluye la función métrica M. El vínculo consiste, básicamente, en
que el sistema cualitativo que constituye el procedimiento de medición directa satisface
las leyes de esa teoría, es uno de sus modelos. Intuitivamente: lo que medimos con la ba­
lanza es la masa de la Mecánica porque la balanza satisface las leyes mecánicas, es un
modelo de esa teoría. La cosa no es tan simple pues los modelos de la teoría son cuantita­
tivos y los sistemas comparativos de los PMD son cualitativos. Expresar que el PMD sa­
tisface las leyes de la teoría requiere algunas complicaciones que no podemos discutir
aquí (cf. Diez, 1994a), pero la idea es exigir determinados requisitos de coherencia entre
los órdenes cualitativos y los valores numéricos que tienen los objetos del dominio de
comparación en los modelos cuantitativos de la teoría en cuestión. En el capítulo 10 (§5)
veremos que éste es el motivo por el que la masa, a pesar de poder medirse mediante pro­
cedimientos de medición directos, debe considerarse lo que allí llamaremos “mecáni­
co-dependiente”, esto es, la masa es tal que su determinación o medición presupone siem­
pre la aplicación de alguna ley de la mecánica.
3. Por último, y después de este largo recorrido, ¿qué hay de la ontología de las
magnitudes? ¿Son meras propiedades relaciónales con condiciones específicas que permi­
ten hablar de ellas cuantitativamente? ¿O existen efectivamente “las cantidades”? Aunque
la cuestión es muy compleja y requiere una discusión detenida, tendemos a considerar
que la posición más natural es la primera. Nada en todo este recorrido parece requerir la
existencia objetiva de esas entidades cuantitativas; podemos dar cuenta de todo lo refe­
rente a la medición partiendo exclusivamente de propiedades relaciónales cualitativas.
Esta tesis se ve reforzada por el elemento de arbitrariedad contenido en la cláusula (3) del
esquema PMD, a saber, nada hay en el mundo que exija elegir entre diferentes tipos de
representación cuantitativa (aditiva, multiplicativa, etc.), eso sólo depende de nuestras
prácticas convencionales. Si reescribiéramos toda la física con, por ejemplo, representa­
ciones multiplicativas de las métricas combinatorias (masa, longitud, duración, etc.) la
forma cuantitativa de todas las leyes físicas cambiaría, pero el “contenido” sería el mis­
mo. La interpretación más natural de ello es que ese contenido, lo que se dice realmente
del mundo, es puramente cualitativo. Dicho esto, por supuesto, no hay ningún reparo en
llamar cuantitativas a esas relaciones que satisfacen las condiciones empíricas suficientes
para dejarse representar numéricamente. La cuestión permanece la misma: desde esta
MEDICIÓN EN LA CIENCIA 217

perspectiva “relacionar*, las relaciones de comparación son lo básico y las “cantidades”


lo derivado. El partidario de la perspectiva no relacional ve las cosas al revés, lo básico
son las cantidades, y ellas explican que se den ciertas relaciones de comparación. Nuestra
posición es que la primera postura es metafísicamente más conservadora y que nada exige
optar por la segunda. Por tanto, el conservadurismo ontológico general deseable en filoso­
fía hace preferible la perspectiva relacional.
C a p ít u l o 7

LA EXPLICACIÓN CIENTÍFICA

1. Explicación y explicación científica

En el capítulo 3, donde estudiamos la metodología de la contrastación de hipóte­


sis, vimos en los diferentes episodios históricos que las hipótesis sometidas a contrasta­
ción se introducían siempre para d a r cuenta de determinados hechos; por ejemplo, un ex­
tremado crecimiento de mortandad infantil en una división de un hospital, una determina­
da distribución y forma de las placas de la corteza terrestre, el movimiento aparente de los
astros, etc. Este “dar cuenta” es lo que en contextos metacientíficos queremos significar
con el término ‘explicar’. La ciencia, como se dice usualmente, no sólo describe sino que
también exp lica , no se preocupa sólo del q u é sino también del p o rq u é .
Esta dimensión explicativa, sin embargo, no es exclusiva de la ciencia. Gran parte
de nuestro conocimiento del mundo es explicativo y la ciencia es simplemente el lugar
donde dicho conocimiento encuentra su máxima expresión. Considerar el carácter expli­
cativo como algo específico del conocimiento científico convertiría en científicas afirma­
ciones que usualmente no tomamos por tales, p.ej. “el auto se salió de la carretera porque
había hielo en la calzada” o “Juan no vino a la fiesta porque se confundió de día”. Esta
cuestión es en parte sólo nominal, pues hay un continuo entre el conocimiento ordinario y
el científico; podría considerarse que las explicaciones ordinarias corresponden a determi­
nadas p roto cien cia s, en los ejemplos mencionados, a cierta p ro to física la primera, o a
cierta p ro to p sico lo g ía la segunda. El límite es difuso, y hasta cierto punto arbitrario, pero
todos reconocemos casos claros en que no calificamos una explicación de científica y ca­
sos claros en que sí. En este sentido mínimo de la distinción, el carácter explicativo no es
exclusivo de la ciencia, también proporcionamos explicaciones en contextos ordinarios
no científicos. Por otro lado, no sólo el carácter explicativo no es exclusivo de la ciencia,
sino que tampoco es propio de toda ella. Ni sólo la ciencia es explicativa, ni toda la cien­
cia lo es. Ciertas disciplinas científicas, o partes de ellas, no son explicativas, al menos no
lo son p rim a fa c ie . Ello es así típicamente en las disciplinas clasificatorias, por ejemplo
en las taxonomías zoológicas o botánicas, aunque es cierto que las taxonomías se pueden
integrar posteriormente en corpus disciplinarios más amplios que sí son explicativos.
220 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

En estas consideraciones sobre la naturaleza explicativa de la actividad científica


estamos entendiendo el término ‘explicar’ en un sentido específico. Las palabras castella­
nas ‘explicar’ y ‘explicación’ son parcialmente polisémicas y no todas sus acepciones tie­
nen que ver con la noción de explicación que aquí nos interesa. Estas expresiones unas
veces significan simplemente la narración de cierto suceso (“Pedro le explicó a Laura su
viaje a la India”, “explícale al policía lo que sucedió”). Otras el adiestramiento en ciertos
procedimientos para alcanzar un fin (“Juan le explicó el funcionamiento de la cámara fo­
tográfica”, “el mecánico me ha explicado cómo reparar un pinchazo”). O, relacionado con
el anterior, la presentación de las reglas que rigen una determinada actividad colectiva
(“Ana quiere que le expliques el reglamento del basket”, “aquel invitado estúpido necesi­
ta que le expliquen cómo comportarse en una boda”). A veces se usan en el sentido de co­
municar o explicitar el significado de una palabra (“mi primo físico me ha explicado el
significado de ‘espín’”, “tuve que explicarle lo que quería decir ‘insidioso’”). Este último
uso da lugar a otro que tiende a ser específicamente filosófico, en el que ‘explicar’ tiene
el sentido de elucidar un concepto o una distinción conceptual. Así lo usamos cuando de­
cimos, por ejemplo, que Frege dio una explicación del concepto de n ú m ero , que Carnap
la dio del de p ro b a b ilid a d , o que Kant explicó la diferencia entre analítico y sintético.
Este uso es un caso del anterior en el sentido de que elucidar ciertos conceptos no es sino
establecer los aspectos fundamentales del significado de las palabras que los expresan.
Este uso se puede generalizar y aplicarse a la presentación o elucidación de un problema
o cuestión conceptual (“en el examen teníamos que explicar la paradoja de Russell”, “hoy
toca explicar el problema de los universales”). Para el sentido de ‘explicar’ como elucida­
ción de un concepto, la jerga filosófica inglesa dispone de un término específico, ‘exp li-
catión ’ (que a veces se aplica en general a la explicación de cualquier significado), mien­
tras que para los restantes usa la misma expresión, ‘exp la n a tio n ’\ la voz castellana ‘expli­
cación’ traduce pues ambas expresiones inglesas.

Estos son los principales sentidos de ‘explicación’ en los que no nos vamos a de­
tener. Además de ellos, hay otro sentido de ‘explicar’ que es el que aquí nos interesa,
aquel que, aunque presente también en ciertos contextos ordinarios, es particularmente
importante en los contextos científicos. Casos paradigmáticos de este uso son los siguien­
tes: “el extremado descenso de las temperaturas explica que las cañerías de casa se rom­
pieran”, “la fuga radiactiva explica las malformaciones genéticas en las poblaciones pró­
ximas a Chemobil”, “que consumiera cuatro paquetes de cigarrillos diarios explica que
Luis muriera de cáncer de pulmón”, “la mecánica gravitatoria celeste explica las órbitas
elípticas de los planetas”, “la polarización de la luz se explica por su naturaleza corpuscu­
lar”. Aunque haya diferencias importantes entre ellos, todos estos casos comparten algo.
Qué es lo que comparten, y también en qué difieren, es lo que vamos a ver en este capítu­
lo. El objetivo es pues dar una “explicación” (en el sentido del inglés ‘exp lica tio n ’) del
concepto de explica ció n ejemplificado en estos casos paradigmáticos; en realidad, más
que proponer una, presentaremos y comentaremos las principales elucidaciones que se
han propuesto. A partir de ahora, mientras no se indique lo contrario el término ‘explicar’
y sus derivados se entenderán siempre en el sentido ejemplificado por estos casos.
Aunque no podemos presentar ahora un análisis preciso del concepto de explica­
EXPLICACIÓN CIENTÍFICA 221

ción, pues ésa es la tarea de las próximas secciones, sí es posible una primera aproxi­
mación intuitiva o preteórica al mismo. Según esta primera aproximación, lo que compar­
ten estos ejemplos es que todos ellos podrían constituir respuestas a cierto tipo específico
de preguntas, a preguntas del tipo “¿por qué “¿Por qué se rompieron las cañerías de
casa?” “Por el extremo descenso de las temperaturas.” Análogamente en los demás casos.
Si llamamos ‘P-preguntas’ a las preguntas de ese tipo, las explicaciones de las que esta­
mos hablando parecen caracterizarse por ser susceptibles de constituir respuestas a P-pre­
guntas. Insistimos en que no queremos con ello dar un análisis preciso y sustantivo de la
noción. Como veremos, uno de los análisis propuestos explota esta idea desarrollándola
en una dirección específica, esto es, propone que toda explicación es una respuesta a una
P-pregunta en un sentido muy específico de ‘respuesta’ y de ‘P-pregunta’. No queremos
hacer eso aquí, ni prejuzgar la adecuación o no de tal análisis. Caracterizar preteórica­
mente el tipo de explicación contenida en estos ejemplos como respuestas a P-preguntas
es únicamente un modo de expresar las intuiciones mínimas sobre el contraste entre este
concepto de explicación y los restantes.
En una primera aproximación, las explicaciones son pues respuestas a preguntas
“¿por qué?”. Esto se debe entender por el momento en un sentido amplio. En primer lugar
porque, como se ha indicado, no se pretende de momento ningún desarrollo específico fi­
losóficamente preciso de esta idea. Pero, en segundo lugar, porque la idea genérica no se
corresponde tampoco siempre con la forma gramatical específica de ese tipo de enuncia­
dos. Ni todos los enunciados interrogativos con la forma gramatical “¿por qué ...?” re­
quieren como respuesta una explicación del tipo indicado, ni sólo ellos las requieren. Mu­
chas veces estas preguntas tienen un sentido retórico (“¿por qué tengo que seguir aguan­
tando tus impertinencias?”), o desiderativo (“¿por qué no somos todos más tolerantes?”),
o exclamativo (“¿por qué has tenido que estornudar justo cuando estaba grabando?”), u
otro. En casos como éstos, aunque la oración tiene la forma interrogativa, el acto de habla
no consiste propiamente en la formulación de una pregunta, sino la expresión de una afir­
mación (“no pienso seguir aguantándote”), un deseo (“ojalá todos fuéramos más toleran­
tes”), una queja u otras cosas, órdenes, solicitudes, propuestas, etc. En otro tipo de casos,
mediante la oración se expresa propiamente una pregunta, pero la cláusula ‘por qué (no)’
es superflua, no añade nada (“¿por qué no venís a cenar el sábado?”; estos casos se pare­
cen mucho a aquellos de los anteriores en los que se expresa una propuesta). Por último,
en otros casos la oración interrogativa expresa una pregunta y la cláusula ‘por qué* no es
superflua, pero la respuesta que requiere no es una explicación en nuestro sentido sino
una “explica tio n ”, esto es, una elucidación o análisis (“¿por qué los contextos de creencia
son intensionales?”, “¿por qué las leyes científicas no son meras generalizaciones?”).
Éstas son las principales excepciones, aunque la pragmática de las preguntas “¿por qué?”,
y de sus respuestas, es muy compleja y puede haber otras excepciones en contextos espe­
cíficos. Así, en general, no todo enunciado interrogativo que incluye la cláusula ‘por qué’
expresa propiamente una pregunta que requiera explicación; pero si tal enunciado expresa
una pregunta y la cláusula no es superflua, la pregunta en cuestión requiere por lo general
como respuesta una explicación.
Por otro lado, algunas preguntas que requieren una explicación como respuesta
222 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

no se expresan mediante enunciados interrogativos que incluyen cláusulas ‘por qué’. El


caso más destacado es el de las preguntas “¿cómo?”, p.ej.: “¿cómo cogió Pedro el cóle­
ra?”, “¿cómo te saliste de la carretera?”, “¿cómo aparecieron los primeros seres vivos
no acuáticos?”, “¿cómo pueden volar los aviones?”. Aunque estos enunciados interroga­
tivos no incluyan cláusulas ‘por qué’, las preguntas que expresan se pueden considerar
P-preguntas en el sentido amplio, pues las respuestas que requieren sí incluyen la cláu­
sula ‘porque’ u otras análogas. Es cierto que también se pueden responder sin estas
cláusulas, p.ej. a la primera pregunta se puede responder “porque comió fruta sin pelar
en la India”, pero también simplemente “comió fruta sin pelar en la India”. Lo que las
hace P-preguntas en sentido amplio es que, aunque a veces se suprima dicha cláusula,
sus respuestas apropiadas típicamente se expresan de la forma “porque ...”. Esto es lo
que hay detrás de la idea de que las explicaciones son respuestas a P-preguntas: son res­
puestas que se pueden expresar adecuadamente incluyendo cláusulas del tipo ‘porque’.
Por supuesto que todas estas características semiformales no son las determinantes, sim­
plemente son el trasunto gramatical de hechos más profundos. Si las respuestas incluyen
esas cláusulas es porque mediante ellas se da razón o se p ro p o rc io n a co m p ren sió n de
algo. Ésos son los hechos más profundos, que ahora sólo mencionamos en un sentido
muy genérico e impreciso. Especificar la naturaleza última de esos hechos, determinar
el sentido exacto en que las explicaciones dan razón de ciertas cosas, es justamente la
tarea de los análisis del concepto de exp lica ció n que vamos a ver.
El análisis de la explicación se remonta prácticamente a los inicios mismos de la
filosofía. En la Antigüedad el precedente más notorio es Aristóteles, aunque ya en Pla­
tón se encuentran consideraciones de interés. La famosa teoría aristotélica de las cuatro
causas o a itía i (material, formal, eficiente y final) es a la vez, o incluso primariamente,
una teoría de la explicación (cf. p.ej. Rubén, 1990, cap. 3, y más abajo §4 los comenta­
rios de van Fraassen al respecto). La palabra griega ‘aitía’ suele traducirse por ‘causa’,
pero en Aristóteles parece significar primariamente una respuesta a una pregunta “¿por
qué?”, hay tantas a itía i como maneras de responder a esas preguntas (cf. F ísic a , II, 198
a 15). A la hora de explicar un cambio, su “por qué”, podemos apelar a la materia cons­
tituyente, a la forma que se actualiza, al agente productor o a la finalidad del cambio
(coincidiendo las tres últimas respuestas en los cambios naturales). No vamos a detener­
nos aquí en los detalles de la teoría aristotélica, íntimamente vinculada al resto de su fí­
sica y de su metafísica. Aunque esta teoría ha sido muy influyente a lo largo de la histo­
ria de la filosofía, y partes de la misma lo continúan siendo en la actualidad, los análisis
contemporáneos de la noción de exp lica ció n se plantean en términos más afines a la in­
vestigación metacientífica general.
Dentro de la filosofía de la ciencia, el punto de partida de los estudios sobre la ex­
plicación científica se sitúa a finales de los años cuarenta con el trabajo fundacional de
Hempel y Oppenheim (1948). Aunque anteriormente autores como Mili y Popper habían
realizado algunas contribuciones de interés, es en ese artículo, y en otros trabajos poste­
riores de Hempel que le siguen, donde por primera vez se aborda el tema de modo especí­
fico y se realiza un análisis detallado del concepto de exp lica ció n . En estos trabajos se es­
tablecen los términos en los que se va a desarrollar el debate posterior y se presenta una
EXPLICACIÓN CIENTÍFICA 223

propuesta en relación a la cual se van a posicionar las diferentes alternativas. La obra de


Hempel es pues fu n d a m en ta l, proporciona los fundamentos tanto metodológicos como
conceptuales. Comenzaremos por tanto nuestro estudio con la presentación del análisis
hempeliano del concepto de explicación (cien tífica ) y veremos después las principales
modificaciones y alternativas al mismo. En la presentación de los diversos análisis vamos
a seguir aproximadamente el prden cronológico de aparición de los mismos. La función
de esta revisión no es simplemente ir yuxtaponiendo diferentes teorías de la explicación
conforme van apareciendo. Como en otros lugares de esta obra, en la medida en que la re-
visión conceptual de un tema sigue el desarrollo de las propuestas que históricamente se
han dado, es porque la historia tiene algo que enseñarnos. Como señalamos en el prólogo,
en estos ámbitos las propuestas históricamente primeras no lo son en vano. Son las prime­
ras, en cierto sentido, casi necesariamente, pues recogen las intuiciones más inmediatas y
las expresan de la forma en principio más sencilla o natural, y las alternativas posteriores
se encargan de corregir las eventuales, deficiencias, poner de manifiesto aspectos más pro­
fundos y, si es necesario, refoqnar algunas de nuestras intuiciones. Pero casi siempre esos
aspectos más profundos del problema sólo se pueden apreciar una vez las propuestas ori­
ginales han comenzado a limpiar el terreno.
Estas consideraciones son particularmente apropiadas en el caso de la explicación
científica. Para poder apreciar cabalmente la naturaleza de los análisis más recientes es
necesario comprender antes el núcleo de la propuesta hempeliana, y ver entonces en qué
medida las modificaciones posteriores conservan o no dicho núcleo conceptual. En la
próxima sección examinaremos el modelo de cobertura legal de Hempel y en las próxi­
mas, sucesivamente, el de relevancia estadística, el pragmático, el causal y el de unifica­
ción y subsunción teórica. Puesto que el espacio no permite una revisión exhaustiva, tras
la exposición detenida del modelo de Hempel y de las principales cuestiones que abre,
nos limitaremos en los siguientes a presentar los principales puntos de contraste (para un
estudio detallado, cf. especialmente Salmón, 1989; cf. también Kitcher, 1989; Rubén,
1990 y Sintonen, 1989). Los diferentes análisis son parcialmente contrapuestos y parcial­
mente complementarios. No son acumulables sin más, tampoco son alternativas que sim­
plemente se aplican a diferentes casos. Cada uno surge como corrección conceptual, al
menos parcial, a otros y con vocación de exclusividad. En la actualidad las espadas si­
guen en alto entre las dos principales alternativas, el modelo causal y el de unificación, y
es una cuestión abierta si son integrables de algún modo. En la última sección nos ocupa­
remos brevemente de las explicaciones funcionales y teleológicas, que durante mucho
tiempo han sido motivo de perplejidad; veremos un análisis de las mismas, el de
L. Wright, que resuelve tal perplejidad.
Antes de iniciar el análisis es preciso destacar un hecho general relativo a la
explicación que conviene tener presente, incluso aunque en muchos de los análisis que
vamos a ver no desempeñe un papel principal. Se trata del carácter intensional de la ex­
plicación. Recuérdese (cf. cap. 3 §1) que un contexto es intensional si no está garantizada
la sustitutividad sa lva veritate, esto es, si en él la sustitución de una expresión lingüística
por otra que denote la misma entidad puede alterar el valor veritativo. Pues bien, el con­
texto ‘... explica — ’ es intensional. Por ejemplo, supongamos que el lechero del barrio
224 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

es el amante de la mujer de Pepe, y que Pepe lo sabe. Y supongamos también que al­
guien, que no sabe que el lechero es el amante de la mujer de Pepe, nos pregunta por qué
Pepe se pasó todo el día de mal humor. En ese caso, “porque Pepe se ha cruzado en la
puerta de casa con el amante de su mujer” puede ser (en ciertas circunstancias) una buena
explicación, mientras que “porque Pepe se ha cruzado esta mañana en la puerta de casa
con el lechero” puede (en esas mismas circunstancias) no serlo. O supongamos que que­
remos explicar por qué un beduino, que ignora que el agua es H 20> modifica su ruta para
pasar por un oasis. Una buena explicación puede ser “porque tiene sed y en el oasis hay
agua”, mientras que “porque tiene sed y en el oasis hay H20 ” no lo es. No vamos a dete­
nemos ahora en esta cuestión, en las secciones 4 y 5 haremos algunas consideraciones al
respecto.
Para concluir esta sección introductoria introduzcamos algo de terminología espe­
cífica. En una explicación llamamos ‘explanandum’ a aquello que requiere de una expli­
cación, y ‘explanans’ a aquello que proporciona la explicación del explanandum. Todo
análisis del concepto de explicación debe dar pues una caracterización precisa del expla­
nandum y del explanans. Pero no sólo de ellos. También debe caracterizar la relación que
se da entre ambos. Llamaremos ‘relación explicativa’ a aquella relación que, por darse
entre el explanans y el explanandum, hace que podamos considerar que el primero expli­
ca al segundo. Todo análisis debe caracterizar estos tres elementos: explanandum, expla­
nans y relación explicativa; como veremos, los diferentes modelos alternativos se diferen­
cian en su análisis de alguno de estos elementos. Aunque el objeto principal es la explica­
ción científica, por los motivos indicados más arriba la discusión hará referencia a veces a
explicaciones ordinarias pre- o protocientíficas, especialmente cuando sean fuente de in­
tuiciones muy firmes.

2. Cobertura legal inferencial

En Hempel y Oppenheim, 1948, se presenta el núcleo del análisis de la explica­


ción que Hempel va a desarrollar posteriormente, principalmente en los años sesenta
(Hempel, 1962, 1965, 1966a, cap. 5, y 1967). La idea básica es que las explicaciones son
argum entos en los que el explanandum se infiere d el explanans. Hempel insiste en que
esta idea no es original, y efectivamente sugerencias en este sentido se pueden encontrar
al menos en Aristóteles, Mili, Campbell y Popper. Lo que sí es original es el desarrollo
específico de la misma, que como dijimos constituye el primer análisis completo y preci­
so de la noción de explicación. Antes de detenerse en los detalles es conveniente exponer
el esquema general y las intuiciones que lo inspiran.

2.1. F o r m a g e n e r a l d e l a e x p l ic a c ió n m e d ia n t e c o b e r t u r a l e g a l in f e r e n c ia l

Una explicación constituye una respuesta o solución a cierta situación de perpleji­


dad. Lo que reclama explicación son hechos que en algún sentido nos causan perplejidad
EXPLICACIÓN CIENTÍFICA 225

o sorpresa, por ello preguntamos el porqué de los mismos; nos preguntamos por la expli­
cación de cosas en cierto sentido inesperadas. Por supuesto que podemos buscar explica­
ción de hechos perfectamente cotidianos que en ese sentido no son inesperados sino todo
lo contrario. Por ejemplo, queremos explicar por qué el Sol aparece todos los días en el
horizonte, o por qué la Luna cambia su apariencia. En un sentido, estos hechos no son
inesperables, no nos causan sorpresa; más bien lo sorprendente sería que el Sol no apare­
ciera una mañana en el horizonte o que la Luna mostrase el mismo perfil una semana se­
guida. Pero hay otro sentido en el que sí son “sorprendentes” o “inesperados”, a saber,
mientras no tenemos explicación de los mismos, sabemos que pasan y creemos que segui­
rán pasando, pero no tenemos motivo para justificar nuestra creencia: “¿por qué pasan
más bien que dejan de pasar?”, “seguro que el sol saldrá mañana, o eso creo, pero por
todo lo que sé no hay motivo para ello, es sorprendente que de hecho mañana salga
otra vez”.
Ésta es la idea que inspira el análisis de Hempel. Si una explicación es una res­
puesta a una situación de este tipo, entonces la explicación de cierto hecho, “inesperado”,
consiste en mostrar que se dan otros hechos que hacen esp era b ie1 la ocurrencia del prime­
ro. Así, la intuición que quiere recoger Hempel es que en una explicación el explanans
hace esperable el explanandum. Para hacer precisa esta intuición se debe especificar el
sentido exacto en que el explanans hace esperable el explanandum y el candidato más in­
mediato para la relación de “esperabilidad”, el que toma Hempel, es la relación de infe­
rencia lógica: ciertos estados de cosas hacen esperable otro si el segundo “está contenido”
en los primeros considerados conjuntamente. Explicar el segundo consiste en mostrar que
efectivamente está contenido en los primeros. Así, el explanans hace esperable el expla­
nandum en el sentido preciso de que del explanans se infiere el explanandum. Las expli­
caciones son argumentos en los que se infiere el hecho a explicar de los otros hechos que
lo explican.
Éste es el núcleo del análisis hempeliano. O mejor, la parte más básica del mismo,
pues Hempel añade una condición general para poder considerar un argumento como ex­
plicación. No toda inferencia constituye una explicación. La condición adicional es que
en el explanans intervenga al menos un hecho general de cierto tipo. Consideremos uno
de los ejemplos mencionados: “el extremo descenso de las temperaturas explica que las
cañerías de casa se rompieran”. Aquí, aparentemente el explanandum, la rotura de las ca­
ñerías de casa, no se infiere del explanans (explícito), el extremo descenso de las tem­
peraturas. Si a pesar de eso la consideramos una explicación legítima es porque conside­
ramos que el explanans incluye elíptica o implícitamente hechos adicionales, es una for­
mulación incompleta de la auténtica explicación. La explicación completamente formula­
da sería aproximadamente la siguiente: “la rotura de las cañerías de casa se explica por
a) el descenso extremo de la temperatura, b) las cañerías de casa estaban llenas de agua,
c ) el extremo descenso de la temperatura congela el agua y d) cuando se congela el agua
de las cañerías éstas se rompen”. Ésa es la explicación completa y, ahora sí, el explanan-

1. Traduciremos, a falta de mejor alternativa, ' exp ecta b le’ y ‘exp ecta b ility' por ‘esperable’ y ‘es-
perabilidad’. Sería menos forzado usar ‘previsible’, pero no es aconsejable por su connotación temporal.
226 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

dum se infiere (deductivamente) del explanaos a) - d). Y el explanans contiene al menos


un hecho general, exactamente dos en este caso, c) y d).
Se objetará que para que el explanandum se infiera del explanans no es preciso que
el conjunto de las premisas, el explanans, contenga un hecho general. En efecto, suponga­
mos que si viene Juan a la fiesta entonces no viene Rosa, y supongamos además que de he­
cho viene Juan. De estos hechos, ambos particulares, se infiere la no asistencia de Rosa a la
fiesta. Hempel reconoce por supuesto la validez de la inferencia, pero rechaza que en tal
caso el argumento constituya una explicación. De la premisa de que las pompas de jabón
primero crecieron y después disminuyeron se infiere que las pompas de jabón primero cre­
cieron, pero “es evidente que [esta inferencia] no puede considerarse una explicación de
por qué las pompas de jabón primero crecieron, [l]a misma observación se aplica a todos
los otros casos de este tipo ” (1965, §2.1; cursivas nuestras). Hempel no da un argumento
general al respecto y simplemente presenta como obvio que en todos esos casos, incluido
por tanto el de nuestra fiesta, no se puede hablar de explicación. Aunque la cosa no es quizá
tan obvia, la idea que hay detrás es que los casos en los que aparentemente todas las premi­
sas son particulares y aun así parecen constituir propiamente una explicación, son argumen­
tos que esconden en realidad subrepticiamente algún hecho general. Por ejemplo, si el caso
de nuestra fiesta nos parece propiamente una explicación, es seguramente porque se inter­
preta de uno de los tres modos siguientes. A) La primera premisa no se interpreta mera­
mente como el condicional material “si va Juan no va Rosa”, sino como un condicional ge­
neral, a saber, “siempre que va Juan nunca va Rosa”. B) La primera premisa se interpreta
como un hecho particular pero causal , e.e. “que vaya Juan hace que no vaya Rosa”; en este
caso también hay generalidad, aunque ahora encubierta, pues las implicaciones causales
particulares se fundamentan en hechos generales (nómicos). C) La primera premisa se in­
terpreta como el siguiente condicional material particular: “si Juan va entonces Rosa no
piensa (no tiene la intención de) ir”; pero en este caso para que la inferencia sea válida hace
falta como premisa adicional cierto hecho general sobre la relación entre las intenciones de
Rosa y sus acciones. Si no pensamos en ninguna de estas tres interpretaciones es difícil ver
el sentido en que la ausencia de Rosa queda explicada , parecería entonces una situación se­
mejante a la de las pompas de jabón.
La esperabilidad del explanandum dado el explanans no es por tanto mera infe­
rencia, sino inferencia de cierto tipo: el explanans debe incluir al menos un hecho gene­
ral. Pero además, añade Hempel, tampoco vale cualquier hecho general, los hechos ge­
nerales relevantes para las explicaciones han de ser de cierto tipo. Supongamos que que­
remos una explicación de que cierta moneda determinada sea dorada. Y supongamos
que e) esa moneda estaba la Nochevieja de 1990 en el bolsillo derecho de los pantalones
de Quine y f ) que en esa noche todas las monedas del bolsillo derecho de los pantalo­
nes de Quine eran doradas. De e) y f ) se infiere que la moneda en cuestión es dorada, y
además f ) es un hecho general, pero a pesar de ello no parece que estemos ante una ge-
nuina explicación del color de la moneda, esos dos hechos no lo explican. Los hechos
generales que incluye el explanans no pueden ser cualquier regularidad, han de ser re­
g u la rid a d es nó m ica s, leyes n a tu ra le s . Esta inferencia no constituye una explicación
porque f ) es una mera regularidad accidental, no es una ley. En el capítulo 5 discutimos
EXPLICACIÓN CIENTÍFICA 227

la diferencia entre regularidades accidentales y regularidades nómicas o leyes, y vimos


que elucidar y fundamentar dicha diferencia es ciertamente difícil. El propio Hempel
discute ampliamente el problema y propone su particular concepción de las leyes (cf.
p.ej. Hempel y Oppenheim, 1948, §111, y Hempel, 1965, §2.3). Ahora no vamos a insis­
tir más en este problema (para las referencias que en este capítulo se hagan al concepto
de ley bastará remitirse a aquél).
Supuesto pues que disponemos de la diferencia entre regularidades accidentales y
leyes, la condición adicional que exige Hempel para que una inferencia constituya una
explicación es que el explanans contenga al menos un enunciado general que sea una ley.
Por supuesto que la exigencia es que el explanans contenga esencialm ente al menos una
ley, esto es, la ley ha de ser necesaria para la inferencia, el explanandum no se puede se­
guir del resto de las premisas solas. Eso es lo que ocurre en la formulación completa de la
explicación de la rotura de las cañerías, los enunciados generales del explanans son leyes.
La idea central es que la esperabilidad siempre ha de ser nómica. Las regularidades mera­
mente accidentales no hacen esperable nada pues son justamente eso, accidentales. Por
eso toda regularidad que intervenga esencialmente en el explanans ha de ser nómica; si en
la inferencia interviene esencialmente una regularidad accidental, eso “contamina” de ac­
cidentalidad toda la inferencia y la deslegitima como explicación. E xp lica tivid a d y a c c i­
dentalidad son conceptos excluyen tes. Estamos dispuestos a considerar una inferencia
como explicativa, esto es, como “haciendo al explanandum esperable”, en la medida en
que consideremos que las generalidades que intervienen son nómicas. El patrón general
del análisis de Hempel es pues el siguiente:

(1) El explanans contiene esencialmente al menos una ley, y todos los hechos
generales que contenga esencialmente deben ser leyes.
(2) Si el explanandum es un hecho particular, el explanans contiene también
esencialmente al menos un hecho particular. Los hechos particulares que
contiene el explanans son las co ndiciones antecedentes.
(3) La relación de explicación es una relación de inferencia lógica, el explanan­
dum se infiere del explanans.

Este es el núcleo de lo que se conoce como modelo de cobertura legal (‘cove ring
law m odeV ). La idea que lo articula es la de la explicación como esp era b ilid a d nóm ica
C nom ic exp ecta b ility ’), entendiendo ‘esperabilidad’ en sentido inferencial. El nombre que
hemos dado a este análisis, ‘cobertura legal inferencial’, resume pues sus rasgos caracte­
rísticos generales. Este patrón general se desarrolla después de modo específico en los di­
versos tipos de explicación. Los tipos de explicación específicos se caracterizarán por de­
terminadas condiciones adicionales referentes a cada uno de los tres elementos de la ex­
plicación: que el explanandum sea particular o general; que el explanans incluya o no he­
chos estadístico-probabilistas; y que la relación explicativa inferencial sea deductiva o in­
ductiva. Las diversas combinaciones posibles dan lugar a cuatro tipos de explicación: el
nomológico deductivo particular, el nomológico deductivo general, el deductivo estadísti­
co y el inductivo estadístico (como veremos, se excluyen las combinaciones con (i) infe­
228 FUNDAMENTOS D E E íl.O S O F IA D E LA CIENCIA

rencia inductiva sin premisas generales probabilistas y (ii) inferencia deductiva con con­
clusión particular y alguna premisa general probabilista).
Antes de pasar a discutir cada uno de estos tipos es preciso hacer dos observacio­
nes. En primer lugar, aquí hemos presentado las condiciones generales (l)-(3) en térmi­
nos de hechos pero, según Hempel, dada la naturaleza argumentativa de la explicación lo
apropiado es presentarlas referidas a en u n cia d o s : explanandum y explanans son enuncia­
dos o conjuntos de enunciados. Aunque Hempel sigue casi siempre esta práctica, a veces
también habla como si la relación explicativa se diera directamente entre lo que los enun­
ciados expresan, los hechos o, para ser precisos, las proposiciones. Hempel prefiere ha­
blar de enunciados porque le resulta más conveniente para su caracterización de las leyes,
pero lo mismo podría hacerse, si se formula con cuidado, hablando de hechos. Esta cues­
tión no es de momento demasiado importante mientras no tomemos en consideración los
aspectos intensionales de la explicación que mencionamos más arriba. Aquí usaremos in­
distintamente ambas versiones, privilegiando ligeramente la primera por ser quizá más in­
tuitiva; intuitivamente, lo que explicamos son “cosas que pasan” mediante “otras cosas
que pasan”, no enunciados mediante enunciados.
La segunda observación se refiere a las condiciones generales adicionales que im­
pone Hempel para considerar que una explicación es fá ctica m en te correcta . Las condicio­
nes (l)-(3) caracterizan sólo lo que es una explicación p o ten cia l o posible. En las explica­
ciones correctas ha de ocurrir además que el explanandum sea verdadero, que lo que expli­
camos sea algo que efectivamente ocurre. Eso hace a la explicación real , esto es, que no
sea un mero ejercicio conceptual. Pero para que, además de ser real, sea fá ctica m en te co­
rrecta es preciso algo más, a saber, que el explanans sea también verdadero. Para tener una
explicación correcta, el hecho que ocurre y que queremos explicar debe explicarse median­
te hechos que también ocurren. Explicamos que pasa cierta cosa porque ciertas otras cosas
tam bién p a sa n . Como reconoce Hempel, esta exigencia tiene algo de extraño pues descali­
fica como incorrectas explicaciones intuitivamente muy buenas en cuanto se ha comproba­
do que parte del explanans, por ejemplo alguna ley, es falsa. Esta cuestión es en parte no­
minal, pero tiene también un elemento que no lo es y que se hará explícito cuando nos ocu­
pemos más adelante de la explicación como unificación teórica.

2.2. E x p l ic a c ió n n o m o l ó g ic a d e d u c t iv a p a r t ic u l a r (NDP)

Éste es seguramente el tipo de explicación más usual. A él dedicaron Hempel y


Oppenheim su primer trabajo y es el que ha guiado el análisis posterior. Se caracteriza
por satisfacer, además de (l)-(3), estas tres condiciones adicionales:

(4) El explanandum es un hecho particular.


(5) Las leyes del explanans son estrictamente generales, e.e. no son estadísti-
co-probabilistas. Por (2) y (4), el explanans incluye también como condiciones
antecedentes determinados hechos particulares, las condiciones antecedentes.
(6) La relación de explicación es la de inferencia lógica d ed u ctiva .
EXPLICACIÓN CIENTÍFICA 229

Se puede esquematizar este tipo de explicación del siguiente modo. Eí uso de mi-
núsculas connota que el hecho (o enunciado) correspondiente es particular, la línea conti­
nua que la inferencia es deductiva (cf. cap. 2), y la letra ‘L’ que se trata de una ley no pro-
babilista:

Ei,..., L„
NDP

C], cm
e

Las leyes no probabilistas L¡ y las condiciones antecedentes q constituyen conjun­


tamente el explanans; el explanandum e se deduce lógicamente de esas leyes y de esas
condiciones antecedentes. A este esquema se ajusta nuestro ejemplo de la rotura de las ca­
ñerías: las condiciones antecedentes son el descenso extremo de la temperatura y que las
cañerías de casa están llenas de agua; las leyes establecen que las bajas temperaturas con­
gelan el agua y que, cuando se congela el agua de las cañerías, éstas se rompen; de todo
ello se infiere deductivamente la rotura de las cañerías de casa, hecho que queda así expli­
cado. Explicar un hecho particular es subsumirlo bajo una regularidad nómica, que por
ser nómica lo hace, junto con las condiciones antecedentes, esperable.
El esquema NDP es, según Hempel, aquél al que se ajustan todas las explicacio­
nes de hechos particulares mediante teorías no estadístico-probabilistas. Es el modo típico
en que estas teorías explican los fenómenos empíricos particulares, por ejemplo, la expli­
cación por la mecánica newtoniana de la reaparición de determinado cometa en un lugar y
momento específicos, la explicación heliocéntrica de las fases de Venus, o la explicación
por la mecánica relativista de la órbita anómala de Mercurio. El lector recordará que en el
capítulo 3 vimos los dos primeros ejemplos como casos de predicciones en episodios de
contrastación. Esto ilustra la tesis hempeliana de la sim etría entre explicación y p r e d ic ­
ción. Según Hempel, la explicación de hechos particulares y la predicción tienen la mis­
ma estructura lógica, la única diferencia entre ambas es pragmática y tiene que ver con la
relación temporal entre la ocurrencia del hecho particular y la construcción del argumen­
to: “En un caso, se sabe que ya se ha producido el suceso descrito en la conclusión, y se
buscan enunciados adecuados que expresen leyes generales y hechos particulares para ex­
plicarlo; en el otro, se dispone ya de estos enunciados y de ellos se deduce el correspon­
diente al suceso en cuestión antes del momento de su presunta aparición. [... Esta es] la
tesis de la identidad estructural (o simetría) de la explicación y de la predicción” (Hem­
pel, 1965, §2.4). Las explicaciones son pues retrodicciones, “predicciones” de hechos co­
nocidos; las predicciones, si llegan a confirmarse, son explicaciones “avanzadas”. Esta es
la tesis de la simetría entre explicación y predicción: si abstraemos la relación temporal
entre el hecho inferido y el argumento, no hay ninguna diferencia entre ambas.
El modelo de explicación NDP ha sido objeto de numerosas observaciones, críti­
cas y comentarios. Vamos a presentar ahora las principales objeciones que se le han plan­
teado. La revisión de estas dificultades nos servirá además para hacer algunas observacio­
nes adicionales. La mayoría de las objeciones que presentaremos ahora tienen que ver con
230 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

diversos motivos que, según los críticos, hacen que la caracterización de Hempel no se
ajuste a las intuiciones pues incluye como explicaciones inferencias que intuitivamente
no consideraríamos tales, y excluye otras que sí consideramos explicaciones. Así, se obje­
ta, las condiciones (l)-(3) más (4)-(6) no son ni necesarias ni suficientes. En ambos casos
se ilustra la situación con pretendidos contraejemplos. Ahora nos vamos a limitar en ge­
neral tan sólo a presentar las objeciones; las propuestas de soluciones las examinaremos
más adelante al presentar los análisis alternativos que estos problemas motivan. También
dejaremos para más adelante las críticas a la idea de que las explicaciones son inferencias.

El primer problema es de natu­


P l : G eneralizaciones “e se n c ia les” inesenciales.
raleza semiformal. Tal como se ha expresado, NDP tiene una consecuencia claramente in­
deseable: se puede explicar cualquier hecho particular mediante una ley completamente
independiente del hecho, esto es, una ley sin relación alguna con las entidades involucra­
das en el hecho. En efecto, sea el explanandum p.ej. P a y una ley cualquiera Vx(Ax -» Bx)
en la que no intervienen ni el individuo a ni la propiedad P. El siguiente argumento satis­
face NDP:

Vx(Ax —> Bx)


(Ac —> Be) —» Pa
Pa

Es deductivamente válido, la ley ocurre esencialmente, etc. No sólo eso, sino que también
es materialmente adecuado, pues si el explanandum es verdadero también lo es la segun­
da premisa. Pero es obvio que no se puede considerar una explicación de que a es P, pues
la ley no tiene nada que ver con esas entidades. Hempel ya había advertido esta dificultad
en su primer trabajo y había introducido una condición adicional que establece, aproxi­
madamente, que las condiciones antecedentes no se deriven de la ley y del explanandum.
En realidad es un poco más complicada para evitar otros casos semejantes, pero no la va­
mos a exponer aquí (cf. Hempel y Oppenheim, 1948, §6). Sin embargo, Eberle, Kaplan y
Montague (1961) mostraron que dicha condición no era suficiente para bloquear otros ca­
sos más sofisticados. Kaplan (1961) y Kim (1963) propusieron otras condiciones alterna­
tivas que, como Hempel reconoce, sí logran el efecto deseado (cf. su p o stscrip tu m de
1964 a Hempel y Oppenheim, 1948).

P2: P reced en cia tem poral de las condiciones antecedentes. Explicamos la ocu­
rrencia de un eclipse de Luna deduciéndolo de leyes mecánicas celestes y de determina­
das posiciones del Sol, la Luna y la Tierra an tes del eclipse. Pero el eclipse se deduce
igualmente de las mismas leyes y de posiciones de esos cuerpos después del eclipse, y no
consideraríamos que eso constituiría una buena explicación. Para que la inferencia sea ex­
plicativa parece que las condiciones antecedentes han de ser anteriores en el tiempo al he­
cho a explicar.
EXPLICACIÓN CIENTÍFICA 231

P3: Sim etría. Explicamos la longitud de la sombra de un mástil en un momento


dado deduciéndola de leyes de la óptica física y de la posición del Sol y la altura del más­
til. Pero también podemos proceder a la inversa en la deducción, inferir la altura del
mástil de esas leyes, la posición del Sol y la longitud de la sombra, y no parece que en ese
caso estemos dando una explicación de la altura del mástil. Explicamos eí espectro lumí­
nico característico dé tin elemento químico por su estructura atómica, y no ésta pof aquél.
Hay pares simétricos de argumentos en los que lo que en uno hace de conclusión en otro
hace de premisa, y viceversa, y ambos satisfacen NDP, pero sólo uno, y no el otro, se
puede considerar explicativo.

P4: E fecto s de causa co m ú n . Es urta regularidad no accidental, nómica, que


poco tiempo después de que un barómetro registre una caída extremadamente brusca, se
sucede una tormenta en las proximidades. Podemos entonces inferir la tormenta de la
brusca caída del barómetro, junto Con esa regularidad, pero ello no se puede considerar
una explicación de la ocurrencia de la tormenta. Esta regularidad correlaciona dos efectos
diferentes de una causa común, a saber, el brusco descenso de la presión atmosférica. Lo
que proporciona la explicación de cierta tormenta particular es cierto descenso particular
de la presión, no la bajada del barómetro. Otro caso parecido es el de las mareas. Existe
una regularidad nómica (conocida desde la antigüedad) entre la intensidad de las mareas y
las fases de la Lüna: la intensidad es cíclica, máxima en luna llena y nueva, mínima en
cuarto creciente y menguante. De esta regularidad, y de cierta fase específica de la Luna,
se puede inferir (aproximadamente) la intensidad de la marea. Pero ello no es una explica­
ción genuina, la particular intensidad de la marea no se explica por la particular forma
aparente de la Luna. Ambos fenómenos están correlacionados por ser efectos de una cau­
sa común, las posiciones relativas de la Luna, la Tierra y el Sol: la variación de esas posi­
ciones tiene como efectos ópticos las fases de la Luna y como efectos dinámicos los cam­
bios de intensidad de las mareas. Este tipo de casos se suelen presentar además como con­
traejemplos a la tesis de Hempel sobre la simetría entre explicación y predicción; pode­
mos predecir la tormenta mediante el barómetro, o la marea mediante la fase lunar, pero
se trata de predicción sin explicación.

P5: Irrelevancia. Supongamos que embrujamos terrones de azúcar profiriendo


ciertas palabras mágicas en su presencia. Es un hecho general que los terrones embruja­
dos se disuelven cuando se sumergen en agua, por tanto podemos inferir la disolución de
cierto terrón embrujado particular a partir de su inmersión en agua y de ese hecho gene­
ral. Pero esta inferencia no explica la disolución del terrón. Podemos inferir que Juan no
se quedará embarazado del hecho particular de que toma pastillas anticonceptivas más el
hecho general de que ningún varón que tomas pastillas anticonceptivas se queda embara­
zado. Pero ello no es aceptable como explicación de que Juan no se quede embarazado
(en este caso el explanandum es un hecho negativo, pero ello no afecta a lo que ahora se
discute). En estos casos la inferencia no es explicativa pues parte de las condiciones ante­
cedentes, y con ello “parte” del hecho general, son intuitivamente irrelevantes para la
ocurrencia del explanandum. Nótese que satisfacen plenamente NDP. Se dirá que hay
232 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

algo extraño en esos hechos generales, que no son regularidades nómicas. Pero, al menos
desde la perspectiva de Hempel, no es así. Estos hechos son regularidades nómicas, no es
en absoluto accidental que los terrones embrujados se disuelvan, ni que los varones que
toman pastillas no se queden embarazados. Lo que de raro tienen estas “leyes” es que son
en cierto sentido sim p lifica b les , alguna propiedad contenida en el antecedente es innece­
saria, irrelevante a efectos explicativos, pues el resultado de “suprimirla” es un hecho ge­
neral que también es una ley. Sin embargo, articular esta idea de modo preciso no es una
tarea fácil (cf. cap. 5 §2). Nótese que estos casos también representan un contraejemplo a
la identidad entre explicación y predicción, tenemos predicción pero no explicación.

P6: E xp lica cio n es id e o ló g ic a s y fu n cio n a les. Los casos anteriores son casos que
se ajustan a NDP pero, por diversos motivos, no parecen poder considerarse explicacio­
nes. Ahora ocurre lo contrario, las explicaciones ideológicas y funcionales parece que
son explicaciones genuinas y que (en la medida en que explican hechos particulares) no
satisfacen NDP. No lo satisfacen pues, aparentemente al menos, no se infiere el explanan-
dum del explanaos, sino que (parte de) el explanans se infiere del explanandum (y del res­
to del explanans). Explicamos el latido del corazón por su función en la circulación de la
sangre; o las largas orejas de los conejos por su función en el control de la temperatura
corporal; o el viaje de Rosa a Salzburgo por su finalidad de asistir a un determinado con­
cierto. En estos casos parece que, si es que se pueden considerar inferencias, no sucede
que el hecho explicado se infiere de las condiciones antecedentes, sino más bien lo con­
trario: del tamaño de las orejas de este conejo (y de otras cosas) se infiere determinado fe­
nómeno particular de equilibrio térmico corporal; del viaje de Rosa (y de otras cosas) se
infiere su asistencia al concierto; etc. Explicamos un hecho mediante otro que es su fun­
ción o finalidad, pero parece que es éste el que se sigue de aquél y no al revés. En la últi­
ma sección volveremos sobre esta cuestión que, como veremos, tiene cierta relación con
la de la prioridad temporal planteada en P2.

El lector habrá percibido que casi todos estos casos están relacionados de una
forma u otra con la causalidad. Ello vale no sólo para P4, en cuya presentación hemos
hecho ya referencia explícita a la causalidad. En P2, si se rechaza como explicativa la
inferencia con condiciones antecedentes posteriores en el tiempo al explanandum es
porque se considera que tales condiciones tienen que ser causalmente responsables del
explanandum y que las causas siempre preceden temporalmente a los efectos. De modo
parecido, en P3 se acepta como explicación sólo una de las inferencias simétricas por­
que la altura es causalmente responsable de la longitud de la sombra, no viceversa. En
P5, determinada propiedad contenida en el antecedente de la ley se considera explicati­
vamente irrelevante por ser ca u sa lm en te irrelevante. Otro modo de apuntar en la misma
dirección es distinguir entre regularidades nómicas y leyes, siendo éstas sólo un subgru­
po de aquéllas. No toda regularidad nómica seria una ley y mientras que la n o m ic id a d se
preserva bajo relaciones de inferencia y simetría, la le g a lid a d no (cf. cap. 5, §1 y §2).
Estos contraejemplos dejarían de serlo si en NDP exigiéramos, dada esa diferencia, no
sólo que las regularidades que intervienen esencialmente sean “no accidentales”, nómi-
EXPLICACIÓN CIENTÍFICA 233

cas, sino que sean leyes. Los presuntos contraejemplos no serían tales pues las regulari­
dades involucradas (entre los descensos de barómetros y las tormentas, entre las som­
bras y las alturas, entre los terrones embrujados y la solubilidad, etc.) serían nómicas
pero no leyes. Esta estrategia, por lo general, no es sino otro modo de apelar a la causa­
lidad pues, en general, quien defiende la diferencia entre regularidades nómicas y leyes
lo hace en términos de causalidad: las leyes serían aquellas generalizaciones nómicas en
las que se dan las apropiadas relaciones causales entre (las ejemplificaciones de) las
propiedades involucradas.
Hempel, por supuesto, percibió desde el comienzo que hay una estrecha relación
entre explicación y causalidad, pero considera que el análisis de la explicación no debe
hacer referencia explícita a la causalidad. Reconoce el carácter causal de muchas explica­
ciones y defiende que, cuando tal es el caso, eso queda incluido en su modelo mediante la
referencia a las leyes, pues en tales explicaciones causales las leyes que intervengan se­
rán de hecho causales (como típicamente ocurre con las leyes de sucesión). Pero sostiene
que hay también explicaciones NDP no causales. Ello ocurre típicamente cuando se usan
leyes de coexistencia, como la ley de Ohm (“en cada material, el cociente entre la diferen­
cia de potencial y la intensidad de un conductor es constante”) o la del péndulo
('T = 2 n ^(L /g )). Respecto de esta última, por ejemplo, Hempel sostiene que nadie diría
que el período de un péndulo es causado por su longitud (cf. 1965, cap. XII, §2.2). Pero
ello no sólo ocurre con las leyes de coexistencia, también es dudoso el carácter causal de
algunas leyes de sucesión, como la ley de caída de los cuerpos de Galileo. Ahora vamos a
dejar de momento el problema tan sólo planteado, volveremos sobre él más adelante.

2.3. E x p l ic a c ió n n o m o l ó g ic a d e d u c t iv a g e n e r a l (NDG)

A veces aquello de lo que se da explicación no es un hecho particular sino uno ge­


neral. Explicamos determinadas leyes derivándolas de otras, en cierto sentido que hay que
precisar, más generales. Por ejemplo, las leyes de Kepler sobre la forma y período relati­
vo de los planetas se explican por las leyes de la mecánica gravitatoria newtoniana; la
misma teoría newtoniana explica también otros regularidades nómicas, como la ley de
caída libre de Galileo, o la ley que correlaciona la intensidad de las mareas con las fases
de la Luna; la ley de Boyle queda explicada en la teoría cinética de los gases; etc. Cuan­
do, como en estos ejemplos, la ley explicada es una generalización estricta, no estadísti-
co-probabilista, Hempel denomina también estas explicaciones nom ológico-deductivas.
Aunque Hempel utiliza la misma denominación para ambas, hay que diferenciar estas ex­
plicaciones de las anteriores; las diferencias entre ellas se derivan del hecho de que en
aquéllas el explanandum es particular y en éstas general (no probabilista). Es inmediato
constatar entonces que las explicaciones n o m ológico-deductivas g enerales se caracteri­
zan, además de por (l)-(3), por las siguientes condiciones adicionales:

(7) El explanandum es un hecho general nómico, una ley, no estadístico-pro-


babi lista.
234 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

(8) El explanans contiene esencialmente sólo leyes no estadístico-probabilistas.


Ninguna de las leyes del explanans es el explanandum mismo.
(9) La relación de explicación es la de inferencia lógica d ed u ctiva .

Se puede esquematizar este tipo de explicación, siguiendo las convenciones esta­


blecidas anteriormente, del siguiente modo:

NDG
Z / i , Ln
E

E es la ley (no probabilista) que se deriva de las leyes explicativas L¡. Nótese que (7) ex­
cluye la posibilidad de explicar hechos generales que no sean leyes. ¿No pueden explicar­
se regularidades accidentales? No, pues por ser accidentales no son “esperables”, esto es,
explicables. Si se aceptaran como explanandum regularidades accidentales entonces po­
drían aceptarse también en el explanans; por tanto, en la medida en que, como vimos,
haya buenas razones para exigir que todos los hechos generales que intervienen esencial­
mente en el explanans de una explicación sean regularidades nómicas, en esa misma me­
dida se excluyen como explanandum hechos generales accidentales. Otra cosa es que se
sostenga que no hay en última instancia regularidades accidentales, que todas las regulari­
dades son nómicas y que el que algunas parezcan accidentales se deriva sólo de nuestro
actual desconocimiento. Ésta es otra cuestión que ya tratamos en el capítulo 5 y sobre la
que no vamos a volver ahora. Pero si hay regularidades meramente accidentales, no pue­
den ser explicadas. Como dijimos anteriormente, a ccid en ta lid a d y exp lica tivid a d son
conceptos excluyentes.
El principal problema para un análisis satisfactorio de las explicaciones NDG es,
como reconoce Hempel, el de ofrecer una noción precisa y adecuada de in clu sivid a d que
excluya los casos de autoexplicación:

P7: A u to exp lica ció n . En (8) se exige, además del carácter nómico del explanans,
que el explanandum mismo no sea una de las leyes del explanans. De otro modo conta­
rían como explicaciones inferencias de una ley a partir de sí misma, lo que evidentemente
es inaceptable; por supuesto que es una inferencia válida deducir cierta ley L de ella mis­
ma, pero eso no es una explicación de la ley. Ahora bien, esa exigencia resuelve el pro­
blema sólo en su versión más burda, pero esencialmente el mismo problema reaparece in­
mediatamente. En efecto, si el explanans contiene una ley que es la conyunción del expla­
nandum con cualquier otra, se da también el tipo de autoderivación que no se puede con­
siderar inferencia explicativa; por ejemplo, de la ley K a B que es la conyunción de las le­
yes de Kepler, K y con la de Boyle, B> se infiere deductivamente K, pero ello no explica las
leyes de Kepler (cf. Hempel y Oppenheim, 1948, §6, nota 33). Ésta es según Hempel la
principal dificultad para llevar a cabo un análisis satisfactorio de las explicaciones NDG.
Las explicaciones de leyes no pueden ser autoinferencias de ese tipo, y sin embargo en
cierto sentido toda deducción es una autoinferencia puessla ley que se infiere “ya está” en
EXPLICACIÓN CIENTÍFICA 235

las premisas. Claro que no está en “esa” forma, pero determinar cuáles son las formas ad­
misibles como explicaciones y cuáles no, no es sencillo. De hecho Hempel lo considera
un problema irresuelto. El criterio debe tener que ver, afirma, con la mayor inclusividad
de las leyes explicativas, como las de New ton respecto de las de Kepler, pero el problema
surge de la dificultad de “establecer criterios bien definidos para la distinción de niveles
de explicación o para comparar oraciones generalizadas en cuanto a su inclusividad; [la]
formulación de criterios adecuados para este propósito es un problema aún no resuelto”
(.ibid .). Más adelante, cuando veamos el modelo de unificación teórica, volveremos sobre
esta cuestión.

2 .4 . E x p l ic a c ió n D e d u c t iv o E s t a d ís t ic a (D E )

En la explicación NDG el explanandum es una ley que es una regularidad estric­


tamente general, en el sentido de no ser una ley estadístico-probabilista. Cuando el ex­
planandum es una regularidad nómica, pero no estrictamente general sino una ley esta­
dística, tenemos una explicación que Hempel denomina exp lica ció n d ed u ctivo e sta d ísti­
c a . Por ejemplo, a partir de las leyes estadísticas que afirman que la probabilidad de que
un varón occidental desarrolle alguna modalidad de cáncer es de 0,2 y que la probabili­
dad de que sea soltero es de 0,1, y del hecho, supongamos, de que ambos sucesos son
independientes, se explica que la probabilidad de que un varón occidental sea soltero y
desarrolle cáncer es de 0,02. Hempel afirma que estas explicaciones se caracterizan por­
que en ellas se deduce una ley estadística a partir de un explanans que contiene indis­
pensablemente al menos una ley también estadística, realizándose la deducción median­
te la teoría matemática de la probabilidad (cf. p.ej. 1965, §3.2). Ello hay que entenderlo
en el sentido de que en la deducción, y por tanto en la explicación, se usan como premi­
sas ocultas adicionales determinados principios del cálculo de probabilidades, por ejem­
plo en nuestro caso el principio que afirma que la probabilidad del suceso compuesto de
otros dos independientes entre sí es el producto de sus probabilidades. Hay que conside­
rarlos incluidos en el explanans, pues (salvo que se considere, implausiblemente, que
son parte del cálculo deductivo) de lo contrario no se puede completar la deducción y la
inferencia sería deductivamente inválida.
Esta última observación plantea una cuestión que hemos obviado hasta ahora. Este
ejemplo muestra que a veces el explanans puede incluir (quizá elípticamente) leyes mate­
máticas, como el principio probabilista mencionado acerca de la probabilidad de la con-
yunción de sucesos independientes. Pero algunas de esas leyes no pueden ser calificadas
de regularidades nóm icas. Quizá la del ejemplo sí sea una regularidad nómica, si es que la
teoría de probabilidades es empírica. Pero podría ser que la inferencia explicativa use
como premisas p.ej. principios matemáticos del análisis, que parece difícil calificar de nó­
rmeos. En ese caso se estaría incumpliendo la condición que venimos imponiendo de que
todos los hechos generales que intervienen esencialmente en el explanans sean regularida­
des nómicas. Hay que matizar pues esa exigencia y limitarla a los hechos em p írico s ; esto
es razonable, pues las leyes matemáticas no se pueden calificar de regularidades nómicas,
236 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

pero tampoco de accidentales. La condición es pues que todo hecho general empírico que
intervenga esencialmente en el explanans debe ser nómico. La idea es que el explanans no
puede contener esencialmente ninguna reg ularidad em pírica accidental, pues ella conta­
minaría, por así decir, de accidentalidad el resto y arruinaría su pretendido carácter ex­
plicativo.
De lo dicho se desprende que las explicaciones deductivo-estadísticas se caracteri­
zan por satisfacer, además de (l)-(3), las siguientes condiciones adicionales:

(10) El explanandum es una ley estadística.


(11) El explanans contiene esencialmente sólo hechos generales. Estas regulari­
dades (cuando no sean puramente matemáticas) son todas nómicas, y al me­
nos una de ellas es una ley estadística (diferente del explanandum mismo).
(12) La relación de explicación es la de inferencia lógica deductiva.

Que el explanans contenga esencialmente al menos una ley estadística es necesa­


rio si el explanandum es estadístico y la inferencia deductiva, pues de regularidades no
probabilistas no se deducen regularidades probabilistas. Como habrá percibido el lector,
el esquema que corresponde a este caso es muy parecido a NDG. En realidad las explica­
ciones DE y las NDG son esencialmente del mismo tipo, a saber, explicaciones en las que
se explica determinada regularidad nómica mediante otras deduciendo aquélla de éstas. Si
usamos la letra lP ‘ para connotar que la correspondiente ley del explanans es probabilista,
entonces podemos esquematizar este tipo de explicación del siguiente modo (nótese que,
aunque no lo connotemos explícitamente en el esquema, el explanandum es ahora un he­
cho general probabilista):

DE
L\,..., Ln
Pi .....Pt
E

2 .5 . E x p l ic a c ió n I n d u c t iv o E s t a d ís t ic a (IE )

En la explicación NDP explicamos un hecho particular subsumiéndolo bajo cier­


tas leyes, donde por subsunción se entiende la derivación deductiva del hecho a partir de
las leyes y de determinadas condiciones antecedentes. En ese sentido la ocurrencia del he­
cho particular se muestra (nóm ica m en te ) esperable o predecible', el explanandum se p r e ­
dice (si todavía no ha ocurrido), o se hubiera p o d id o p red e c ir (si ya se ha producido), a
partir del explanans. Ésta es la razón de la identificación qüe (salvo a efectos pragmáti­
cos) hace Hempel entre explicación y predicción. En las explicaciones NDP la esperabili-
dad es to ta l , pero el núcleo de esta idea, la explicación de hechos particulares como espe-
rabilidad nómica, se puede aplicar también según Hempel a casos en los que la esperabili-
EXPLICACIÓN CIENTÍFICA 237

dad no es total. Eso es lo que sucede cuando explicamos p.ej. el cáncer de pulmón de Luis
mediante el hecho de que llevara más de cuarenta años fumando tres paquetes al día y la
ley estadística que afirma que la práctica totalidad de las personas que fuman tres paque­
tes diarios durante cuarenta años acaba desarrollando cáncer de pulmón. Esta explicación
también hace al hecho particular esperable, dado el explanans, aunque ahora no tota lm en­
te esperable sino sólo alta m en te esperable. También aquí se explica un hecho particular
subsumiéndolo bajo regularidades nómicas, pero ahora por subsunción no se entiende su
deducción a partir de las leyes y de ciertas condiciones antecedentes, sino algo más débil,
a saber, que se infiere de ellas in d u ctiva m en te ; el explanandum se sigue o infiere del ex­
planans, no necesariamente, pero sí muy probablemente. En circunstancias como éstas,
sostiene Hempel, el hecho particular también se puede considerar explicado.
Hempel denomina in ductivo-estadística (IE) este tipo de explicación. Las explica­
ciones de hechos particulares IE son, como las NDP, argumentos o inferencias mediante
cobertura legal, sólo que ahora la inferencia es inductiva, y entre las leyes del explanans
hay al menos una probabilista. Las condiciones adicionales a (l)-(3) que las caracterizan
son pues las siguientes:

(13) El explanandum es un hecho particular.


(14) El explanans contiene esencialmente al menos una ley estadística, y todas
las regularidades (empíricas) que contiene esencialmente son leyes. Por (2)
y (13), el explanans incluye también como condiciones antecedentes deter­
minados hechos particulares, las condiciones antecedentes.
(15) La relación de explicación es la de inferencia lógica inductiva.

El explanandum es un hecho particular sin m á s (p.ej. que Luis tiene cáncer), no


es un hecho particular p r o b a b ilis ta ; nótese que si, contrariamente a lo que piensa Hem­
pel, hubiera hechos particulares probabilistas absolutos (p.ej. que la probabilidad de que
Luis tenga cáncer es muy alta), la explicación de tales hechos sería una inferencia d e ­
ductiva. Como siempre, todas las generalizaciones que contiene el explanans han de ser
nómicas, pero ahora al menos una debe ser probabilista, dé otro modo no se podría infe­
rir inductivamente el explanandum (por supuesto el explanans puede incluir además
otras leyes no estadísticas). Quizá se piense que en este caso las regularidades estadísti­
cas meramente accidentales podrían servir. Si se da la alta correlación estadística, ¿qué
más da que sea accidental? Pero no. Que la alta correlación estadística sea accidental es
indiferente para que el argumento inductivo sea válido, pero no para que sea una expli­
cación. No toda inferencia es explicativa, sólo lo son aquellas que envuelven necesidad,
esto es nomicidad. Quizá se objete que donde hay probabilidad no hay necesidad, que
no hay leyes probabilistas; o, al contrario, que no hay regularidades estadísticas acci­
dentales, que toda regularidad estadística es nómica en el sentido en que puede haber re­
gularidades estadísticas nómicas. Éstas son otras cuestiones, que ya comentamos y so­
bre las que no vamos a volver ahora (cf. cap. 5, §5). Pero, si hay diferencia entre gene­
ralizaciones estadísticas nómicas y accidentales, entonces sólo las primeras confieren
carácter explicativo a la inferencia inductiva; ellas hacen al hecho esperable, las mera­
238 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

mente accidentales no. Que esta moneda sea dorada no se explica porque estuviera en
Nochevieja de 1990 en el bolsillo derecho de los pantalones de Quine y que en tal oca­
sión el 95 % de las monedas en ese bolsillo fuesen doradas (aunque sí se infiere inducti­
vamente de ambas premisas).
Las explicaciones IE se pueden esquematizar, siguiendo las convenciones anterio­
res, del siguiente modo:

IE
Lu ** * 5

Pu .... Pk
C [ , . . . , Cm
M
e

Aquí ‘[r]* denota el grado de soporte inductivo que el explanans confiere al expla-
nandum. Nótese que en estos casos n puede ser 0, esto es, el explanans puede contener
quizá sólo leyes estadístico-probabilistas. Y en el caso más simple el explanans tiene una
única ley, estadística; así, en el ejemplo del cáncer de Lüis, si A es la propiedad de desa­
rrollar cáncer de pulmón y B la de haber fumado tres paquetes diarios durante cuarenta
años, tenemos el siguiente esquema:

p (A /B) es próxima a 1
Ba
[próximo a 1]
Aa

Otro ejemplo que se ajusta a este patrón simple es la explicación de la cura de Juan de
una infección por estreptococos a partir del hecho de que la inmensa mayoría de tales in­
fecciones remite al tratarse con penicilina y de que Juan se ha infectado y se ha tratado
con penicilina (cf. Hempel, 1965, §3.3). Un ejemplo de explicación IE un poco más com­
pleja es el siguiente (ibid.). El hecho a explicar es la reducción, en 7,64 días, de una
muestra particular de radón de 10 a 2,5 miligramos por desintegración radiactiva. Este he­
cho se explica porque: á) la muestra es de radón, b) la probabilidad de que un átomo de
radón se desintegre en 3,82 días es 0,5, c) las desintegraciones de diferentes átomos de ra­
dón son sucesos estadísticamente independientes, y d) 10 miligramos de radón contienen
un cantidad muy elevada de átomos (y, habría que añadir en el explanans, tales y cuales
principios de la teoría de la probabilidad que se usan en la inferencia inductiva).
Este es el núcleo del análisis que hace Hempel de las explicaciones inductivas.
Este análisis se enfrenta a muchas de las dificultades que vimos en las explicaciones
NDP, o las versiones inductivas de las mismas, y además a otras específicas. Concluire­
mos con tres problemas principales. El primero cuestiona que la alta probabilidad sea un
condición suficiente para la explicación. El segundo, que sea una condición necesaria. El
tercero, la ambigüedad inductiva, lo presenta el propio Hempel y para resolverlo introdu­
ce una modificación sustancial.
EXPLICACIÓN CIENTÍFICA 239

P8: Irrelevancia in d u ctiva .Es la versión inductiva del problema de la irrelevan­


cia que vimos en las explicaciones NDP, Es una regularidad nómica que la mayoría de
resfriados tratados con vitamina C remiten a la semana. De ella, junto con el hecho de que
Ana tome vitamina C la primera semana de su resfriado, se infiere con alta probabilidad
que su resfriado remitirá a la semana. Sin embargo, no se puede considerar una explica­
ción de la cura de Ana pues la mayoría de resfriados remiten a la semana también sin to­
mar vitamina C. Otro ejemplo típico es el de las neurosis. Que Pedro siguiera una terapia
durante un año y que la mayoría de las neurosis tratadas con psicoterapia remiten al año
implica inductivamente que la neurosis de Pedro remitiera al año, pero no lo explica, pues
la mayoría de las neurosis remiten al año también sin psicoterapia. Así pues, la alta pro­
babilidad de la inferencia inductiva no es suficiente para obtener una explicación estadís­
tica genuina.

P9: E xp lic a c io n es in d u ctiva s co n b a ja p ro b a b ilid a d .


Un famoso ejemplo que
ya mencionamos en el capítulo 2 (§3), y que se debe originalmente a Scriven (1959),
pone en cuestión que la explicación requiera alta probabilidad. El ejemplo pretendía en
principio cuestionar la tesis de la simetría entre explicación y predicción, presentando
un caso de buena explicación que, dada la baja probabilidad, no se puede considerar
buena predicción. Pero también presenta un problema para el análisis de la explicación
inductiva que Hempel ofrecería poco después. Supongamos que el alcalde ha enferma­
do de paresis. Una buena explicación de ese hecho parece la siguiente: la paresis es una
forma de sífilis terciaria que se da sólo entre los individuos que no se han tratado con
penicilina y han llegado al estadio latente de la enfermedad, aunque no se da en todos
sino aproximadamente en sólo un 25 % de ellos; el alcalde contrajo sífilis, no se trató
con penicilina y ha llegado al estadio latente de la enfermedad. En opinión de Scriven,
Salmón y otros, esto es una buena explicación, pero claramente es un mal argumento
inductivo pues el soporte inductivo que confiere el explanans al explanandum es
muy bajo. Hay explicación sin alta probabilidad, sin alta esperabilidad. Así pues, la
alta probabilidad no parece tampoco una condición necesaria para la explicación es­
tadística.

PIO : A m b ig ü e d a d in d u ctiva . Hempel mismo menciona una dificultad del es­


quema básico IE que obliga a una modificación sustancial del mismo. Es el problema de
la a m b ig ü ed a d exp lica tiva de las explicaciones IE. El problema se deriva de un hecho
que ya comentamos en el capítulo 2 (§3). En esencia, consiste en que podemos tener dos
explanans ambos verdaderos de los que se infieren con alta probabilidad inductiva
dos explananda contradictorios. Supongamos que la probabilidad r de tener la propiedad
A si se tiene la propiedad B , p {AiB) = r, es muy alta, próxima a 1; que la probabilidad $
de ser A si se es C, p (A /C ) = s , es muy baja, próxima a 0, de donde la probabilidad
p(no-A/C) de no ser A si se es C es 1-5, por tanto muy próxima a 1; y que cierto indivi­
duo a tiene a la vez las propiedades B y C. Consideremos entonces los siguientes argu­
mentos:
240 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

p(A/B) = r p(no -A/C ) = 1-s


Ba Ca
[r] [1-s]
Aa no A a

Estos argumentos son inferencias inductivas válidas, y satisfacen además las con­
diciones para ser explicaciones IE. Parece entonces que puede haber explicaciones ade­
cuadas con explanantes ambos verdaderos y explananda contradictorios. Volvamos al
ejemplo de Hempel de la infección con estreptococos. Si la infección es de una cepa espe­
cial resistente al medicamento entonces la inmensa mayoría no se cura. Aquí, A es curar­
se, B es “infectarse (/) y tomar penicilina (?)” y C es “infectarse con la cepa especial (E)
y tomar penicilina (F)”. Supongamos que Juan tiene una infección por estreptococos y
que toma penicilina, pero que los estreptococos son de la cepa especial. Entonces pode­
mos explicar tanto que se cure como que no se cure. Así es como lo reconstruye Hempel
(cf. 1965, §3.4.1), aunque sería más apropiado, como hace Salmón (1989, §2.4.2), consi­
derar que B es infectarse y tratarse con penicilina y que C es B & H t siendo H que los es­
treptococos son de la cepa especial, pues eso parece una especificación a añadir a B, Este
tipo de casos, en los que condiciones adicionales van invirtiendo la probabilidad, es muy
común. La probabilidad de que no te moleste la policía en Barcelona es alta; pero si eres
norteafricano, pasa a ser baja; si, aunque seas norteafricano, vas elegantemente vestido y
con un acompañante europeo, vuelve a ser alta; pero si el acompañante tiene aspecto de
drogadicto, se vuelve a invertir; etc. Conviene señalar, sin embargo, que el problema de la
ambigüedad no se limita a estos casos, puede darse con condiciones no acumulativas; por
ejemplo: la probabilidad de que un fumador de más de tres paquetes diarios muera antes
de los ochenta años es alta; la probabilidad de que alguien con dieta equilibrada y que
practica deporte asidua y moderadamente muera antes de esa edad es baja; Juan fuma esa
cantidad, y también lleva una dieta equilibrada y practica deporte; tenemos dos explica­
ciones IE con premisas compatibles de hechos contradictorios.
Nótese que el problema no es que puede haber argumentos inductivos válidos con
conclusiones contradictorias. Eso también pasa con los deductivos. El problema es que pue­
de haber argumentos inductivos válidos con conclusiones contradictorias y tales que las
p rem isa s de am bos son verd a d era s . Eso no puede suceder con los deductivos, pues dos
grupos de premisas de las que se deducen conclusiones contradictorias no pueden ser
verdaderas a la vez, son también contradictorias. Esto no es un problema para las in feren­
cias inductivas en cuanto tales, pues es previsible que ello ocurra dado su carácter induc­
tivo. En cambio es un problema si queremos considerar tales inferencias explicaciones in­
ductivas, pues la noción de explicación excluye, ajuicio de Hempel, que dos grupos de
hechos puedan ser simultáneamente verdaderos y explicar cosas contradictorias. Podría
argüirse que el supuesto problema no es realmente tal, pues de las dos explicaciones sólo
una puede ser una explicación real en el sentido precisado más arriba, a saber, sólo en
una el explanandum es verdadero, ocurre efectivamente. Pero esta escapatoria no es muy
satisfactoria. El problema no es que haya de hecho explicaciones compatibles de hechos
“que ocurren” incompatibles; ése no sería un problema pues no hay tales pares de hechos.
El problema es que p o d ría haber explicaciones compatibles de hechos “posibles” que
EXPLICACIÓN CIENTIFICA 241

fu e se n incompatibles. Y eso parece un problema genuino independientemente de que por


supuesto sólo pueda ser verdadero uno de los dos explananda.
La solución de Hempel consiste en imponer un requisito adicional para poder con­
siderar explicativa una inferencia inductiva. Como la ambigüedad se debe a que una ex­
plicación introduce información relevante nueva respecto de la otra, la idea es imponer
alguna constricción al respecto. La alternativa más radical es imponer el requisito de evi­
dencia total (o de los elem entos de ju ic io totales ) a saber, que la inferencia sea tal que no
haya evidencia disponible adicional que cambie el grado de apoyo inductivo. Aunque ini­
cialmente Hempel pensó en esta alternativa (cf. Hempel, 1962), en seguida se dio cuenta
de que es excesiva (1965, n. 73). Si se exige que el explanans contenga toda la evidencia
relevante disponible, y puesto que a menudo el explanandum no sólo es verdadero sino
que se sabe que lo es, entonces el explanandum mismo formará parte de la evidencia en el
momento de la explicación y debería por tanto incluirse también en el explanans. Esto se­
ría fatal pues convertiría la inferencia en deductiva, y ni siquiera en el modelo recogido
en NDP (puesto que no se usaría esencialmente ninguna ley), se inferiría el explanandum
trivialmente de sí mismo. Esta alternativa tendría pues como consecuencia el incumpli­
miento de una condición básica de toda explicación, tanto deductiva como inductiva, a
saber, que en el explanans intervenga esencialmente alguna ley; por tanto, de exigirse,
implicaría que no hay explicaciones IE.
Hempel impone una condición más débil sobre la información disponible en el
momento de la explicación, el requisito de m áxim a esp ecificid a d (RME). Sea K el con­
junto de hechos aceptados (incluyendo sus consecuencias lógicas) en el momento de la
explicación. El problema de la ambigüedad se da cuando K tiene subconjuntos que dan
alto apoyo inductivo a conclusiones contrarias, lo que sucede básicamente cuando hay le­
yes p {A!B) = r, p(A/C) = 5 tales que r es cercano a 1, 5 es cercano a 0, y la evidencia con­
tiene tanto B a como Ca. La idea es entonces no considerar explicativas estas inferencias
inductivas en esa situación cognoscitiva. El RME establece aproximadamente lo siguiente
(cf. 1965, §3.4.2).

RME Sea S el explanans, que incluye la ley p (AIB) = r y el hecho Ba:


Si S a K implica que a pertenece también a alguna otra clase (tiene tam­
bién alguna otra propiedad) D que es subclase de B (e.e. D = & E, para
alguna propiedad E ), entonces S a K implica p {AID) = p {AIB).

Esto es, la clase de referencia B es, relativamente a K , (epistém icam ente) h o m o g én ea ; se­
gún el conocimiento expresado en K , B no contiene subclases en las que la probabilidad
de ser A varíe respecto de la que se da en B. De otro modo: B no tiene, según K, particio­
nes o especificaciones relevantes, todas las particiones que podamos hacer añadiendo
otras propiedades a B son, según la evidencia disponible, estadísticamente irrelevantes a
efectos de qué sucede con A . Es en ese sentido que el explanans contiene toda la informa­
ción relevante, el resto de información disponible es irrelevante a efectos explicativos,
añadirla no cambia las cosas p o r lo que al h echo a exp lica r se refiere.
Ésta es la condición que va a exigir Hempel. Una inferencia inductiva se conside­
242 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

ra racionalm ente aceptable com o explicación en la situación cognoscitiva representada


p o r K sí (además de las condiciones anteriores) satisface RME. Es sencillo ver que este
requisito bloquea los casos de ambigüedad, que descarta las explicaciones intuitivamente
insatisfactorias y preserva, en principio (cf. infra ), las intuitivamente aceptables. El nuevo
requisito es claramente violado en esos casos especiales en los que la sucesiva inclusión
de nuevas propiedades en el antecedente de la ley probabilista provoca inversiones suce­
sivas de la probabilidad. Pero no sólo eso, es fácil ver que RME también bloquea los ca­
sos más generales. Supongamos que queremos explicar A a a partir de B a y de la ley
p (A /B) = r. Relativamente a cierto K, tenemos que p (A/B) ~ r es cercana a 1, y además
que para cierta propiedad C, p {AIC) = s es cercana a 0, y que conjuntamente con B a ocu­
rre también Ca. Si se cumpliera RME, y puesto que de K se sigue B a a Ca, tendríamos
entonces tanto p (A /B) = p(A/£ & C) como p(A/C) = p (AIB & C), de donde se sigue
p(A/¿?) = p {AIC), lo que es imposible en la situación supuesta. Así pues, ese tipo de situa­
ciones, las que provocan los problemas de ambigüedad, no pueden satisfacer RME.
Conviene notar que RME elimina la ambigüedad en un sentido todavía más gene­
ral, no explicitado por Hempel. En efecto, la prueba anterior muestra que dos inferencias
inductivas válidas que utilicen, respectivamente, las leyes p(A/B) - r y p {AIC) = s, siendo
tanto r como s cercanos a 1, no pueden satisfacer RME s i r y s son d iferen tes . Esto es, si
hay dos inferencias inductivas alternativas del mismo hecho, ambas con elevada p e ro d i­
fe re n te probabilidad, ninguna de ellas puede considerarse racionalmente aceptable como
explicación. En efecto, ninguna puede satisfacer RME pues éste exige (ya que a partir de
K tenemos B a a Ca) tanto p (A /B ) = p(AIB & Q como p(AIC) = p(A iB & Q , lo que es
imposible si p (A /B) y p ( A /Q son diferentes. Eso deja todavía cierto problema de ambi­
güedad a nivel más profundo, a saber, qué hacer en caso de que haya dos buenas alternati­
vas inductivas que apelen a diferentes leyes (y por tanto a diferentes condiciones antece­
dentes) que asignan el m ism o alto grado de probabilidad. Estos casos satisfarían RME,
por tanto a m b a s inferencias contarían como explicaciones racionalmente aceptables, por
lo que se daría una situación de indeterminación explicativa. Aunque entonces no lo men­
cionamos, lo mismo ocurre con las explicaciones deductivas NDP. La cuestión de fondo
aquí es en qué medida se da verdadera indeterminación. Se dará verdadera indetermina­
ción en la medida en que los dos explanantes a que se apela sean verdaderam ente diferen­
tes, esto es, no estén nómicamente conectados. Las dos alternativas pueden ser sólo a pa­
rentem ente diferentes si una ley se sigue de la otra o ambas se siguen de una tercera. Esto
vuelve a plantear las relaciones entre explicación y causalidad y, con ello, la adecuación
del análisis de la explicación como mera esperabilidad nómica.
Por último, y como señala el propio Hempel, RME introduce una asimetría funda­
mental entre las explicaciones IE y las NDP pues tiene el efecto de relativizar epistémica-
mente las primeras. Una inferencia inductiva es o no una explicación inductiva, no sin
más, sino sólo relativam ente a cierta situación cognoscitiva K. Por tanto, en estas expli­
caciones no interviene sólo el explanandum, el explanan s y la relación explicativa, inter­
viene además un cuerpo de evidencia disponible K: S explica e relativamente a K. Hem­
pel denomina esta característica la esencial relativización epistém ica de la explicación es­
tadística. Sobre esta cuestión volveremos más adelante.
EXPLICACIÓN CIENTÍFICA 243

3. Relevancia estadística

El ejemplo de la paresis cuestiona que la elevada probabilidad sea una condición


necesaria de las explicaciones estadísticas. Además de Scriven, otros autores como Jef-
frey, Greeno, Salmón y Railton plantearon críticas parecidas y desarrollaron sus propias
propuestas. Jeffrey (1969) defiende que cuando un mecanismo estocástico da lugar a re­
sultados con diferente probabilidad, unos muy probables y otros muy poco, co m p ren de­
m os igual la ocurrencia de los probables que la de los improbables. Greeno (1970) desa­
rrolla una teoría informacional de la explicación estadística centrada en el concepto de
transmisión de información, analizado en términos de relevancia estadística. Según estos
autores, las explicaciones estadísticas de sucesos particulares no son inferencias inducti­
vas. Quien ha desarrollado una alternativa más elaborada en esta línea ha sido W. Salmón
en una serie de trabajos iniciados en los años setenta (1970, 1971, 1977, 1978). Otra línea
alternativa es la de Railton (1978, 1980), quien defiende que hay explicaciones de suce­
sos con baja probabilidad, pero a la vez que esas explicaciones sí son en parte inferencia-
les. Una explicación de un hecho probabilista particular consta de a) una inferencia d e ­
ductiva de que el h echo tiene cierta p ro b a b ilid a d , y b) un addendum que establece que el
suceso ha ocurrido. La explicación contiene por tanto una inferencia, aunque no una infe­
rencia inductiva que concluye con alta probabilidad el hecho, sino una inferencia deducti­
va que concluye que el hecho tiene determinada probabilidad, para lo cual no importa que
ésta sea alta o baja. No vamos a examinar aquí los detalles de esta alternativa. Vamos a
centrarnos en el análisis que más influencia ha tenido, el de Salmón, conocido como m o ­
delo de la relevancia esta d ística sta tistica l releva n ce ’).
La idea básica de este nuevo análisis es que, para tener una explicación estadística
satisfactoria, las condiciones antecedentes no deben, con ayuda de una ley, hacer altamen­
te probable el explanandum, sino que simplemente deben ser un factor estadísticam ente
relevante para el explanandum. Por factor estadísticamente relevante se entiende un fac­
tor que modifica la probabilidad del suceso, e.e. tal que las probabilidades del suceso to­
mando en cuenta el factor y sin tomarlo en cuenta son diferentes. Si llamamos p ro b a b ili­
d a d anterio r a la probabilidad sin tomar en cuenta el factor, y p ro b a b ilid a d p o sterio r a la
probabilidad tomándolo en cuenta, un factor es estadísticamente relevante si m arca una
diferencia entre las probabilidades anteriores y las posteriores. Así, por ejemplo, explica­
mos la paresis del alcalde apelando a su sífilis latente no tratada pues ese factor es esta­
dísticamente relevante, aunque no haga muy probable el suceso. Veamos las principales
nociones con cuya ayuda se articula esta idea (cf. p.ej. 1984, cap. 2, y 1989, §3.1).
El explanandum, según Salmón, no es simplemente del tipo “a es A”, p.ej. que Pe-
ter es delincuente. La pregunta no es “¿por qué a es A?” sino “¿por qué a , que es B, es
también A?”, “¿por qué Peter, un joven californiano, es delincuente?”. La clase (o propie­
dad) B es la clase de referen cia , y la explicación consiste en identificar un factor C que,
en esa clase de referencia, es estadísticamente relevante para ser A, p.ej. “Peter, además
de ser joven californiano, es un inmigrante ilegal”, donde ser inmigrante ilegal es, entre
los jóvenes californianos, estadísticamente relevante para ser delincuente (ahora identifi­
caremos propiedades, clases, atributos y factores).
244 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

En la explicación se usa una cierta partición de la clase de referencia. Una partición


es una subdivisión de esa clase en subclases no vacias excluyentes y que conjuntamente
agotan la clase de referencia. El ejemplo dado es incompleto porque no se ha especificado
la partición. Puede ser que la clase de los jóvenes californianos se haya partido en dos, in­
migrantes ilegales (B i) y no inmigrantes ilegales (52); o en tres, inmigrantes ilegales (£?,),
inmigrantes legales (B 2) y no inmigrantes (£3). Otra partición, con otros atributos, sería:
drogadicto de clase alta (5]), drogadicto no de clase alta (ü2), no drogadicto y de clase alta
(S3), y ni drogadicto ni de clase alta (S4); otra estaría formada por las seis subclases resulta­
do de combinar ser varón o ser mujer con ser de clase alta o ser de clase media o ser de cla­
se baja. A las subclases (B & B¡) de una partición se las denomina celdas. Una partición de
B es relevante respecto de cierto atributo A {A-relevante) si la probabilidad p {AiB & B¡) es
diferente en cada celda. Una partición de B es homogénea respecto de cierto atributo A
(A-hom ogénea ) si sus celdas no tienen particiones A-relevantes, esto es, si no es posible
subdividir las celdas A-relevantemente. La idea es que una partición de B es A-homogénea
si no podemos refinarla introduciendo nuevos factores relevantes para A. La homogeneidad
es epistém ica si no conocem os tales nuevos factores, es objetiva si no hay tales factores.
Así, la partición de jóvenes californianos en inmigrantes ilegales y no inmigrantes ilegales
es delincuencia-relevante, pero no es ni objetiva ni epistémicamente delincuencia-homogé­
nea, pues hay factores, y los conocemos, que la refinarían delincuencia-relevantemente
(p.ej. renta anual, drogadicción, situación laboral, etc.).
Con estos conceptos, Salmón puede formular su análisis de modo preciso. Por lo
dicho hasta aquí, y por los ejemplos, cabría esperar que la propuesta consistiera en susti­
tuir la elevada probabilidad por la relevancia estadística po sitiva , esto es, el explanans no
tiene por qué hacer m uy probable el explanandum, basta con que lo haga m á s probable.
La sífilis latente no tratada no hace m uy probable la paresis, pero sí la hace m ás proba­
ble que su ausencia; conocer ese factor positivamente relevante basta para comprender el
hecho. Aunque al principio Salmón pensó su alternativa en estos términos, al desarrollarla
llegó a la conclusión de que “no se requiere relevancia positiva, la relevancia negativa
puede tener también alcance explicativo (*explanatory im p o rt ’)” (Salmón, 1989, p. 67;
como comentaremos más adelante, esto es parcialmente confundente). Las explicaciones
estadísticas se caracterizan pues por las siguientes condiciones.

(16) El explanandum es un hecho singular que establece que cierto individuo


que pertenece a cierta clase de referencia B tiene cierto atributo A: “a, que
es B , es también A”.
(17) El explanans consta de: (i) la probabilidad anterior p {AIB) = r, (ii) una par­
tición B & B\, B & ¿?2, ... de B, junto con las probabilidades posteriores
p (AIB & B ¡) = r h p(A/¿? & B 2) = r2, ...; (iii) el supuesto de que la partición
es A-relevante y A-homogénea; (iv) la condición antecedente de que a tiene
además determinada propiedad B k, e.e. que pertenece a una determinada
celda B & Bk de la partición. Los hechos estadísticos relativos a las pro­
babilidades anteriores y posteriores son generalizaciones nómicas, leyes na­
turales.
EXPLICACIÓN CIENTÍFICA 245

(18) La relación explicativa es la de relevancia esta d ística : el explanas explica


el explanandum syss p(A/fí & B k) & p(A/5).
(SÍ exigiéramos relevancia po sitiva , debería sustituirse V ’ por *>’.)

Como se ve, éste es también un modelo de cobertura legal, se explica un hecho


particular apelando a otros hechos particulares y a ciertos hechos generales que son leyes
naturales. Además, se impone un requisito equivalente al RME de Hempel, a saber, que el
atributo B k que usa el explanans no se pueda especificar más de modo relevante para la
ocurrencia del explanandum. Puesto que la homogeneidad de la partición puede ser epis-
témica u objetiva, una explicación se considerará adecuada objetiva o epistémicamente en
función del tipo de homogeneidad que satisfaga la partición del explanans. Aunque no
podemos realizar explicaciones más que apelando a lo que conocemos, la fin a lid a d de la
ciencia es proporcionar explicaciones o b jetivam ente adecuadas. Por último, aunque de
cobertura legal, éste no es un modelo inferencial. Las explicaciones no son argumentos.
Propiamente, no son argumentos ni las explicaciones estadísticas, ni tampoco las que
usan leyes no estadísticas y que Hempel reconstruía como inferencias deductivas. Cuando
se usan leyes no estadísticas, lo que ocurre simplemente es, en términos de Salmón, que
la partición relevante y homogénea contiene únicamente dos celdas y que la probabilidad
posterior de la celda destacada es 1 y la de su complementaria es 0 (esto se deriva de que,
por un lado, \fx{B x -> A x) implica p iA lB ) = 1 y p(no-A/B) = 0; y por otro lado también
implica V x(B x a ... -» A x), haya lo que haya en y por tanto que p {A!B & ...) = 1, haya
lo que haya en de donde la partición homogénea contiene sólo las celdas de B y de
no-5). En este caso, a diferencia de las explicaciones inductivas, no hay mucha diferencia
en considerarlas así o “a lo Hempel”.
Salmón reconoce que la objeción más inmediata a que se enfrenta su análisis es
la de que las m era s relaciones estadísticas no exp lica n nada, como sugerían los ejem­
plos del resfriado (irrelevancia) o el barómetro (causa común). Pero, en su opinión, jus­
tamente aquí se manifiestan los beneficios de su análisis, pues no sólo acomoda las ex­
plicaciones con baja probabilidad del explanandum sino que excluye casos como ésos
con alta correlación estadística pero no explicativos. Los casos de irrelevancia quedan
claramente excluidos pues en ellos no se da la relación explicativa de relevancia: la pro­
babilidad anterior p(A/¿?) (curarse, si se ha estado resfriado una semana) y posterior
p (AIB & C) (curarse, si se ha estado resfriado una semana y se ha tomado vitamina C)
son la misma. Pero también quedan excluidos los casos de causa común, como el del
barómetro. Veámoslo.
Sea la clase de referencia B los acaecimientos que ocurren en el entorno de casa, y
las propiedades A “ser una tormenta”, C “ser una bajada brusca del barómetro” y D “ser
una bajada brusca de la presión atmosférica”. La partición no puede ser sólo B & C y B &
no-C; ésta no es una partición homogénea pues no contempla el factor adicional D , la ba­
jada de la presión, que permite refinarla A-relevantemente. Pero si introducimos D , enton­
ces C se toma irrelevante pues la probabilidad de la tormenta dada la bajada de presión no
varía porque el barómetro baje o no. Tenemos pues que p(A/B & C & D) = p {AIB & D) =
p (A /B & no-C & D ), y por tanto, si la partición incluye C (y no-C) entonces no es A-rele­
246 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

vante pues hay dos celdas (la de C y la de no-C) con las mismas probabilidades posterio­
res. Así, C no puede entrar en la explicación dada la presencia de D .
Éste es el núcleo de la idea que Salmón reconstruye técnicamente de modo preci­
so mediante la noción de desplazam iento ( ‘screening o f f \ literalmente “tapar”). No va­
mos a ver los detalles, pero la idea es la apuntada: D desplaza C en relación con A en el
sentido de que lo convierte en irrelevante. Se podría objetar que entonces también se pue­
de presentar la situación a la inversa, como si la bajada del barómetro desplazara la de la
presión en relación con la tormenta. Salmón rechaza esta posibilidad aduciendo que, al
menos en casos como éste, la correlación entre el barómetro y la tormenta no es exacta­
mente igual que entre la presión y la tormenta. Por ejemplo, es posible que el barómetro a
veces funcione mal, esto es, que a veces baje sin que baje la presión o no baje aunque
baje la presión, sin que ello afecte para nada a la ocurrencia de la tormenta. Salmón tiene
razón que en ese caso C no desplaza D respecto de A, pero hay que advertir que esa salida
no vale en casos en los que las correlaciones estadísticas entre la causa y cada uno de sus
efectos sean exactam ente las m ism a s (p.ej. que los barómetros siempre funcionaran bien,
o que las “tormentas funcionaran mal” en las mismas ocasiones que los barómetros). É sa
es al menos parte de la motivación de este tipo de ejemplos, y esa parte queda sin re­
solver.
Durante un tiempo, Salmón pensó que podía articular su concepción sin usar ex­
plícitamente conceptos causales, que podía ca p tu ra r los conceptos causales mediante los
estadísticos (cf. 1971). Ya hemos visto cómo aborda algunos contraejemplos “causales” a
la teoría de Hempel mediante su aparato de particiones, relevancias estadísticas y despla­
zamientos. Sin embargo, como consecuencia de dificultades como la apuntada al final del
párrafo anterior (cf. 19S4, caps. 2 y 6), acaba desistiendo de esa idea y se convierte en
uno de los principales defensores de los análisis directamente causales. Las relaciones de
relevancia estadística seguirán siendo de interés, pero sólo como indicios o síntomas
de las relaciones causales. Esta evolución es coherente con uno de los aspectos más con­
trovertidos de su análisis, la caracterización de la relación explicativa como mera relevan­
cia estadística, sin exigir que la relevancia sea positiva. ¿Podemos explicar que M. That-
cher, que es inglesa, haya sido Primera Ministra apelando a que es mujer? Quizá Salmón
proteste y diga que la partición involucrada no es homogénea, pero ésa no es la cuestión.
¿Podemos explicar que John sea presidente de una multinacional apelando a que es hispa­
no, inmigró ilegalmente, sus padres eran alcohólicos, sus hermanos drogadictos, vivió en
el peor barrio de Los Angeles, no fue a la escuela, estuvo en la cárcel, y añadiendo tantos
factores negativamente relevantes como haga falta hasta que la celda resultante lo sea de
una partición homogénea?
Salmón insiste en que los factores negativos contribuyen a la comprensión tanto
como los positivos. Cuando precisa algo esta idea, recurre a las sugerencias de Jeffrey so­
bre los mecanismos causales estocásticos (Salmón, 1989, p. 67), o a las de Humphreys
sobre causas p ro p icia tiva s y resistivas ( ‘contributing a n d counteracting c a u s e s \ Salmón,
1984, p. 46; cf. más adelante sec. 5). Si se puede articular esta idea, será seguro en térmi­
nos causales, no meramente estadísticos. Pero aun así no parece claro que se pueda expli­
car un hecho recurriendo como condiciones antecedentes sólo a causas resistivas, y eso es
EXPLICACIÓN CIENTÍFICA 247

lo que permitiría la versión causal de la condición (17) de Salmón si, como él hace, exige
sólo que la probabilidad posterior sea diferente a la anterior, no que sea mayor. Quizá la
idea de Hempel de que el explanans hace total o altamente esperable el explanandum es
discutible, pero de ello no se sigue que explicación y esperabilidad no tengan nada que
ver entre sí. La presencia del explanans debe hacer al menos más esperable al explanan­
dum que su ausencia.

4. Pragm ática de la explicación

En los análisis vistos hasta aquí, la explicación es independiente del contexto


pragmático, es algo que se da o no en virtud de que entre ciertos hechos se dé o no una
relación objetiva. Una posible excepción es el análisis que hace Hempel de la explica­
ción estadística particular, pues las explicaciones IE están, debido al principio RME,
esencialmente relativizadas al contexto co g n o scitivo . Sin embargo, esta relativización al
contexto es en cierto sentido débil pues el contexto cognoscitivo es demasiado “rígido”
en cada momento, el conjunto de creencias aceptadas se puede considerar (aunque
vago) aproximadamente estable en los diversos contextos científicos en un momento
dado. Vamos a considerar ahora un análisis de la explicación según el cual ésta es de­
pendiente del contexto en un sentido mucho más radical, depende de elementos pragmá­
ticos, como deseos e intenciones, que varían mucho más fuertemente de contexto a con­
texto. Sólo así, según los proponentes, se puede dar cuenta de los problemas que hemos
venido discutiendo.
Los principales autores que defienden este enfoque pragmático son Bromberger,
Achinstein y van Fraassen. Bromberger (cf. 1962, 1966) realiza un análisis lingüístico del
término ‘explicar’ como verbo de logro (frente a verbos de estado , p.ej. ‘conocer’, y de ac­
ción , p.ej. ‘pasear’). A partir del estudio de la lógica de las preguntas “¿por qué?”, establece
las características que debe tener una respuesta para ser considerada una explicación adecua­
da. Achinstein (cf. 1983, 1984) desarrolla una teoría ilocucionaria de la explicación. Expli­
car, como prometer o mentir, es un acto ilocucionario (en el sentido de J. L. Austin), un acto
de habla cuyo logro depende de las intenciones del hablante. La misma proferencia con el
mismo contenido preposicional, p.ej. ‘anoche John bebió mucho’, puede ser una explicación,
proferida por el médico con la intención de explicar la enfermedad de John, o no ser una ex­
plicación, proferida por su mujer sin esa intención, p.ej. con la intención alternativa de recri­
minarle. No vamos a presentar ni siquiera superficialmente estos análisis, nos limitaremos a
examinar las líneas generales del que más influencia ha tenido, el de van Fraassen (cf. 1977,
1980, cap. 5). Van Fraassen elabora su análisis pragmático de la explicación en conexión con
los trabajos de Bromberger, la propuesta de B. Hansson (1974) sobre los elementos de con­
traste y la lógica erotética de Belnap (cf. Belnap y Steel, 1976), junto con una lectura particu­
lar de la teoría aristotélica de las cuatro aitíai.
Un elemento central de su análisis, que atribuye a B. Hansson, es la idea de clase
de contraste. Las explicaciones son respuestas a P -preguntas (recuerde el lector que una
P-pregunta es una pregunta “¿por qué?”) y toda pregunta de ese tipo lleva asociada, explí­
248 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

cita o implícitamente, una clase de contraste sin la cual no se pregunta propiamente nada.
La oración interrogativa ‘¿por qué fue Juan a la fiesta?’ puede expresar preguntas diferen­
tes, p.ej. a ) “¿por qué fue Juan a la fiesta?”, o b) “¿por qué fue Juan a la fie s ta ? '. En el
primer caso se pide una razón de que fuera Juan, y no otra persona, a la fiesta; en el se­
gundo, se pide una razón de que Juan fuera a la fiesta y no a otro lugar. Ambas son pre­
guntas diferentes y requieren respuestas diferentes. Una P-pregunta, por tanto, debe in­
cluir (aunque usualmente quizá sólo de modo implícito determinado por el contexto), una
clase de alternativas frente a las que se contrapone el hecho por cuya razón se inquiere.
La forma explícita de una P-pregunta es entonces la siguiente: “¿por qué a, contrariamen­
te a p], p2, ...?”. Van Fraassen denomina a a el tem a de la pregunta, y a la clase X = {a,
pi, p2, ...] de todas las alternativas, incluido el tema, clase de co n tra ste.
El tema y la clase de contraste no bastan, sin embargo, para identificar completa­
mente una P-pregunta. El motivo es que incluso fijada X , puede haber varios tipos de res­
puesta dependiendo de qué relación se considere en ese contexto que es la relevante para
que la respuesta se considere una explicación. Por ejemplo, supongamos que pedimos ra­
zón de que Juan viniera a la fiesta contrariamente a que se quedara en casa o se fuese al
cine. Una respuesta, de un tipo determinado, puede ser que Juan salió de su casa un rato an­
tes, caminó en cierta dirección por cierta ruta, se detuvo en un portal, subió a un piso y el
piso es donde tiene lugar la fiesta. Pero en muchos contextos eso, que es una respuesta, no
se aceptaría como explicación. No se aceptaría porque se pedían razones de otro tipo. Esa
respuesta no es del tipo que el contexto considera relevante, mientras que sí lo sería, por
ejemplo, que Juan quería ver a Luisa y sabía que Luisa iba a ir a la fiesta. Por tanto, hasta
que no esté determinado el tipo de respuesta que se considera explicativa en el contexto, la
pregunta está indeterminada, en cierto sentido no se sabe qué se pregunta. Van Fraassen de­
nomina relación de relevancia explicativa, R, a este elemento adicional necesario para
identificar la P-pregunta. R es una relación que relaciona proposiciones (o hechos) y con te­
mas junto con la clase de contraste: yR «x, X> syss y es (considerada en el contexto) expli­
cativamente relevante para que ocurriera a en lugar de pi, p2, ... Nótese que R sólo determi­
na el tipo de respuesta considerada relevante, no la respuesta misma, pues hay varias res­
puestas que pueden ser relevantes en el contexto; p.ej. en el caso mencionado podría quizá
considerase también relevante como respuesta el que Juan quiere ir al menos a una fiesta
cada mes, que ese día es fin de mes y que ese mes todavía no ha ido a ninguna. Esta es la
enseñanza que van Fraassen atribuye a la teoría aristotélica de las cuatro aitiai. La teoría es­
tablece cuatro tipos característicos de relación de relevancia explicativa dependiente del
contexto; en cierto contexto nos pueden interesar causas eficientes, en otro causas finales,
etcétera. En realidad, las posibilidades son mayores pues p.ej. dentro de las causas eficien­
tes, en un contexto se pueden considerar relevantes causas muy lejanas (p.ej. el Big-Bang)
y en otro no pues sólo se aceptan como relevantes antecedentes cercanos.
Así, una P-pregunta se identifica mediante el tema a, la clase de contraste X y la
relación de relevancia explicativa R. Podemos representar entonces una pregunta Q me­
diante la tema Q = <a, X, R>. X y R dependen del contexto, y aunque en algunos contex­
tos, como los contextos científicos en períodos de ciencia normal, están fijados con bas­
tante rigidez, en otros pueden ser muy variables. Hasta aquí los elementos que constitu­
EXPLICACIÓN CIENTÍFICA 249

y e n la s P - p r e g u n ta s . Q u e d a n p o r p r e c is a r la s c o n d ic io n e s e n q u e e n e l c o n te x to se acepta
la p r e g u n ta .
Toda pregunta Q supone ciertos presupuestos, y Q se aceptará en el contexto si ta­
les presupuestos encajan en el cuerpo de información fáctica aceptada en el contexto. Una
pregunta Q presupone tres cosas: a) a es verdadera, tí) las restantes alternativas p, son to­
das falsas, y c) existe al menos una proposición y tal que yP<a, X>. Si K es el cuerpo de
información aceptado en el contexto, la pregunta Q se p ro d u ce (‘a rise s ’) en el contexto si
K implica a) y tí) y no implica la negación de c). Esto es, para que una pregunta se acepte
en un contexto como pregunta que requiere respuesta, la información aceptada en el con­
texto debe incluir que, de todas las alternativas de X , el tema y sólo él es verdadero, y
además no debe excluir que exista respuesta. En caso contrario la pregunta simplemente
no se produce, se rechaza. Si Q se produce en el contexto, entonces es posible, si se en­
cuentra, darle una respuesta-explicación. Estas respuestas tienen la forma estándar “a,
contrariamente a p h p2 porque y”, que muchas veces se expresa en la forma abreviada
“porque y” (y es el núcleo de la explicación). En términos del análisis visto, estas respues­
tas dicen dos cosas: a) a es verdadera, y tí) yP<a, X>, e.e. y es relevante (en el contexto)
para que ocurra a en lugar de (3U p2....
Éste es el núcleo del análisis de van Fraassen. Nótese que aunque los ejemplos de
tema que usa son de hechos-proposiciones particulares, nada impide que los temas sean
proposiciones generales, p.ej. “¿por qué las soluciones ácidas colorean el papel tornasol
de rojo?”, donde diferentes clases de contraste pueden contener colores alternativos, o pa­
peles alternativos, o soluciones alternativas. Podemos esquematizar el modelo pragmático
de van Fraassen del siguiente modo.

(19) El explanandum es una proposición a (singular o general). El explanandum


lleva asociada una clase de contraste que incluye otras proposiciones alter­
nativas pi, p2, ...
(20) El explanans es una proposición y.
(21) La relación explicativa es la de relevancia explicativa R determinada por el
contexto: el explanans explica el explanandum syss y es explicativamente
relevante, según el contexto, para que ocurra a en vez de pi, p2......

Con este análisis van Fraassen reconsidera algunos de los problemas que hemos
visto en las secciones anteriores. Uno de ellos es el relativo a la explicación de hechos
poco probables, como la famosa paresis del alcalde. Para unos, tales sucesos no son expli­
cables, para otros sí. La disputa se disuelve si tenemos en cuenta la clase de contraste: la
pregunta de por qué el alcalde, en contraste con otro ciudadano general, contrajo paresis
tiene una respuesta correcta verdadera: por su sífilis latente; pero la pregunta diferen te de
por qué la contrajo, en contraste con otros miembros de su club de campo también sifilíti­
cos, no la tiene (al menos de momento, cf. 1977, §11.6). Acabamos de ver que este análi­
sis explica también los casos de rechazo de algunas P-preguntas. En cuanto a las irrele­
vancias, el cuerpo de información K aceptada en el contexto excluye simplemente que la
vitamina C sea relevante para la cura del resfriado, o que tomar pastillas lo sea para el no
250 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

embarazo de los varones, o someterse a una psicoterapia lo sea para la remisión de la neu­
rosis. Por último, el supuesto problema de la simetría no es en realidad, según van Fraas-
sen, tal problema. Aunque en la mayoría de contextos es la altura del mástil la relevante
para la longitud de la sombra y no viceversa, puede haber contextos en los que la relevan­
cia se invierta, por ejemplo si lo que se pretende construir es un enorme reloj de sol visi­
ble desde cierto lugar (1977, §111.4; cf. también 1980, cap. 5, §3.2). Lo mismo se aplica a
los restantes casos.
Algunos elementos de la relativización pragmática propuesta por van Fraassen
han sido generalmente aceptados, especialmente los relativos a la clase de contraste. El
mayor problema lo representa la no restricció n de la relación de relevancia. En un dete­
nido estudio, Kitcher y Salmón (1987) muestran las consecuencias a su juicio inacepta­
bles de esta liberalidad. Si no se impone ninguna constricción a R y p o d ría haber un con­
texto en el que esa relación fuese cu a lq u ie ra , con lo que c u a lq u ie r proposición podría
explicar c u a lq u ie r <a, X > , bastaría estipular R = {<y, < a , X » } . No se objeta que eso
se pueda proponer en el sentido de que se le ocurra a alguien proponerlo, sino en el sen­
tido de que no es conceptualmente imposible según el análisis de van Fraassen, y en su
opinión eso es una posibilidad que el a n á lisis del concepto de explicación debe excluir.
Quizá este ejemplo no sea el mejor, pues van Fraassen sí parece imponer alguna cons­
tricción que quizá lo bloquea. La condición es la de cien tificid a d , los factores relevantes
deben ser al menos científicamente relevantes, “y entre los factores científicamente re­
levantes el contexto determina los explicativamente relevantes” (1980, p. 126). Pero la
caracterización que hace después de relevancia científica es extremadamente débil; “Ca­
lificar una explicación de científica no es decir nada de su forma o del tipo de informa­
ción aducido, sólo que la explicación recurre a la ciencia (al menos en alguna medida)
para obtener la información y, más importante, que los criterios de evaluación de cuán
buena es una explicación se aplican usando teorías científicas” ( ib id . p. 155-156). Esta
caracterización excluye quizá los casos a d hoc radicales, como el mencionado de la esti­
pulación extensional de R , pero difícilmente otros menos artificiales. Como señala Sal­
món, ¿es un factor científicamente relevante de la muerte de Kennedy cierto día, por
contraste a otros días, que el Sol estuviera en Acuario?, ¿es científicamente relevante la
relación de influencia astral? Para que la anterior caracterización la excluyese, la teoría
astrológica debe ser excluida de la ciencia, pero van Fraassen no dice nada al respecto.
Y en realidad le sería difícil decir algo pues, en ausencia de constricciones a las que no
quiere recurrir, la cientificidad es un atributo con una gran carga pragmática y extrema­
damente sociodependiente.
Así pues, sin ulteriores precisiones la cientificidad no puede soportar el peso de
excluir conceptualmente algunas relaciones como irrelevantes en todo contexto. Esta si­
tuación quizá no es tan indeseable para alguien como van Fraassen, cuya extrema liberali­
dad en este punto se compadece bien con el empirismo constructivista que defiende
(cf. infra capítulo 10, §4). Para muchos, sin embargo, es inaceptable. Según éstos, aunque
indudablemente el contexto desempeña un papel importante en la determinación de la re­
lación de relevancia explicativa, esta relación debe estar conceptualmente restringida a lí­
mites más estrictos. Los análisis de las anteriores secciones se pueden ver como propues­
EXPLICACIÓN CIENTÍFICA 251
tas en este sentido. Hempel exige que la relación sea de inferencia lógica (deductiva o in­
ductiva) mediante leyes naturales. Salmón exige que sea de relevancia estadística, tam­
bién mediante leyes naturales. Vamos a ver ahora dos nuevas propuestas, la que exige que
la relación sea causal y la que exige que sea de subsunción o unificación teórica.

5. Explicación y causalidad

En la sección 2 vimos que muchos de los problemas con los que se enfrentaba el
análisis de Hempel tenían que ver intuitivamente con la causalidad. Según muchos críti­
cos, dicho análisis presenta como explicativas determinadas inferencias que intuitivamen­
te no se pueden considerar así por no incluir los elementos causales apropiados. En las
dos secciones anteriores hemos visto dos intentos de afrontar esos problemas sin recurrir
explícitamente a nociones causales, y las dificultades a que se enfrentaban. Para muchos,
el único modo de responder satisfactoriamente a estas dificultades es apelando directa­
mente a nociones causales. Los principales autores que defienden esta tesis son Brody
(1972, 1974), Humphreys (1981, 1983, 1989), D. Lewis (1986) y Salmón en su segunda
época (1980, 1984, 1989). Estos autores difieren sobre todo en su peculiar elucidación del
concepto de ca u sa , pero comparten un núcleo común en su uso de este concepto para el
análisis de la noción de explicación. La idea central es que en la explicación de un hecho
el explanans no tiene por qué asegurar la ocurrencia del explanandum, tampoco hacerlo
altamente probable, ni siquiera (en opinión de Salmón) incrementar su probabilidad.
Todo ello está vinculado a la idea hempeliana de esperabilidad, pero la noción de expli­
cación no tiene que ver, al menos no directamente, con esa idea. Explicar un hecho no es
mostrar que es (totalmente, mucho, o tan sólo más) esperable, es proporcionar in fo rm a­
ción causal sobre su ocurrencia: “explicar un acontecimiento es proporcionar información
acerca de su historia causar1 (Lewis, 1986, p. 217). Quizá a veces, o incluso en muchas
ocasiones, la explicación confiere cierta esperabilidad al explanandum, pero ello es así
sólo derivativamente, consecuencia de que a veces la información sobre la historia causal,
que es el objeto básico de la explicación, tiene ese efecto.
Los hechos tienen una larga historia causal y una explicación no requiere informar
acerca de toda ella. Cada hecho tiene muchos otros hechos antecedentes como causas; en
cada momento del pasado de un hecho (p.ej. este accidente de automóvil) hay una multi­
plicidad de hechos (la carretera mojada, el cansancio del conductor, el estado de las rue­
das, ...) que son causas p a rcia les del mismo y que conjuntamente constituyen su causa
total en ese momento (cf. cap. 5, §3). Además, en general dicha multiplicidad causal va­
ría en cada momento del pasado de un suceso. Así, la historia causal completa de un he­
cho recoge el conjunto de todas las causas parciales antecedentes. Pues bien, una explica­
ción no requiere informar sobre toda la historia causal, ni siquiera, generalmente, sobre la
causa total en un momento antecedente dado. En general se exige sólo información sobre
algunos factores causales. Cuáles son esos factores es algo que depende de cada contexto
explicativo, el contexto determina qué antecedentes causales se consideran relevantes o
destacados a efectos explicativos en esa ocasión. La relación de explicación es la relación
252 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

de relevancia causal', que es causal lo establece el análisis, pero cuáles de los innumera­
bles antecedentes causales son los relevantes a efectos explicativos lo establece el contex­
to. Éste es el núcleo de los análisis causalistas de la explicación, que podemos resumir del
siguiente modo:

(22) El explanandum es un hecho particular e.


(23) El explanans es un hecho particular c que pertenece a la historia causal an­
tecedente de e.
(24) La relación explicativa es la de relevancia ca u sa l , determinada por el con­
texto: el explanans explica el explanandum e syss c es, relativamente a ese
contexto, un factor causal explicativamente relevante para e.

Nótese que aparentemente este esquema no hace referencia a leyes, pero sólo apa­
rentemente. No hay referencia explícita a las leyes pero sí im plícita. El explanans está
causalmente relacionado con el explanandum y, como vimos en el capítulo 5, las relacio­
nes causales entre hechos particulares se dan en virtu d de que los hechos ejem plifican
ciertas p ro p ied a d e s (p.ej. “ser un accidente”, “ser un pinchazo”) y de que h a y una rela­
ción nóm ica en tre esa s p ro p ied a d es , esto es, ciertas leyes que las conectan. Por tanto, la
referencia a las leyes está implícita en (23).
Ahora podemos ver que este análisis resuelve los problemas tradicionales. Prioridad
temporal: las explicaciones en las que el explanans es posterior al explanandum (eclipse ac­
tual explicado por posiciones futuras) no son válidas, pues el explanans debe ser causa del
explanandum y las causas preceden a sus efectos. Simetría: la sombra no explica la altura
del mástil, ni el espectro lumínico la estructura atómica de un elemento determinado, pues
las relaciones causales son de hecho las inversas, el mástil causa la sombra y la estructura
atómica el espectro, y la causalidad es una relación asimétrica (si x causa y , y no puede a su
vez causar x). Efectos de causa común: el descenso del barómetro no explica la tormenta
pues, aunque está correlacionado con ella, no es parte de su historia causal, la causa antece­
dente es el descenso de presión. Irrelevancia: que Juan tome pastillas anticonceptivas no
explica que no se haya quedado embarazado, que el terrón esté embrujado no explica que
se disuelva, que Luisa tome vitamina C no explica la remisión de su resfriado. El suceso
que pretende ser explanans no está causalmente vinculado con el explanandum. Quizá se
piense que el que Juan tome pastillas anticonceptivas sí forma parte de la historia causal de
su no embarazo, pues ese mismo Juan, m ientras se tom a las pastilla s es varón , y ese su ser
varón es causa de su no embarazo. Aquí hace falta hacer una observación sobre la metafísi­
ca de los hechos o acaecimientos. Los hechos, como otros particulares, se identifican al me­
nos en parte por las propiedades que ejemplifican, de modo que puede haber hechos copre­
sentes diferentes. El hecho consistente en que Juan toma (este mes) pastillas es diferente
del consistente en que Juan es (este mes) varón, aunque ambos son copresentes, ocurren en
la misma región espaciotemporal. Pues bien, de estos hechos particulares diferentes, el se­
gundo y no el primero está causalmente relacionado con su no embarazo; por supuesto que
con una mujer pasaría al revés, pero nada raro hay en eso, simplemente las relaciones cau­
sales que de hecho se dan en el mundo son en cada caso ésas.
EXPLICACIÓN CIENTÍFICA 253

Este esquema básico es perfilado de modo parcialmente diferente por los diversos
autores. Algunos (Humphreys, Salmón) distinguen causas p ro p icia tiva s ( ‘co n trib u tin g ’) y
resistivas ( ‘co u n tera ctin g y). Las primeras contribuyen positivamente a la ocurrencia del
efecto, las segundas negativamente, e.e. contribuyen a su no ocurrencia; p.ej. fumar es
una causa propiciativa del cáncer de pulmón, hacer ejercicio es una causa resistiva. Este
carácter no es absoluto, puede alterarse por la presencia de otras causas, p.ej. la arena es
causa propiciativa de accidentes, pero en presencia de hielo es causa resistiva. Las expli­
caciones apelan a ambos tipos de causa, tienen la forma general “e porque X a pesar de
Y% donde X es un conjunto de causas propiciativas e Y uno de causas resistivas. Hump­
hreys permite que Y pueda a veces ser vacío. Por lo que comentamos en la sección 3 so­
bre la relevancia estadística negativa, Salmón parece comprometerse además con que
también puede ocurrir lo contrario, que el explanans sólo contemple causas resistivas,
pero eso parece más implausible.
Otra variación afecta el tipo de elementos sobre los que actúa el contexto. Según
algunos autores, los factores causales que en el contexto se consideran explicativamente
relevantes no dependen sólo de cuál sea el hecho antecedente sino además de cómo se
describa éste. Un mismo hecho, antecedente causal, puede considerarse explicativamente
relevante bajo una descripción y no bajo otra. Un mismo hecho puede tener más de una
propiedad, no toda propiedad determina un hecho diferente.2 Por ejemplo, eso que está
sucediendo a mil metros sobre la estatua de Colón de Barcelona tiene la propiedad de ser
un huracán, pero también, p.ej., la de ser comentado en primera página de la edición de
mañana del diario E l P aís, y también por cierto la de estar ocurriendo a mil metros sobre
la estatua de Colón, y la de ser usado como ejemplo en este libro. Pues bien, esas diferen­
tes propiedades que ejemplifica un mismo acaecimiento permiten dar descripciones dife­
rentes de él, y puede ser que bajo una descripción sea explicativamente relevante y bajo
otra no. Por ejemplo, el huracán y lo descrito mañana en primera página de E l P aís son el
mismo acontecimiento, pero mientras que “el accidente se produjo porque el avión inten­
tó atravesar el huracán” sería explicativo, “el accidente se produjo porque el avión intentó
atravesar lo que describió al día siguiente en primera página E l P a ís ” no lo sería. O, supo­
niendo que creencias y deseos sean acontecimientos particulares idénticos a acaecimien­
tos particulares microfísicos, “Juan se compró el último libro de García Márquez porque
deseaba leer un buen reportaje sobre el narcotráfico en Colombia” sería una explicación,
pero “lo compró porque tales y cuales átomos estaban así y asá”, no lo sería. Aunque los
eventos particulares son el mismo, y por tanto de ambos modos se nombra un mismo he­
cho particular que es causa del explanandum, en un caso se describe mediante la propie­
dad que está causalmente conectada con la propiedad con la que se describe el explanan­
dum, y en el otro no.
Así, entre los muchos modos en qué se puede nombrar el suceso que es causa an­
tecedente, el contexto determinaría cuál de ellos es el explicativo. Se puede exigir que sea
siempre el que describe el suceso antecedente mediante una propiedad causalmente vin­
culada a aquella con la que se describe el explanandum; o, como Lewis, se puede dejar

2. Aunque algunos filósofos lo niegan (cf. p.ej. Kim, 1996, cap. 3, §7).
254 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

totalmente abierto considerando que el contexto puede privilegiar como explicativa cual­
quier descripción. Es importante notar que si la relevancia explicativa depende del modo
en que se describe el antecedente causal, entonces no se puede hablar, como venimos ha­
ciendo, del explanans y del explanandum como hechos; habría que presentarlos como
enunciados o, alternativamente, como hechos más modos de presentación. Este es el mo­
tivo último, según los causalistas, de los aspectos intensionales de la explicación que
mencionamos al final de la primera sección.
Concluiremos mencionando tres retos a los que deben enfrentarse los modelos de
la explicación causales. Se trata de tres tipos de explicaciones que, en principio, parecen
difíciles de analizar en los términos propuestos por el causalista.

(A) Explicación de sucesos particulares probabilistas. Por ejemplo, que Juan


tenga cáncer de pulmón (contrariamente a Rosa) o que un electrón disparado contra una
barrera de potencial la atraviese (contrariamente a que se refleje). Aquí suelen distinguir­
se dos casos. Que el suceso sea sólo epistém icam ente probabilista, como (quizá) el cáncer
de Juan. En estos casos el suceso no está propiamente indeterminado, tiene causas tales
que sí se dan entonces se da necesariamente el efecto, pero no las conocemos co m p leta ­
m ente; sólo conocemos “partes” de la causa total, p.ej. el hábito de fumar, y nos falta co­
nocer los otros factores que, conjuntamente con los conocidos, determinan plenamente el
suceso. Este caso se reduce pues al no probabilista, aunque con limitaciones epistémicas
(quizá todas las explicaciones en las ciencias especiales son así, cf. cap. 5, §4 sobre leyes
probabilistas y cláusulas ceteris p aribus). La segunda posibilidad es que el suceso sea o b ­
jetiv a m en te probabilista, como (quizá) en el caso del disparo del electrón, que según la
mecánica cuántica tiene una probabilidad de 0,9 de reflejarse y de 0,1 de atravesar la ba­
rrera. Se suelen dar tres tipos de respuesta a esta situación. La primera es negar que exis­
tan sucesos objetivamente probabilistas, todos son como el caso del cáncer (la mecánica
cuántica es pues una teoría incompleta). La segunda es aceptar que tales sucesos irreduc­
tiblemente aleatorios existen, pero rechazar que haya ca u sa lid a d indeterminista, con lo
que carecen de explicación. La tercera es aceptar que hay relaciones causales objetiva­
mente probabilistas; estos sucesos se explican, como los deterministas, dando informa­
ción sobre sus causas. Nótese que en este último caso, aun si hay causalidad probabilista,
la información causal proporcionada en la explicación de su ocurrencia sería la m ism a
que en la de su no ocurrencia, consecuencia para muchos inaceptable.
(B) Explicación de hechos generales (nómicos, esto es, de leyes). Aquí cabe dis­
tinguir tres casos. Primero: el explanandum es una regularidad nómica no causal, como la
ley de caída libre de Galileo o las leyes de Kepler. En este caso la explicación consiste en
su derivación a partir de leyes propiamente causales, como las de la mecánica newtonia-
na, leyes que introducen las entidades-propiedades teóricas causalmente responsables de
la regularidad empírica (cf. caps. 8 y 10). Este tipo de explicación involucra siempre algu­
na forma de teorización (cf. cap. 11, §2). Segundo: el explanandum es una ley causal y se
explica derivándola de otras leyes más básicas y de relaciones de co nstitución entre las
propiedades que aparecen en el explanandum y las de las leyes más básicas. Por ejemplo,
explicamos la ley causal “a volumen constante, el aumento de temperatura de un gas pro­
EXPLICACIÓN CIENTÍFICA 255

duce un aumento de presión”, a partir de leyes causales de la teoría cinética de los gases y
la ley de constitución que dice que la temperatura de un gas es o consiste en la energía ci­
nética media de sus moléculas. Análogamente se explican algunas leyes (causales) de la
genética mendeliana a partir de las leyes de la genética cromosómica y de la relación de
constitución entre genotipos y cromosomas. Este tipo de explicación involucra siempre
alguna forma de reducción explicativa (cf. cap. 11, §5). Tercer caso: el explanandum es
una ley causal y se explica derivándola de otras leyes más básicas que explican también
otras leyes diferentes. En este caso se da cierta forma de unificación causal, varias leyes
causales se deben a una causa común, a una misma ley causal más básica. Por ejemplo,
diversas leyes sociológicas sobre la influencia causal de factores religiosos, políticos, fa­
miliares, etc., serían explicadas, según el marxismo ortodoxo, por otras económicas más
básicas; o las leyes en las que intervienen las cuatro fuerzas de la naturaleza serán expli­
cadas, según los físicos que creen en la Teoría Unificada, por las leyes de una única fuer­
za, más básica. También puede haber casos en los que se mezclen los dos últimos tipos de
explicación.
(C) Explicaciones aparentemente no causales. La estrategia aquí es, o negar que
tales casos constituyan explicaciones genuinas, o negar que no son causales. Vimos
que Hempel ponía como ejemplos la explicación del período de un péndulo apelando a su
longitud y a la ley del péndulo, o la de la posición y velocidad de un grave en cierto ins­
tante apelando a una posición y velocidad anteriores y a la ley de Galileo. Estos casos, se
replica, así descritos no son explicaciones, y bien descritos son explicaciones causales.
Ciertamente la posición y velocidad de un cuerpo en cierto momento explica su posición
y velocidad en otro momento posterior, pero no por su conexión, aunque nómica, no cau­
sal expresada en la ley puramente cinemática de Galileo, sino por su conexión ca u sa l a
través de leyes dinámicas que involucran propiedades causales como fuerzas y masas; en
este punto se aplica lo relativo a la explicación de leyes no causales a partir de otras cau­
sales que hemos visto en el apartado anterior. Análogamente para el péndulo. Railton
(1980) ha presentado otros casos más complejos, especialmente algunos de los que deno­
mina explicaciones estructurales, que apelan a leyes de coexistencia (como el principio
de exclusión de Pauli) o de conservación (como el de la energía). La respuesta es similar
a los casos más simples anteriores: en la medida en que sean propiamente explicaciones
se aducen hechos causales antecedentes (cf. p.ej. Lewis, 1986, §111).

Independientemente de estos retos, que siguen parcialmente abiertos, la principal


dificultad de este tipo de análisis es que depende de que se ofrezca previamente una eluci­
dación satisfactoria de la noción de causa, que al menos desde Hume ha resultado sospe­
chosa a los filósofos de orientación empirista. Hemos visto que el análisis causalista re­
suelve los problemas tradicionales, pero ello no les confiere mucho mérito en sí mismo
pues la solución es inmediata si aceptamos hacer uso del concepto de causa, asimétrico,
unidireccional, etc. La cuestión es entonces analizar este último concepto, salvo que se
quiera tomar como primitivo, algo para muchos inaceptable. Lewis lo analiza mediante
contrafácticos y, en última instancia, leyes naturales. Salmón mediante las nociones de in­
teracción, transmisión de información y la diferencia entre proceso y pseudoproceso.
256 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

Humphreys mediante las nociones de estructura, de preservación y de contenido experi­


mental. Cada uno de estos análisis tiene sus propias dificultades y sigue siendo de mo­
mento una cuestión debatida la posibilidad de elucidar las nociones causales de modo
aceptable desde un punto de vista (moderadamente) empirista.

6. U nificación teórica

La idea básica que hay detrás de los análisis de la explicación como unificación es
que la comprensión del mundo que proporcionan las explicaciones consiste en la reduc­
ción de la cantidad de supuestos básicos independientes de nuestro cuerpo de creencias.
La unificación consiste en mostrar dependencias, reduce pues la cantidad de supuestos in­
dependientes y es lo que proporciona verdadera comprensión. Aunque hay ciertas suge­
rencias anteriores en este sentido (cf. p.ej. Mili, 1904, pp. 229-30 y Feigl, 1970, p. 12), el
primero en presentar un modelo elaborado de explicación como unificación fue Friedman
(1974).
La idea central de Friedman es que la explicación científica consiste esencialmen­
te en la reducción de la cantidad de leyes in dependientem ente a ceptables. Friedman, que
considera que los fenómenos a explicar son primariamente fenómenos generales, desarro­
lla esta idea en conexión con el problema de Hempel de distinguir, en las explicacio­
nes de leyes, los casos espurios de los genuinos (cf. más arriba P7 de la sección 2). El nú­
cleo de su propuesta para resolver el problema es que una regularidad es explicada por
otras si se sigue de ellas y además éstas reducen la ca n tid a d de h echos in d ep en d iente­
m ente aceptables. Las leyes de Newton explican las de Kepler porque, además de impli­
carlas, reducen la cantidad de regularidades que se aceptan independientemente unas de
otras: antes de la explicación, las leyes de Kepler y, p.ej., la de Galileo eran aceptadas in­
dependientemente unas de otras, después no; la conjunción de las leyes de Kepler con la
de Boyle no es una explicación de las primeras porque no produce ese efecto. Nótese que
esta noción de explicación está esencialmente relativizada a un cuerpo K de creencias
aceptadas en un momento dado, y exige una elucidación precisa de la relación de in d e­
p en d ien te a c ep ta b ilid a d entre las creencias de K. Con ayuda de estas nociones, Friedman
define a) una regularidad K -atóm ica como aquella que no equivale a una conyunción de
otras independientemente aceptables entre sí, y b) una K -partición de un conjunto Y de
regularidades aceptadas como un conjunto de regularidades A-atómicas cuya conjunción
equivale a la conjunción de los miembros de Y. Con este instrumental expresa su idea
central aproximadamente del siguiente modo (esta versión omite algunas complicaciones
importantes que no podemos tratar ahora): el explanans, S, A-explica el explanandum, E,
syss E se sigue de S y la cardinalidad de la A-partición más pequeña de K es menor que la
de la A-partición más pequeña de A-ÍS}. La explicación es una inferencia unificadora, el
explanans reduce la cantidad de creencias independientemente aceptadas.
El análisis de Friedman presenta algunas dificultades importantes. La principal,
puesta de manifiesto por Kitcher, es que excluye explicaciones intuitivamente satisfacto­
rias cuyo explanans está formado por leyes independientemente aceptadas, como la expli­
EXPLICACIÓN CIENTÍFICA 257

cación de la ley de la expansión adiabática de los gases a partir de la ley de Boyle y el pri­
mer principio de la termodinámica (Kitcher, 1976, p. 209 ss.). A pesar de ello, Kitcher
considera que el núcleo del análisis de la explicación como inferencia unificadora es
esencialmente correcto y desarrolla su propio modelo del mismo (cf. 1981, 1989), siendo
en la actualidad el principal exponente de esta concepción. La idea central de Kitcher es
que hay varios modos de sistematizar mediante inferencias un cuerpo de creencias acepta­
das K , que sistematizaciones alternativas son comparables según la mayor o menor unifi­
cación que producen en K, y que una inferencia es explicativa si pertenece a la mejor sis­
tematización de K (las creencias de K son sobre hechos generales, sobre regularidades).
No podemos exponer aquí la elaboración que hace de esta idea en todos sus detalles; nos
limitaremos a presentar someramente sus líneas generales.
El concepto central es el de p a tró n a rg u m en ta tivo . Según Kitcher, para evaluar el
carácter explicativo de una inferencia no cuenta sólo cuáles son las premisas y la conclu­
sión, se debe tomar en consideración también “cómo las premisas conducen a la con­
clusión” (1989, p. 431). Kitcher denomina a rg u m en ta cio n es , o también derivaciones, a
las inferencias en este sentido, premisas más conclusión m ás el camino de aquéllas a ésta.
Cada argumentación concreta está constituida por una secuencia de sentencias. Si en una
sentencia sustituimos por variables algunas de (no necesariamente todas) sus expresiones
no lógicas obtenemos un esquem a sentenciad, por ejemplo en la Teoría de la Herencia: (*)
“P es estable en el linaje que conduce de S a G” (nótese que este esquema sentencial con­
tiene todavía algunas constantes no lógicas, p.ej. “linaje”). Un esquem a arg u m en ta l es
una secuencia de esquemas sentencíales. Los esquemas arguméntales se acompañan de
instrucciones de relleno que especifican las expresiones por las que se puede sustituir
cada variable, p.ej. “P se debe sustituir por nombres de rasgos, G por nombres de grupos
de organismos o poblaciones y S por nombres de especies”. Los esquemas arguméntales,
secuencias de esquemas sentencíales, también van acompañados de una clasificación, que
especifica las características inferenciales de los elementos de la secuencia, esto es, cuáles
son premisas, cuáles se infieren de cuáles otros, mediante qué reglas, etc. Un esquema ar­
gumental, junto con un conjunto de instrucciones de relleno y una clasificación, constitu­
yen un p a tró n argum entativo. Un patrón argumentativo es más riguroso ( ‘strin g e n t’) que
otro si “las condiciones de sustitución [del primero] son más difíciles de satisfacer
[que las del segundo]” (1989, p. 433).
La idea es que las sistematizaciones alternativas de K consisten en conjuntos alter­
nativos de argumentaciones concretas que se pueden comparar en términos de los patro­
nes argumentativos que tales argumentaciones concretas ejemplifican. Una sistem a tiza ­
ción de K, S{K), es cualquier conjunto de derivaciones concretas que obtienen como con­
clusión unos miembros de K a partir de los otros; una sistematización es a ceptable, relati­
vamente a K , si sus argumentos, que contienen como premisas miembros de K, son d e ­
ductivos (1989, p. 434; sobre la exigencia de deductividad volveremos después). Decimos
que un conjunto P de patrones argumentativos g enera una sistematización S(K ) si cada
derivación concreta de S(K ) es una instancia de algún patrón de P. Es obvio que puede
haber diferentes conjuntos generadores para una misma sistematización. Un conjunto ge­
nerador de S(K ) no es más que un modo de esquematizar las derivaciones concretas de
258 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

S(K ) y hay por lo general más de un modo de hacerlo. Lo importante es que se puede es­
tablecer un criterio para comparar el p o d e r unificador de los diversos conjuntos genera­
dores. El poder unificador de un conjunto de patrones que genera un conjunto de deriva­
ciones concretas depende directamente de a) la cantidad de conclusiones de las derivacio­
nes y b ) el rigor de sus patrones, e inversamente de c) el número de sus patrones. Esto es,
un conjunto generador es tanto más unificador cuanto más conclusiones pueda generar,
cuanto más rigurosos sean los patrones y cuantos menos patrones use. Pues bien, entre los
diversos conjuntos generadores de S(K ), denominamos base de la sistem a tiza ció n S(K ),
B (S(K )), al conjunto generador con mayor poder unificador (nótese que si comparamos
conjuntos generadores de la m ism a sistematización, el criterio a) no tiene efecto, pues se
refiere a la cantidad de conclusiones del conjunto generado). B (S (K )) da la medida del
máximo grado de unificación asociable a la sistematización S del cuerpo de creencias
aceptadas K , expresa la esquematización de S(K ) máximamente unificadora.
Ahora podemos comparar sistematizaciones alternativas de K. Simplemente, la
mejor sistematización de K es aquélla que tiene la mejor base. Sean S f K ) , S2(K), ... dife­
rentes conjuntos de inferencias que sistematizan K , y sean B (Si(K )), B(52(K)), ... sus ba­
ses: S¡(K) es la sistematización más unificadora syss B(S¡(K )) es la base más unificadora
según los criterios a)-c). A la mejor sistematización la denomina Kitcher el alm acén ex­
p lica tivo de K , E(K ) explánalo ry store"). Intuitivamente, E(K ) es el conjunto de deriva­
ciones que sistematizan K que maximiza el número de conclusiones y el rigor de los pa­
trones inferenciales y que minimiza el número de patrones (y por tanto también el número
de premisas). Pues bien, una explicación no es más que una inferencia que pertenece al
almacén explicativo, a la mejor sistematización de K. El lector habrá adivinado quizá que
las diferentes sistematizaciones del mismo cuerpo K son en cierto sentido diferentes teo­
rías sobre K. Efectivamente, las teorías científicas no son para Kitcher sino conjuntos de
derivaciones que constituyen sistematizaciones en el sentido preciso indicado; con esta
noción de teoría afronta las cuestiones principales de la dinámica científica (cf. 1989, §7,
y especialmente 1993; para algunas dificultades de este programa cf. Diez, 1994b). Por
tanto, una explicación no es más que una inferencia que pertenece a la teoría más unifica­
dora. Nótese que de esta concepción se sigue que el carácter explicativo o no de una infe­
rencia puede cambiar con el tiempo, la aparición de teorías más unificadoras puede desa­
creditar explicaciones anteriores. Pero esto es una consecuencia que Kitcher no considera
un defecto de su modelo sino todo lo contrario.
Éste es en líneas generales el núcleo del análisis de Kitcher. Se trata de un progra­
ma todavía en desarrollo y, por tanto, parcialmente abierto. Algunas de las principales
cuestiones que requieren ulterior tratamiento son las siguientes.

(A) Explicaciones de hechos particulares. Mencionamos más arriba que para


Friedman la explicación es básicamente de fenómenos generales. Como muestra implícita­
mente la presentación anterior, para Kitcher también. Lo que hay que explicar primaria­
mente son regularidades empíricas, y se explican subsumiéndolas bajo (derivándolas de)
sistemas teóricos unificadores. En cierto sentido también se pueden explicar hechos par­
ticulares, pero, por así decir, ello no constituye una tarea especialmente interesante además
EXPLICACIÓN CIENTÍFICA 259
de la anterior. La idea es que explicar un hecho particular consiste en explicar el fenómeno
general y en constatar que el hecho particular es de ese tipo; la explicación básica es la de
regularidades, y la de hechos particulares se obtiene inmediatamente al añadir que el hecho
particular es del tipo especificado en la ley. “La pregunta ‘¿por qué este objeto particular se
comporta de este particular modo?1 es transformada en la pregunta ‘¿por qué objetos idea­
les de este tipo general exhiben esas propiedades?’” (1989, p. 453).
(B) Simetrías e irrelevancias. Kitcher acepta que toda teoría de la explicación debe
dar cuenta de estos problemas, y en su opinión la suya lo hace de modo satisfactorio. La es­
trategia es mostrar que, dadas dos inferencias alternativas, será explicativa la que pertenezca
a la sistematización más unificadora, y que esta comparación arroja en los casos en conside­
ración los resultados intuitivamente esperados. La altura del mástil explica la longitud de la
sombra y no al revés. Pensemos en las dos sistematizaciones, la que contiene inferencias que
parten de la altura del mástil y conducen hasta la longitud de la sombra, y la que contiene in­
ferencias que proceden al revés. La primera es más unificadora que la segunda. Si la segunda
no tiene otro tipo de inferencias, pierde algunas conclusiones pues no puede establecer p.ej.
la altura de mástiles de noche, o en días nubosos, etc. Y si recupera esas conclusiones es al
precio de introducir nuevos patrones argumentativos. En cualquiera de los dos casos es me­
nos unificadora según los criterios a)-c). Análogamente ocurre con la irrelevancia. Una siste­
matización que contiene derivaciones del no embarazo de Juan usando como premisa que
Juan toma pastillas anticonceptivas no puede ser la mejor. Si también quiere explicar
que otros varones que no toman pastillas tampoco se quedan embarazados, estas nuevas infe­
rencias también se aplicarán a Juan, con lo que podremos prescindir de las inferencias ante­
riores, obteniendo una sistematización con menos patrones, sin perder conclusiones. Como
reconoce Kitcher (1989, §7.2-3), estos argumentos presuponen que las sistematizaciones no
usan predicados no proyectables, como ‘verdul’ (cf. cap. 5, §2).
(C) Explicaciones estadísticas. Kitcher sostiene que las explicaciones son cierto
tipo de inferencias y además que son inferencias d ed u ctiva s , pero eso parece dejar de lado
las explicaciones estadísticas de hechos particulares. Nótese que no se dejan de lado las
explicaciones de hechos estadísticos generales pues, como ya vimos al tratar del enfoque
de Hempel, también son deductivas. Y en cierto sentido, puede decir Kitcher, con eso
basta, pues como hemos visto en (A) esa explicación de hechos generales es la básica. Se
podría decir que hay explicaciones de hechos estadísticos particulares en el sentido de que
hay explicaciones deductivas de regularidades estadísticas a las que se puede añadir la
constatación de que se ha dado el hecho particular (esta línea de respuesta se parecería a
la de Railton, cf. su p ra , sección 3). Pero en otro sentido más profundo no hay explicacio­
nes de estos hechos. Kitcher es un abogado del d ed u ctivism o , piensa que no hay explica­
ciones inductivas, que seguramente los llamados hechos particulares probabilistas son to­
dos probabilistas sólo epistémicamente, y que caso de haber hechos particulares objetiva­
mente probabilistas carecerían de explicación (cf. 1989, §5).

Éstas son en parte cuestiones todavía abiertas. Independientemente de ellas, la


mayor dificultad del análisis de Kitcher es que la noción de p o d e r un ifica d o r sobre la que
descansa es de momento problemática. En primer lugar, en espera de mayores precisio-
260 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

nes, es extremadamente vaga. No se especifica cómo contrapesar de modo preciso los cri­
terios a)-c) co njuntam ente. La situación es clara en los casos en que dos sistematizaciones
coinciden en dos de los criterios y sólo se diferencian en el restante. Pero nada se dice del
peso relativo de ellos, sin lo cual no se pueden resolver los otros casos, que son segura­
mente los históricamente interesantes. ¿Qué ocurre si una sistematización logra más con­
clusiones que otra pero mediante más patrones o patrones menos rigurosos? Por otro lado,
caso de que se precise el peso relativo de los diferentes criterios, nada garantiza que no
pueda haber casos de genuina indeterminación, en los que después de co m p u ta r su poder
unificador, dos sistematizaciones resulten equivalentes. Eso confiere una notable indeter­
minación a la noción de explicación como inferencia perteneciente a la sistematización
más unificadora. Esta cuestión se relaciona con otra. No está claro si ante varias inferen­
cias lo que se pretende decir es que una es explicativa y las otras no, o sólo que unas son
más explicativas que otras. Parece que la intención es distinguir entre inferencias expli­
cativas y no explicativas, pero a la vez el aparato sólo parece poder aseverar que una
inferencia es más o menos explicativa que otra. Si eso es así, ello conferiría un carácter
esencialmente com p a ra tivo a la noción de explicación, la exp lica tivid a d no sería una p r o ­
p ie d a d de ciertas inferencias sino una relación com parativa entre pares de ellas.
Queda por último el tema de la causalidad. El análisis unificacionista podría en
principio ser complementario del causalista. Quizá pudiera darse una síntesis entre am­
bos, o se podría quizá defender que el primero es aplicable a las explicaciones en unos
ámbitos y el segundo a las explicaciones en otros. Ésta puede ser otra cuestión abierta.
Pero claramente no es así para Kitcher. En primer lugar, piensa que hay explicaciones
claramente no causales (aunque sus ejemplos preferidos son de la matemática, y por tanto
controvertidos, cf, 1989, §3.2). Pero aun cuando se pueden calificar muchas explicaciones
de causales, la única síntesis que acepta es la del reductor: sí hay causalidad, pero las rela­
ciones causales son derivativas de las relaciones de explicación y, en último término, de
la unificación teórica. En diversos pasajes Kitcher insiste una y otra vez sobre ello:

“[E]l concepto de dependencia causal es derivativo del de dependencia explicati­


va” (1989, p. 436). “El punto crucial es que el ‘por qué’ [‘b e ca u se ’] de la causación es
siempre derivativo del ‘por qué’ ['b e c a u se ’] de la explicación” (i b i d p. 477). “Los meca­
nismos básicos [causales] deben ser aquellos indicados en nuestra mejor unificación de
nuestras mejores creencias. [...] Recomiendo rechazar la idea de que hay verdades causa­
les independientes de nuestra búsqueda de orden en los fenómenos” {ibid., p. 497). “La
noción de relevancia causal no tiene sentido independientemente de la noción de relevan­
cia explicativa y no hay otro sentido de la noción de relevancia explicativa que el de figu­
rar en la sistematización de la creencia en el límite de la investigación científica guiada
por la búsqueda de unificación” (ibid., p. 499). “[L]a estructura causal del mundo, las di­
visiones de cosas en clases, las dependencias objetivas entre fenómenos son todos genera­
dos por nuestros esfuerzos de organización” (1993, p. 172).

Desde la perspectiva causalista, la comprensión del mundo consiste en el conoci­


miento de los mecanismos causales, y la ciencia explica los fenómenos, los hace com­
EXPLICACIÓN CIENTÍFICA 261

prensibles, proporcionando información (contextualmente relevante) sobre su historia


causal. Según el modelo u n ifica cio n ista , la comprensión del mundo consiste en reducir el
cuerpo de supuestos básicos independientes que es necesario aceptar, y la ciencia explica
los fenómenos, los hace comprensibles, unificándolos. Para el causalista la explicación
descansa primariamente en una relación ontológica, la de causalidad (aunque la cantidad
y tipo de información requerida sobre ella dependa en cada contexto de elementos prag­
máticos). Para el unificacionista, la explicación descansa primariamente en una relación
epistemológica, la de unificación teórica. El causalista ontologiza la explicación, el unifi-
cacionista tiende, al menos así es explícitamente en el caso de Kitcher, a epistem o lo g izar
la causalidad. Las espadas siguen en alto y está por ver si es posible o no una síntesis en­
tre ambas aproximaciones.
Kitcher desarrolla su modelo desde una concepción claramente enunciativista de
las teorías. Recientemente se han propuesto análisis de la explicación como unificación
en el marco de las concepciones semánticas de las teorías, en concreto partiendo de la no­
ción modeloteórica y reticular de teoría que propone el estructuralismo (cf. Bartelborth,
1996). Como aquí aún no se ha expuesto con detalle esta concepción metateórica, enun­
ciamos esquemáticamente sólo el núcleo de la propuesta (el lector puede volver sobre
ella una vez familiarizado con los conceptos básicos de dicha concepción, cf. cap. 10, §5).
La idea es que la noción estructuralista de red teó rica , que estudiaremos más adelante,
contiene los elementos necesarios para elucidar las relaciones explicativas como unifica­
ción o subsunción en términos modeloteóricos. Los fenómenos empíricos a explicar son
los modelos de datos (aplicaciones intencionales). Estas regularidades empíricas se expli­
can mediante leyes teóricas, subsumiéndolos bajo modelos ampliados teóricamente. Esta
subsunción por extensión teórica captura el elemento causal de la explicación de los fenó­
menos empíricos, pues las entidades teóricas introducidas (p.ej. dinámicas) “dan cuenta”
del comportamiento de los sistemas de datos (p.ej. cinemáticos). Por otro lado, las leyes
teóricas mismas están orgánicamente estructuradas y unificadas en una red, red en la que
las leyes más específicas se derivan de, y en ese sentido se explican mediante, otras más
generales; en este caso la regularidad explicada es ella misma causal, aunque de bajo ni­
vel. Por último, sistemas completos orgánicos de leyes se pueden explicar mediante otros
más unificados, en el sentido preciso que proporciona el concepto de reducción estructu­
ral (cf. cap. 11, §3), y que captura algunos de los elementos de la comparación de poder
unificador de Kitcher.

7. Apéndice: E xplicación teleológica y funcional (*)

En la sección 2 mencionamos las explicaciones Ideológicas y funcionales entre


los problemas a que debía enfrentarse el modelo de cobertura legal inferencial de Hem-
pel. El problema fundamental era que, contrariamente a lo que parece usual en el resto de
explicaciones, en las explicaciones teleológicas y funcionales parece que no se deriva el
explanandum del explanans sino éste de aquél. Explicamos las largas orejas de los cone­
jos por su función en el control de la temperatura corporal, y parece que lo que se infiere
262 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

es determinado fenómeno de equilibrio térmico corporal a partir del tamaño de las orejas
(y de otras cosas), y no al revés. Explicamos el viaje de Rosa a Salzburgo por la finalidad
de asistir a un determinado concierto, y parece que lo que se infiere es su asistencia al
concierto a partir del viaje (y de otras cosas). A pesar de este aparente carácter paradójico,
en la discusión g en era l sobre la naturaleza de la explicación científica estos casos no han
tenido un papel destacado entre los problemas con los que se iban enfrentando los dife­
rentes análisis. El motivo es que su propia naturaleza específica era suficientemente pro­
blemática como para considerarlos piedra de toque en la discusión general. Era preciso
elucidar antes su peculiar naturaleza. Una vez realizada esta elucidación, gracias princi­
palmente a L. Wright (1976), no presentan características por las que merezcan una refe­
rencia específica en la discusión general.
Hempel se ocupa de la explicación funcional inmediatamente después (cf. Hem-
pel, 1959) de su primer trabajo, en colaboración con Oppenheim, sobre la explicación.
Tomemos el caso de la explicación del latido del corazón en los vertebrados mediante su
función de hacer circular la sangre. La idea es que lo que consideramos el explanans, la
circulación de la sangre, es una función de un sistema, el cuerpo del vertebrado, que re­
quiere de la presencia del explanandum, el latido del corazón, para seguir desempeñando
correctamente su función, dadas ciertas condiciones del entorno. El rasgo a explicar, /, es
un rasgo o disposición relativamente persistente. La explicación funcional consiste en
mostrar que, dadas ciertas condiciones internas C, del sistema 5, y ciertas condiciones ex­
ternas Ce de su entorno, el rasgo I produce en las condiciones C, y Ce la satisfacción de
una condición N necesaria para el correcto funcionamiento de S. A este modelo se ajusta,
también, según Hempel, p.ej. la explicación freudiana de algunas conductas patológicas
para evitar ataques de ansiedad; o la explicación antropológica de algunos ritos, no por
sus finalidades declaradas (p.ej. producir lluvia), sino por su función en la cohesión gru-
pal. Hempel señala que esta explicación no se ajusta al modelo inferencial. Su estructura
lógica es según él la siguiente:

a) En el momento t, S funciona correctamente en condiciones C¡ y Ce.


b) Si S funciona correctamente en condiciones C, y C„ entonces se cumple N .
c) Si / está presente en S en condiciones C¡ y Ce, entonces se cumple N .
d) [Por tanto] / está presente en S en el momento t.

Pero esto es obviamente una inferencia inválida, un caso de falacia de afirmación


de consecuente que, como vimos (cap. 2), es inválida tanto deductiva como inductivamente.
Lo único que se infiere válidamente es que en t se cumple N , pero no que se da I. Para
que se infiriese eso, c) debería decir no sólo que I es suficiente para la satisfacción de N
sino (además) que es n ecesa ria . Pero eso parece em píricam ente in a cep ta b le , puede haber
en general otros modos de producir N. A esos rasgos alternativos que también pueden
producir N los denomina Hempel equivalentes fu n cio n a les. Podríamos formular c) como
un bicondicional si sustituimos el rasgo específico I por la disyunción / v l ' v /" v... . de
todos los equivalentes funcionales que producen N , pero entonces lo único que podemos
concluir de que se cumple N es que se da a lguno de ellos, no específicamente el que nos
EXPLICACIÓN CIENTÍFICA 263

interesaba explicar. Así, puesto que las explicaciones son al menos inferencias válidas,
Hempel concluye que los análisis funcionales no tienen valor explicativo sino sólo heu­
rístico. Otros concluirán, al contrario, que puesto que sí son explicaciones, éstas no son
siempre inferencias.
Nagel (1961, cap. 12 §1.1) defiende que las explicaciones funcionales son inferen-
ciales aduciendo que el rasgo a explicar no sólo es suficiente sino también necesario para
el cumplimiento de la función. El análisis de Nagel es el siguiente (sustituimos su propia
terminología por la de Hempel, incluyendo ahora entre las condiciones internas lo que
Nagel denomina o rganización del sistema, nada esencial depende de esta adaptación ter­
minológica):

“La función de / en el sistema S con organización C, es permitir a S realizar en el


entorno Ce el proceso AT significa:
e) El sistema S está en C, y Ce y realiza N .
f ) Si, dadas C¡ y C , I no está presente en S, entonces S no realiza N .

Ahora, ciertamente, de ambas cosas se infiere válidamente que I está presente en S .


Por tanto el explanandum, /, se infiere del explanans, la función N. Pero nótese que aquí j )
es la conversa de c). Dejando de lado por el momento a C¡ y Ce, c) dice que I es condición
suficiente de N , f ) dice que es condición necesaria. Eso equivale a negar que I tenga equiva­
lentes funcionales, a sostener que sólo / puede producir N. Ésta es una salida para salvar el
carácter inferencial de las explicaciones funcionales que hemos visto que Hempel desesti­
ma. Nagel es consciente de esta objeción, pero en su opinión no está justificada. Es cierto,
dice Nagel, que en cierto sentido puede haber otros rasgos que produzcan N , pero ese senti­
do no es relevante aquí. Es el sentido meramente lógico de ‘puede’ y aquí importa su sen­
tido físico. Es lógicam ente p o sib le que otro factor produzca N , pero, dado el mundo como
de hecho es, ello no es física m en te posible. Así pues, f ) no es una verdad conceptual, pero
sí una verdad nómica, una ley natural, que es de lo que aquí se trata. Nagel pone como
ejemplo el caso de la explicación de la presencia de clorofila en las plantas por su función
en la fotosíntesis. Es lógicamente posible que otras sustancias capaciten la fotosíntesis, pero
dado el mundo como de hecho es, no es físicamente posible: siendo las leyes biológicas las
que son, la clorofila es una condición necesaria para la fotosíntesis, de modo que de la exis­
tencia de fotosíntesis se deriva la presencia de clorofila.
Esta línea de respuesta no convencería a Hempel, pues su objeción era que la ine­
xistencia de equivalentes funcionales es em píricam ente (no sólo lógicamente) inacepta­
ble. Nagel se ocupa básicamente de la explicación funcional en biología, y ahí su tesis es
quizá defendible, esto es, los medios mediante los que los organismos desempeñan sus
funciones vitales son seguramente necesarios, dadas las leyes de la química, la biología y
la evolución. Pero en otros terrenos es más discutible: por ejemplo, en las explicaciones
funcionales en la antropología. ¿No es antropológicamente posible desarrollar la cohesión
grupal mediante otros procedimientos que los rituales, o mediante unos ritos en vez de
otros? Esto conecta con las explicaciones teleológicas, pues las explicaciones funcionales
en ciencias humanas (sociología, economía, antropología) son muchas veces teleológicas,
264 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

dependen d& fin e s con los que se desarrollan ciertas acciones, en estos casos colectivas. Y
en las explicaciones teleológicas es más difícil, si no patentemente inverosímil, sostener
la tesis de Nagel pues usualmente hay varios modos alternativos de alcanzar una misma
finalidad.
La dificultad principal de las explicaciones teleológicas y funcionales, más allá de
su carácter inferencial o no, se deriva de que están orientadas hacia el fu tu r o ( fu tu r e orien-
ted''). En estas explicaciones el explanans es posterior en el tiempo al explanandum. Pero si
la relación de explicación ha de ser en algún sentido causal, parecería que la causalidad ha
de tener la misma dirección que la explicatividad, esto es, del futuro al pasado, lo cual con­
traviene una característica esencial de las relaciones causales, a saber, que la causa es ante­
rior en el tiempo a su efecto. En la medida en que las relaciones causales involucradas sean
“normales”, esto es del pasado hacia el futuro, parecería que es el explanandum el que p r o ­
duce el explanans y no al revés. En conclusión, si las relaciones explicativas y causales van
en la misma dirección, parece que debemos aceptar causalidad hacia atrás ( ‘backw ard cau-
sation’); pero si la causalidad no puede ser hacia atrás, entonces en estos casos, explicativi­
dad y causalidad parecen tener direcciones contrarias. El problema que presentan las expli­
caciones teleológicas y funcionales es pues el de congeniar la dirección futuro-pasado de
estas explicaciones con la dirección pasado-futuro de la causación.
El primero en dar un análisis satisfactorio de las explicaciones teleológicas y fun­
cionales fue L. Wright (1973 y 1976). El análisis de Wright da cuenta de la orientación
hacia el futuro de estas explicaciones en términos causales que no requieren causali­
dad hacia el pasado. Aunque la idea es la misma en ambos casos, Wright distingue las
explicaciones teleológicas de las funcionales. Las explicaciones teleológicas explican a c ­
ciones o en general co nductas mediante cierta finalidad a las que están dirigidas. Son sus­
ceptibles de explicación teleológica tanto la conducta deliberada de los agentes inten­
cionales (p.ej. el viaje de Rosa a Salzburgo), como el “comportamiento” de artefactos di­
señados con un fin específico (p.ej. el movimiento de un torpedo), como la conducta no
intencional de los organismos vivos (p.ej. el andar cauteloso de los felinos). En el primer
caso la finalidad es el contenido de un deseo o intención del sujeto de la acción, en el se­
gundo el contenido de la intención con que se ha diseñado el artefacto, en el tercero la sa­
tisfacción de cierta condición necesaria para la supervivencia del organismo. La idea de
Wright es que en todos los casos de conducta dirigida a un fin, la conducta no sólo produ­
ce-causa el fin, sino que además la conducta ocurre p o rq u e, esto es, a causa de que, pro­
duce el fin. La conducta se produce p o rq u e conductas com o ésa han p ro d u cid o en el p a ­
sado hechos d el m ism o tipo que el fin . Tal como lo formula Wright:

S realiza / con la finalidad N syss:


h) I produce N
i) / ocurre porque produce N.

(En realidad, Wright no exige que I produzca N invariablemente, sino que tienda a produ­
cirlo, o que lo produzca generalmente. Pero este aspecto aproximativo del análisis pode­
mos obviarlo en el presente contexto.)
EXPLICACIÓN CIENTÍFICA 265

Aquí I y N son conductas y sucesos particulares, pero se hace referencia implíci­


ta a tipos de conductas y sucesos, h) dice que la conducta particular 7 causa el suceso
particular N , pero ya sabemos que tras una afirmación causal particular hay una relación
causal general, a saber, conductas del tipo de 7 causan sucesos del tipo de N. La referen­
cia implícita a los tipos de conductas y sucesos en i) es más fundamental, i) se ha de leer
del siguiente modo: es parte de la historia causal de la acción concreta 7 el que accio­
nes del tipo de 7 causen sucesos del tipo de N . Así, la condición h) sólo da cuenta de
(parte de) la dimensión causal de la explicación, no de su orientación hacia el futuro.
Esto es, h ) no da cuenta de en qué sentido apelamos a N , que pertenece al futuro de 7,
para explicar la ocurrencia de 7. Eso lo hace /). La explicación de una ocurrencia concre­
ta de la conducta 7 está dirigida hacia (“se encuentra en”) el futuro en el sentido precisa­
do por i): sucesos que son del mismo tipo del que tendrá lugar en el futuro, Ai, pero que
ocurrieron en el pasado, son causalmente responsables de la ocurrencia actual de 7; esto
es, que en el pasado sucesos del tipo de 7 causaran sucesos del tipo de N , causa la actual
ocurrencia de 7.
De este modo conjuga Wright causalidad hacia adelante y orientación hacia el fu­
turo en las explicaciones teleológicas. La referencia a los casos pasados sólo es esencial
en las explicaciones de conductas que, como las de los animales, no resultan de actos de
deliberación. En el caso de los artefactos, diseñados para desempeñar cierta función, se
puede tener la finalidad “desde la primera vez”, por así decir. Pero incluso la primera vez,
la causa de que ocurra un ejemplar de 7 es que I causa N: el acontecimiento 7 ocurre por­
que el diseñador hace que ocurra, y el diseñador hace que ocurra 7 porque sabe que 7 cau­
sa N y quiere que ocurra N , por tanto (*) “que (acontecimientos de tipo) 7 causa(n) (acon­
tecimientos de tipo) A/” pertenece a la historia causal del acaecimiento particular de tipo 7.
Pero nótese que (*) pertenece a esa historia en un sentido especial, pues es un hecho ge­
neral, una regularidad, y por tanto no “causa” las ocurrencias particulares de 7 ya que los
acaecimientos particulares tienen como causas otros acaecimientos particulares (p.ej. las
intenciones de los diseñadores de los instrumentos). Análogamente sucede en los casos de
conducta deliberada consciente de un sujeto cuando la conducta es resultado de una ac­
ción deliberada que se realiza por primera vez. Eso plantea el problema de las primeras
ocurrencias de conductas finalistas no deliberadas (todas las de los animales no conscien­
tes y la mayoría de las nuestras). En estos casos, o bien al principio se da cierta indetermi­
nación sobre su carácter finalista, o bien se supone que opera cierto tipo de ag en te d iseñ a ­
dor (la selección natural, o quizá un d eu s a rtifex ).
El análisis que Wright hace de las explicaciones, o adscripciones, funcionales es
esencialmente el mismo. La diferencia es que ahora lo que se explica no es una acción o
conducta sino la presencia de una entidad en cierto sistema, p.ej. un trozo de papel bajo
una puerta, un pico curvado en la cabeza de un ave o una señal de tráfico en una curva. El
análisis es análogo al de las acciones:

7 tiene la función N syss:


j ) la presencia-ahí de 7 produce N
k ) 7 está-ahí porque produce N,
266 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

Estas condiciones se deben leer en términos exactamente análogos a las anteriores: j) la


presencia-ahí de I causa N, y k ) la causa de que I esté-ahí es que I causa N.
La literatura sobre explicaciones teleológicas y funcionales posterior a los trabajos
de Wright es extensa y variada, pero no modifica los aspectos esenciales de su análisis
aquí expuestos. Hay contribuciones importantes sobre algunos elementos disposicionales,
o sobre la aplicación de este análisis a problemas de filosofía del lenguaje y de la mente,
pero escapan de los límites de esta obra.
C a pít u l o 8

ANÁLISIS SINCRÓNICO DE TEORÍAS I.


LA CONCEPCIÓN AXIOMÁTICA:
LAS TEORÍAS COMO CÁLCULOS INTERPRETADOS

Con este capítulo iniciamos la presentación de los diversos análisis de la noción


de teoría em pírica con que se pretende elucidar la naturaleza y estructura de las teorías
científicas. Como mencionamos brevemente en el capítulo 1, las teorías científicas son
entidades que se extienden o perduran en el tiempo, que permanecen a través del cambio.
Ello supone que el estudio puramente sincrónico que las considera como entidades estáti­
cas, “congeladas”, constituye sólo una primera aproximación que se debe completar con
un análisis diacrónico que dé cuenta del carácter persistente de estas entidades, esto es,
con una cinemática de teorías. En este capítulo y en los dos siguientes vamos a realizar la
primera parte de la tarea, el estudio sincrónico, que se completará en el capítulo 12 con el
análisis diacrónico. En las dos primeras secciones de este capítulo se presentan en detalle,
y se ilustran con ejemplos puramente formales, las nociones de teoría axiom ática y de
m odelo (o realización ); en la primera se presenta además una primera idea de otras nocio­
nes que se estudiarán en otros capítulos, especialmente las de contenido, reducción y
equivalencia. En la tercera sección se aplica la primera noción a las teorías empíricas y se
introduce el análisis clásico de las teorías empíricas como cálculos axiomáticos empírica­
mente interpretados. En las dos secciones siguientes se discuten dos cuestiones especial­
mente importantes de este análisis, (i) la naturaleza y función de las reglas de correspon­
dencia y (ii) la distinción teórico/observacional y el problema de la base empírica.

1. Teorías axiomáticas
Según cierta noción de teoría , una teoría es un conjunto de afirmaciones sobre un
determinado ámbito de la realidad. Así, según esta concepción, la Mecánica Clásica (MC)
consiste en una serie de afirmaciones sobre el movimiento de los cuerpos de tamaño me­
dio; la Termodinámica (TM), sobre sistemas que interaccionan intercambiando energía;
la Genética Mendeliana (GM), sobre la transmisión de rasgos en la generación de seres
vivos; la Economía del Intercambio (El), sobre procesos de transferencia de bienes de
consumo; la Aritmética de Peano (AP), sobre los números naturales y sus propiedades; la
268 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Teoría de Conjuntos (TC), sobre las clases, conjuntos o colecciones; o una supuesta Teo­
ría del Parentesco (TP) sobre los hechos que se derivan de las relaciones familiares. Con­
cebidas como conjuntos de afirmaciones sobre un determinado ámbito, las teorías se ana­
lizan o reconstruyen como teniendo cierta estructura que expresa las relaciones que man­
tienen entre sí las diversas afirmaciones y los diversos términos o conceptos con los que
se realizan tales afirmaciones. La noción formal que expresa esa estructura es la de cá lcu ­
lo axiom ático o, simplemente, teoría axiom ática, y se aplica por igual a teorías empíricas
y a teorías puramente formales; la diferencia radica en que esta noción agota el análisis de
las segundas pero no el de las primeras, que se debe completar con elementos adicionales.
Ahora vamos a contemplar exclusivamente este elemento común.

1 .1 . C á l c u l o s y t e o r ía s a x io m á t ic a s : t é r m in o s p r im it iv o s , a x io m a s y t e o r e m a s ;

DEFINICIONES Y TÉRMINOS DERIVADOS

La idea básica es que una teoría o conjunto de afirmaciones se puede “resumir”


o “concentrar” en algunas de sus afirmaciones, de las que se derivan todas las restantes
mediante un proceso de inferencia deductiva. A las afirmaciones que forman parte de
ese “conjunto-resumen”, consideradas p rim itiv a s, se las denomina ‘axiomas’, y a las
afirmaciones que se deducen de los axiomas, consideradas d e riv a d a s , se las denomina
‘teoremas’. Si llamamos co n ten id o de una teoría al conjunto de todas sus afirmaciones,
entonces tal contenido se encuentra ya co m p leto , aunque im p lícito , en los axiomas
(cf. cap. 2, §2). El contenido de la teoría, la información que da, es por tanto el conjunto
de consecuencias lógicas de los axiomas. Toda afirmación se encuentra ya en los axio­
mas: explícitamente, si es un axioma, o implícitamente, si no lo es, en cuyo caso se pue­
de hacer explícita deduciéndola lógicamente, esto es, obteniéndola como teorema a par­
tir de los axiomas. Los teoremas, por tanto, no contienen información nueva, sólo hacen
explícita información contenida implícitamente en los axiomas. Por supuesto, para que
esto sea así es preciso que de los axiomas en cuestión se sigan efectivamente todas las
afirmaciones de la teoría o sea, que el conjunto de axiomas sea su fic ie n te , o como se
dice a veces, c o m p le to . Al axiomatizar una teoría se pretende dar con un conjunto com­
pleto de axiomas para ella. Ésta es pues una condición necesaria para una buena axio-
matización.
Es fundamental ver que la anterior condición, aunque necesaria, no es suficiente.
Que de los axiomas se obtengan todas las afirmaciones no basta para una buena axíomati-
zación, pues de lo contrario el simple conjunto de todas las afirmaciones sería ya un buen
conjunto de axiomas. De tal conjunto se obtienen efectivamente, cómo no, todas las afir­
maciones; es, si se quiere, un conjunto de axiomas, pero no es un buen conjunto de axio­
mas pues viola el espíritu que inspira la axiomatización, a saber, dar una versión lo más
“resumida” o “concentrada” posible de la teoría. Así pues, es un principio metodológico
general que los axiomas han de constituir un conjunto m ínim o de afirmaciones primitivas,
ningún axioma debe ser deducible de los restantes; o, como se dice técnicamente, los
axiomas deben ser independientes entre sí (para una ejemplificación de ésa y otras nocio­
ANÁLISIS SINCRÓNICO DE TEORÍAS I 269

nes, cf. más abajo el ejemplo de las teorías del parentesco). Un buen conjunto de axiomas
para una teoría es por tanto un subconjunto de sus afirmaciones que sea completo y cuyos
miembros sean independientes entre sí. Es importante señalar que estas condiciones no
determinan un único subconjunto de tales afirmaciones. Dada una teoría (en sentido intui­
tivo), siempre hay más de un subconjunto completo e independiente de afirmaciones,
siempre hay axiomatizaciones alternativas.
Hasta aquí hemos hablado sólo de las afirmaciones de la teoría. Debemos hablar
ahora de los constituyentes de estas afirmaciones, los términos o conceptos de la teoría.1
Como veremos, la referencia a los términos introducirá una complicación adicional en las
relaciones entre las afirmaciones, pues además de axiomas y teoremas intervienen enton­
ces las definiciones.
Los términos de una teoría, los constituyentes de sus afirmaciones, expresan el
aparato conceptualizador de la teoría, esto es, el aparato con el que se pretenden capturar
las entidades de diverso tipo (objetos individuales y sus propiedades y relaciones) que
conforman el ámbito de la realidad del que se ocupa la teoría. Así, por ejemplo, MC habla
de partículas, masas, velocidades, etc.; AP habla de la propiedad de ser número natural,
del cero, de la función siguiente, etc.; TP habla de padres, hermanos, abuelos, etc. Los
términos de las teorías, contempladas éstas en su estadio intuitivo, son susceptibles tam­
bién en general de cierta simplificación. Por ejemplo, si en MC disponemos ya de ‘posi­
ción’ y ‘tiempo’ podemos prescindir como término primitivo de ‘velocidad’, pues se pue­
de introducir o definir a partir de los anteriores; o si en TP disponemos ya de ‘progenitor’
y ‘hermano’, podemos prescindir como término primitivo de ‘tío’, pues se puede introdu­
cir o definir a partir de los anteriores. Esta introducción de nuevos términos a partir de
otros anteriores supone la entrada en juego de otro tipo de “afirmaciones” o enunciados,
las definiciones, pues sólo mediante enunciados (o esquemas de tales) es posible explici-
tar el modo en que se introduce un término nuevo a partir de otros anteriores. Las defini­
ciones siempre tienen la forma de una equivalencia del tipo:

(1) “ct(f(xj,..., x,,)) s y s w p (/i,..., h, x \ , ..., x„)” (n > 0, k >1).

Aquí t es el nuevo término y r¡, ..., f*, son términos ya disponibles, esto es, términos primi­
tivos o ya definidos con anterioridad a t; n indica el número de variables a las que se apli­
ca el término, esto es, su ariedad; a y p son funciones preposicionales. Ésta es la forma
estándar que claramente presentan las definiciones de los relatores fiz-ádicos), que nom­
bran propiedades o relaciones entre individuos; por ejemplo, ‘ser impar’: “x es impar
syss^/X dividido entre 2 da de resto 1” (análogamente, p.ej., con ‘ser múltiplo de’). Pero
los términos de un lenguaje no siempre son relatores, puede haber también términos sin­
gulares (p.ej. ‘1’) y functores (p.ej. ‘el siguiente de ...’, ‘la intersección de ... y ...’) que
nombran, respectivamente, a individuos y a funciones-operaciones entre individuos. En

1. Términos o conceptos, respectivamente, según se entienda por ‘afirmación’ el enunciado mismo


o su contenido. De acuerdo con la práctica dominante en filosofía de la ciencia, seguiremos ahora en general
la primera interpretación, y diremos por tanto que los constituyentes de las afirmaciones son términos.
270 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

principio parece que las definiciones de términos singulares y de functores no se ajustan a


la forma (1) sino a estas otras:

(2) “f = (/<./Y(íi,4)” para términos singulares» y


(3) “f(xi,...»xn) = defl{t...... .. i,...»x„)” para functores (n-ádicos),

donde en ambos casos la parte derecha, “y(...)” es una d escripción que usa otros términos
ya disponibles; por ejemplo: “ 1 =v^el siguiente de 0” ; “x n y =*/el conjunto cuyos ele­
mentos son los elementos comunes a x e y ”. Sin embargo, es fácil ver que estas definicio­
nes se pueden expresar también mediante una equivalencia de la forma (1), esto es, res­
pectivamente, mediante:

(2') “para todo v z - t syssúef Z - y(?u ...» fi)’\


(3') “para todo z: z = t(x u ..., x„) syssílcfz = y(/i,.... x i,.... x n)".

Por tanto, la forma general de la definición queda bien expresada mediante (1) (ligera­
mente modificada pues, como el lector habrá advertido, (2') y (3') contienen cuantificado-
res y (1) no). Ahora bien, una vez señalado esto, lo usual es introducir los términos singu­
lares y los functores mediante (2) y (3) respectivamente, y así lo haremos también aquí.
Las definiciones no son afirmaciones del mismo tipo que los axiomas y los teore­
mas, no son afirmaciones sustantivas de la teoría sino que expresan meras abreviaturas
notacionales. Esto se expresa diciendo que las definiciones deben cumplir dos requisitos:
han de ser a) elim inables y b) no creativas o inocuas. Lo primero significa que cualquier
afirmación que contenga un término definido ha de poder eliminarse usando la definición
que introduce dicho signo; esto es, con ayuda de la definición se debe poder probar que
tal afirmación es equivalente a otra que no contenga dicho signo, y en última instancia, si
eliminamos los otros signos definidos previamente, equivalente a otra afirmación que
contenga sólo signos primitivos. Lo segundo significa que si tenemos una afirmación
que involucra el término definido t cuya prueba recurre, además de a los axiomas y otras
definiciones previas, a la definición de í, su afirmación equivalente resultante de eliminar
t ha de poder probarse sin recurrir a la definición de í, y si se han eliminado todos los tér­
minos definidos, ha de probarse a partir de los axiomas solos. Nótese que en caso contra­
rio la presunta definición contendría subrepticiamente información sustantiva, no sería
una mera abreviatura terminológica. En este sentido las definiciones son inocuas, no aña­
den nada al contenido de la teoría; por ello son teóricamente prescindibles, lo que se dice
con su ayuda se puede decir igualmente sin ellas. Por supuesto que si un teorema contiene
un término definido, para probarlo no nos bastan los axiomas, necesitamos además al me­
nos una definición, la que ha introducido dicho término (y sólo esa definición si es el úni­
co término no primitivo del teorema). Pero si el término se ha introducido correctamente,
mediante una definición eliminable y no creativa, ese teorema es equivalente a otro cuya
prueba no requiere dicha definición, y en última instancia equivalente a otro que contiene
sólo términos primitivos cuya prueba recurre exclusivamente a los axiomas. Las defini­
ciones son pues prescindibles, todo lo que se dice con su ayuda se puede decir sin ella; no
ANÁLISIS SINCRÓNICO DE TEORÍAS I 271

se puede decir exactamente de la misma forma, si dicha forma usa términos no primiti­
vos, pero sí de otra equivalente que sólo use términos primitivos. Ahora bien, aunque las
definiciones son teóricamente superfluas, no lo son en la práctica de la construcción y
aplicación de una teoría; en efecto, para teorías de un mínimo de complejidad conceptual
y fuerza expresiva, el prescindir totalmente de definiciones haría a éstas inmanejables y
prácticamente incomprensibles. Las definiciones poseen un gran valor de “economía inte­
lectual” en la construcción de las teorías.
En general al axiomatizar una teoría se pretende reducir al mínimo no sólo las
afirmaciones primitivas o básicas, los axiomas, sino también los términos primitivos. Es
cierto que en esto último la práctica es un poco más laxa y a veces se ofrecen axiomati-
zaciones en las que algunos términos básicos son definibles a partir de otros, pero ello
casi siempre responde a motivaciones pedagógicas (y por los mismos motivos, aunque
es menos usual, se dan a veces axiomas no independientes del resto); el ideal estricta­
mente científico es siempre el mismo: no presentar como primitivo lo que pueda ser de­
rivado, ya sean afirmaciones o conceptos. A veces las simplificaciones de axiomas y
términos van de la mano, pues un axioma puede ser eliminado si determinado término,
considerado primitivo hasta entonces, se define apropiadamente. Por ejemplo, en TC se
puede dar una axiomatización que contenga como término primitivo el signo functor de
par ordenado ‘< , >* y un axioma que regule su comportamiento, a saber “<x,y> = <z,v>
syss x = z y y = v”; pero esta axiomatización se puede simplificar, se puede eliminar di­
cho término como primitivo mediante la definición “<x,y> =,*/{*,{*,y}}”, de modo que
el mencionado axioma se convierte en un teorema que se prueba a partir de los restantes
axiomas y de dicha definición.
Hasta ahora hemos presentado las cosas como si una teoría axiomática fuese el re­
sultado de axiomatizar, reconstruir axiomáticamente, una teoría “en estadio intuitivo”
consistente en una serie de afirmaciones sobre un ámbito, afirmaciones que usan una serie
de conceptos. Entonces la teoría axiomática resulta de seleccionar apropiadamente algu­
nos de los conceptos como primitivos, seleccionar algunas de las afirmaciones que con­
tienen sólo dichos conceptos como verdades primitivas o axiomas, definir el resto de
conceptos que ya usa la teoría, y probar como teoremas el resto de afirmaciones, usando
en las pruebas sólo los axiomas cuando las afirmaciones contengan sólo términos primiti­
vos, o usando además las definiciones cuando contengan términos no primitivos. Esta es
la presentación que más naturalmente se corresponde con lo que de hecho ocurre históri­
camente, pues casi siempre la formulación de una teoría axiomática es el resultado de
axiomatizar, en este sentido, una teoría en estadio intuitivo. Según este modo de presen­
tarlo, de los términos no primitivos “ya se dispone” en la teoría.
La distinción entre axiomas y teoremas, y entre términos primitivos y definidos,
expresa la “dependencia” de unas afirmaciones respecto de otras y de unos conceptos res­
pecto de otros. Esta dependencia tiene claro sentido en una teoría ya axiomatizada (“regi­
mentada”), pero en una teoría intuitiva (en el estadio intuitivo de una teoría) es dudoso
que se puedan identificar relaciones de dependencia o prioridad en este sentido. Desde
una perspectiva preaxiomática, todas las afirmaciones y todos los conceptos están, por así
decir, “al mismo nivel”. Otra cosa son las relaciones de prioridad de otro tipo, por ejem-
272 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

pío epistémico, esto es, qué afirmaciones se consideran mejor fundamentadas, o más fá­
cilmente cognoscibles. De eso no vamos a decir nada aquí, sólo que esta dependencia
epistémica es en principio independiente de la que se introduce al axiomatizar y que, por
tanto, la axiomatización no tiene por qué seguir criterios de prioridad epistémica.
En la presentación axiomática de una teoría se ofrece simplemente una serie de
términos primitivos y una serie de afirmaciones primitivas que usan dichos términos, y
los términos definidos se introducen, si se quiere, después para abreviar los teoremas que
resultarían de escritura excesivamente larga si se usaran sólo los términos originales. Así
vista, una teoría parece “que parte de cero”, pero no hemos de olvidar que en la mayoría
de los casos lo que se pretende es “poner orden” en un cuerpo de afirmaciones previa­
mente existentes. Es importante señalar, además, que este proceso no siempre consiste en
una mera ordenación, pues a veces la versión intuitiva incluye afirmaciones incompati­
bles entre sí y al axiomatizar se debe tomar partido por alguna de las alternativas. De he­
cho, algunas de las axiomatizaciones han surgido precisamente como respuesta a determi­
nadas inconsistencias, o en general dificultades, descubiertas en la versión intuitiva; tal es
el caso de las teorías axiomáticas de conjuntos, motivadas principalmente por la paradoja
de Russell, o de las axiomatizaciones de las geometrías no euclídeas, que surgieron del
intento de probar la independencia en la geometría euclídea del axioma de las paralelas
respecto de los restantes.
Antes de ver algunos ejemplos es conveniente señalar que este análisis de las
teorías, o en general cuerpos de conocimiento, plantea inmediatamente cuestiones fun­
damentales relativas al significado de los términos teóricos y a la justificación de las
afirmaciones de la teoría. El significado de los términos definidos se retrotrae al de los
términos primitivos a través de las definiciones. La justificación de los teoremas se re­
trotrae a la de los axiomas a través de las pruebas de aquéllos a partir de éstos. Como
aprendemos pronto de niños, no toda afirmación se puede derivar de otras, ni todo tér­
mino se puede definir eliminativamente a partir de otros. Los términos primitivos y los
axiomas son los primitivos en los que nos detenemos; pero entonces el significado de
los términos de la teoría pende en última instancia del significado de términos para los
que no hay definición explícita, y la justificación de todas las afirmaciones de la teoría
pende en última instancia de la justificación de afirmaciones para las que no hay demos­
tración que parta de otras. ¿Cómo adquieren aquéllos significado y éstas justificación?
Nótese que, por más que dispongamos de cierta “preconcepción” del significado de los
términos primitivos, ello corresponde al estadio intuitivo o preaxiomático de la teoría.
Desde una perspectiva axiomática, lo único que especifica explícitamente la teoría al fi­
jar los términos primitivos es su categoría lógica, esto es, si se trata de relatores, functo-
res o términos singulares, categoría que nos permite combinarlos correctamente de
acuerdo con la gramática del lenguaje lógico que se utilice. En cuanto a las afirmacio­
nes primitivas, lo único que hace la teoría desde un punto de vista formal es elegir, de
entre las infinitas combinaciones bien formadas de términos primitivos y signos com­
plementarios (lógico-matemáticos, según la teoría formal que se presuponga), algunas
de ellas para fy arlas como axiomas. La pregunta por el significado de los términos pri­
mitivos y por la justificación de los axiomas de la teoría surge pues inmediatamente al
ANÁLISIS SINCRÓNICO DE TEORÍAS I 273

contemplar las teorías como sistemas axiomáticos. De esta cuestión nos ocuparemos por
extenso más adelante en éste y en los dos próximos capítulos, de momento nos interesa
tan sólo la estructura formal de los sistemas axiomáticos.
Para fijar las ideas anteriores vamos a dar el esbozo de algunas teorías axiomáti­
cas, principalmente de las ciencias formales que es donde más claramente, al menos
hasta mediados del siglo XX, ha sido aplicada esta noción; lo peculiar de cierto modo de
entender las teorías empíricas es que considera que la naturaleza y estructura de las teo­
rías empíricas también se expresa adecuadamente mediante la noción de teoría axiomá­
tica, adecuadamente completada para dar cuenta de las peculiaridades del conocimiento
empírico frente al lógico-matemático. Antes de ver los ejemplos reales provenientes de
las ciencias formales, y puesto que no cabe suponer en general el conocimiento del con­
tenido intuitivo de dichas teorías, comenzaremos con una pseudoteoría cuyo contenido
nos es familiar a todos, la “Teoría” del Parentesco. Vamos a ver cómo se puede expresar
este cuerpo de afirmaciones como teoría axiomática en el sentido elucidado, de modo
que capte “las verdades sobre el parentesco” que conocemos. El esquema es siempre el
mismo: n términos primitivos ó , ..., f,„ m axiomas A u ..., A m\ teoremas Ti, T 2,... con tér­
minos primitivos; p definiciones-abreviaturas D u ..., D p, que introducen p términos deri­
vados f„+i......tn+p, y finalmente nuevos teoremas que contienen también términos deriva­
dos. Toda afirmación de la teoría ha de estar constituida exclusivamente por términos
propios de la teoría, primitivos o definidos, más vocabulario lógico (‘todo’, ‘y’,
‘no’, etc.).

1.2. E je m p l o : t e o r ía s d e l p a r e n t e s c o . R e d u c c ió n y e q u iv a l e n c ia

Vamos a presentar aquí, como ejercicio, algunas “teorías del parentesco” de entre
las varias que es posible construir. Estas teorías expresan, mejor o peor, las afirmaciones
básicas relativas a ese ámbito de la realidad constituido por las relaciones de parentesco
sanguíneo o biológico. Además de fijar las ideas anteriores, estos ejemplos servirán para in­
troducir algunas ideas nuevas concernientes a las posibles relaciones que pueden darse en­
tre diversas teorías. Para una mayor precisión, la presentación de las teorías debería utilizar
el lenguaje formal de primer orden, pero de momento, y para facilitar la lectura, escribire­
mos aquí en general los diversos enunciados de las teorías en lenguaje informal; sólo dare­
mos como muestra la versión formal de los axiomas en el primer ejemplo. El lector debe
notar que, como señalamos más arriba, los enunciados contienen exclusivamente términos
introducidos explícitamente por la teoría o términos puramente lógicos.

Teoría del P arentesco 1 ( T P 1):

Términos (o conceptos) primitivos:


C 1. Progenitor (relator diádico): P
C2. Varón (relator monádico): V
C3. Hembra (relator monádico): H
274 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

A x io m a s:
A l. Todo individuo es varón o hembra, y sólo una de las dos cosas.
Va (Va <-> -> Ha)
A2. Todo individuo tiene al menos un progenitor varón.
Vx3y (Vy a Pyx)
A3. Todo individuo tiene al menos un progenitor hembra.
Vx3y (H y a Pyx)
A4. Todo individuo tiene como máximo dos progenitores.
V x,y,z,t (P xt a P yt a P zt - ^ z = x v z = y v x - y )
A5. Si un individuo es progenitor de otro, éste no lo es de aquél.
Va,y (P xy —» -> P yx)

Con estos axiomas ya se pueden probar algunos teoremas:

TI. Todo individuo tiene exactamente dos progenitores.


(Prueba: De A2, A3 y A l se sigue que tiene al menos dos progenitores dife­
rentes, de ello y de A4, se sigue que tiene exactamente dos. QED)
T2. Nadie es su propio progenitor.
T3. Para todo individuo existen como mínimo dos hembras que son progenitoras
de progenitores de dicho individuo.

Como muestra T3, algunos teoremas pueden ser muy largos, por lo que es conveniente in­
troducir algunas abreviaturas o definiciones (las incompletas las puede completar el lec­
tor; nótese que según la noción de hermano que se va a definir, todo individuo es herma­
no de sí mismo):

DI. Padre: a es padre de y syss^/X es progenitor de y y a es varón.


D2. Madre: a es madre de y syss^/X es progenitor de y y a es hembra.
D3. Her: a es her de y syss(,c/X e y tienen los mismos progenitores.
D4. Hermano: a es hermano de y syss^/x es her de y y a es varón.
D5. Hermana: a es hermana de y syss¿(/ .................
D6. Hij: a es hij de y syssdefy es progenitor de a .
D7. Hijo: a es hijo de y syssáe¡ ...............
D8. Abu: a es abu de y syss*/x es progenitor de algún progenitor de y.
D9. Ti: a es ti de y syssáe¡ ................

El lector puede dar las definiciones restantes (sob, sobrino, sobrina, prim, primo, etc.).
Con estas definiciones podemos abreviar, p.ej., T3 como T4 y, en general, expresar mu­
chas de las afirmaciones de la teoría intuitiva mediante términos no primitivos:

T4. Todo individuo tiene como mínimo dos abuelas.


T5. Todo individuo tiene exactamente un padre y una madre.
T6. Todo individuo es her de sí mismo.
ANÁLISIS SINCRÓNICO DE TEORÍAS I 275

T7, Los her de her son her entre sí.


T8. Nadie es su propio padre,
T9. Si uno es hij de otro, éste no lo es de aquél.

TP1 es un ejemplo sencillo de teoría axiomática pero que contiene ya todo lo


esencial; toda teoría axiomática, por muy complicada que sea, tiene exactam ente esta es­
tructura. TP1 sólo contiene relatores y, como hemos visto antes, las teorías pueden conte­
ner también como términos, primitivos o derivados, functores y términos singulares (p.ej.
podríamos haber dado una teoría “bíblica” del parentesco con los términos singulares pri­
mitivos ‘Adán’ y ‘Eva’, en cuyo caso deberíamos modificar algunos axiomas pues A2 y
A3 no valen para Adán y Eva). El número y variedad categorial de los términos de una
teoría aumenta considerablemente su complejidad, pero la estructura es esencialmente la
misma en todos los casos, esto es, como la que TP1 ejemplifica. Por otro lado, como teo­
ría del parentesco TP1 no es muy buena, pues no permite obtener como teoremas afirma­
ciones de la teoría intuitiva como “nadie es bisabu de sí mismo”. La siguiente teoría, que
amplía TP1 añadiendo el término nuevo ‘ancestro’ y sus correspondientes axiomas, es un
poco mejor.

Teoría del P arentesco 2 (TP2):

Términos primitivos:
C l. Ancestro (relator diádico)
C2. Progenitor (relator diádico)
C3. Varón (relator monádico)
C4. Hembra (relator monádico)
Axiomas:
A l. Si uno es ancestro de otro, éste no lo es de aquél.
A2. Si uno es ancestro de otro y éste lo es de un tercero, entonces el primero lo
es del último.
A3. Si un individuo es progenitor de otro, también es su ancestro.
A4. Si un individuo es ancestro de otro, entonces le conecta con éste una se­
cuencia finita de progenitores.
A5. Todo individuo es varón o hembra, y sólo una de las dos cosas.
A6. Todo individuo tiene al menos un progenitor varón.
A7. Todo individuo tiene al menos un progenitor hembra.
A8. Todo individuo tiene como máximo dos progenitores.
A9. Si un individuo es progenitor de otro, éste no lo es de aquél.

Hemos dado los axiomas de TP2 añadiendo simplemente los cuatro primeros a los
de TP1, extendiendo o aumentando TP1 con un nuevo término primitivo y nuevos axio­
mas. El resultado no es muy feliz, pues ahora A9 es redundante, no es independiente del
resto pues se sigue de A l y A3. Construyamos ahora una nueva teoría del parentesco sim­
plemente eliminando A9 de TP2:
276 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Teoría del P arentesco 3 (TP3):

Los mismos términos primitivos y derivados que TP2 y los mismos axiomas salvo
A9.

TP3 está un poco mejor que TP1 pues se obtienen como teoremas todos los de
TP1 más algunas afirmaciones que se le escapaban a TP1, como “nadie es bisabu de sí
mismo”, y además otras afirmaciones deseables sobre el nuevo concepto, tales como
“todo individuo tiene tantos ancestros varones como hembras” y “dos individuos tienen
los mismos progenitores si y sólo si tienen los mismos ancestros”. TP3 presenta además
una característica novedosa respecto de TP1. TP1 contiene, además de sus términos pri­
mitivos, sólo términos lógicos, términos de la lógica de primer orden (LPO) que es por
tanto la teoría presupuesta por TP1 y “dentro de la cual” realizamos nuestras demostracio­
nes. Pero TP3, en su A4, contiene un término extralógico, el término ‘secuencia finita’.
Este término no pertenece a LPO sino a otra teoría formal específica más rica que LPO, la
aritmética o, alternativamente, la teoría de conjuntos. Algunas teorías pueden por tanto
utilizar como recursos formales adicionales (términos y principios), no sólo los de la lógi­
ca que utilice sino también los de alguna teoría matemático-formal. En TP3 esos recursos
teóricos formales adicionales son muy sencillos, pero en teorías físicas altamente mate-
matizadas pueden incluir partes muy elevadas de la matemática (cálculo diferencial, teo­
ría de tensores, etc.).
TP3 ilustra además otro hecho. Diremos que una teoría es inm ediatam ente sim plifi-
cable si sus axiomas no son independientes. Vimos que TP2 era una extensión de TP1 in­
mediatamente simplificable y eliminando el axioma redundante obteníamos TP3, que ya no
es inmediatamente simplificable. Pero aunque TP3 es mejor que TP2, no es todo lo buena
que podría ser pues es simplificable en otro sentido menos inmediato pero igualmente im­
portante, sentido en el que desempeñan un papel fundamental los términos primitivos. El
sentido es el siguiente: podemos definir alguno de sus términos primitivos en función de los
restantes de modo que alguno de los axiomas pase a ser deducible del resto, esto es, de
modo que la nueva teoría sea inmediatamente simplificable. Eso es lo que pasa con TP3,
pues puedo definir ‘progenitor’ en función de ‘ancestro’ (un progenitor es un “ancestro de
primera generación”) obteniendo una teoría inmediatamente simplificable.

Teoría del P a ren tesco 4 (TP4):

Los mismos términos primitivos que TP3 salvo ‘progenitor’, que se introduce
ahora como término definido del siguiente modo:
x es progenitor de y syss^/X es ancestro de y y no hay ningún individuo z tal
que x es ancestro de z y z es ancestro de y.
Los mismos axiomas que TP3.

Se dirá que ahora los axiomas de TP4 no pueden ser directamente los de TP3 pues
contienen un término, ‘progenitor’, que ahora no es primitivo. Pero nada impide que una
ANÁLISIS SINCRÓNICO DE TEORÍAS I 277

teoría contenga axiomas con términos definidos; estos términos son meras abreviaturas y,
si se prefiere, podemos escribir los axiomas sin ellos, pero también podemos hacerlo con
su ayuda si usando sólo términos primitivos resultan muy engorrosos, como ocurriría con
los axiomas 3, 6, 7, 8 y, en especial, 4 de TP4 (que ahora diría que no hay secuencias infi­
nitas de “ancestros consecutivos”). Pues bien, los escribamos como los escribamos, en su
actual forma o “deshaciendo” la definición de ‘progenitor’, el resultado es que ahora A3
se puede probar como teorema, es decir, TP4 es inmediatamente simplificable.
Esta situación nos permite una primera aproximación intuitiva a dos conceptos de
los que nos ocuparemos por extenso más adelante, los de reducción y equivalencia
(cf. cap. 11). Obtengamos ahora una nueva teoría eliminando de la teoría inmediatamente
simplificable TP4 el axioma redundante A3.

Teoría del P arentesco 5 (TP5)\

Los mismos conceptos primitivos y derivados que TP4 y los mismos axiomas me­
nos A3.

Olvidemos por el momento TP2 y TP4, que no son buenas teorías axiomáticas al
ser inmediatamente simplificables, y centrémonos en TP1, TP3 y TP5, buenos sistemas
axiomáticos con todos sus axiomas independientes. Tal como hemos dado con ellas, de­
berían estar claros ahora los siguientes hechos: a) TP3 y TP5 “dicen lo mismo”, tienen el
mismo contenido; b) TP3 y TP5 “dicen al menos tanto como” TP1, todo el contenido de
TP1 es también contenido de éstas. En el primer caso decimos que TP3 y TP5 son eq u i­
valentes , en el segundo que ambas reducen TP1. Intuitivamente: una teoría T reduce otra
T si el contenido de T es parte (quizá no estricta) del contenido de T; una teoría T es
equivalente a otra T cuando tienen el mismo contenido, es decir, cuando se reducen mu­
tuamente.
Tal como hemos obtenido nuestras teorías, quizá estas relaciones no parezcan
muy interesantes. TP3 es una simplificación de TP2, que es una simple ampliación (inme­
diatamente simplificable) de TP1, por lo que poco tiene de sorprendente que TP2, y con
ella TP3, reduzcan TP1; en realidad TP3 tiene incluso todos los conceptos primitivos de
TP1, y algunos más, nada muy sorprendente pues que diga lo mismo que ella y quizá algo
más. Pero es esencial destacar que la reducción no exige que la teoría reductora contenga
como primitivos los términos primitivos de la reducida; TP5 reduce TP1 y entre sus tér­
minos primitivos (‘ancestro’, ‘varón’, ‘hembra’) no están todos los primitivos de TP1
(‘progenitor’, ‘varón’, ‘hembra’). Y lo mismo ocurre respecto de la equivalencia o reduc­
ción recíproca. TP3 y TP5 son equivalentes y sin embargo no tienen exactamente los mis­
mos términos primitivos. En este caso particular, los términos primitivos de una de las
teorías, TP3 (‘ancestro’, ‘progenitor’, ‘varón’, ‘hembra’), incluyen los primitivos de su
equivalente TP5. Pero no es necesario ni que tengan los mismos términos primitivos ni si­
quiera que los de una lo sean también de la otra. Como ejemplo tómese la siguiente teoría
del parentesco.
278 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Teoría del P arentesco 6 (TP6):

Términos primitivos:
C 1. Padre (relator diádico)
C2. Madre (relator diádico)
C3. Varón (relator monádico)
C4. Hembra (relator monádico)
Axiomas:
A l. Todo individuo es varón o hembra, y sólo una de las dos cosas.
A2. Todo individuo tiene exactamente un padre.
A3. Todo individuo tiene exactamente una madre.
A4. Los padres de alguien son varones y las madres hembras.
A5. Si un individuo es padre de otro, éste no lo es de aquél.
A6. Si un individuo es madre de otro, éste no lo es de aquél.
Definiciones:
DI. Progenitor: x es progenitor de y syssílefx es padre o madre de y.
El resto de definiciones como en TP1.

Pues bien, es fácil ver que TP6 es equivalente a TP1 (y como TP1, por tanto, redu­
cida por TP3 y TP5) y sin embargo ninguna incluye como primitivos todos los conceptos
primitivos de la otra. Lo que sí ocurre, y este es el punto esencial, es que los términos pri­
mitivos de una pueden ser definidos mediante los de la otra (en los términos comunes la de­
finición es inmediata, la gracia está en los no comunes) de modo que los axiomas de una se
convierten en afirmaciones (axiomas o teoremas) de la otra. Éste es el concepto un poco
más refinado de reducción: T reduce T ‘si los términos primitivos de T pueden ser defini­
dos en T de modo que los axiomas de V se obtienen como axiomas o teoremas de T (sólo
como teoremas, si no tienen ningún término en común); T y T son equivalentes si se redu­
cen mutuamente. Cuando las teorías tienen términos comunes, como en nuestras teorías del
parentesco, estas relaciones no suelen ser extremadamente interesantes, después de todo
“parecen hablar (al menos parcialmente) de lo mismo”. Más interesantes son los casos, que
discutiremos por extenso más adelante (cf. en el próximo apartado de esta sección el ejem­
plo de la teoría de conjuntos y la aritmética, y para ejemplos empíricos el capítulo 11), en
los que las teorías involucradas no comparten ni siquiera parcialmente el material concep­
tual, esto es, cuando las teorías parecen en principio estar hablando de cosas diferentes y se
descubre que una teoría reduce otra. Este tipo de situaciones tienen el máximo interés desde
el punto de vista metacientífico, como veremos, por su relevancia en los fenómenos de
cambio teórico y sus implicaciones epistemológicas y ontológicas (cap. 13).

1.3. A r it m é t ic a , t e o r ía d e c o n ju n t o s y l ó g ic a p r o p o s ic io n a l

Acabaremos dando algunos ejemplos de teorías axiomáticas pertenecientes al


campo de las ciencias formales, más interesantes a efectos ilustrativos que nuestra in­
ANÁLISIS SINCRÓNICO DE TEORÍAS I 279

ventada teoría del parentesco pues corresponden a casos reales de teorías axiomati-
zadas.

A ritm ética de P eano (A P ):

AP, axiomatizada por Peano (y Dedekind) a finales del siglo xix, pretende siste­
matizar axiomáticamente las verdades conocidas y utilizadas informalmente desde anti­
guo sobre los números naturales y sus propiedades, relaciones y operaciones básicas.

Términos primitivos.
C l. Número natural (relator monádico)
C2. Cero (término singular)
C3. El siguiente de (functor monádico)
Axiomas:
A l. Si un objeto es número natural, su siguiente también lo es.
A2. El cero es un número natural.
A3. El cero no es el siguiente de ningún número natural.
A4. Dos objetos con el mismo siguiente son el mismo.
A5. Si el cero tiene una propiedad <p y el que un número natural sea (p implica
que su siguiente también es <p, entonces todo número natural tiene la propie­
dad tp.

(Nótese que A5 no es exactamente un único axioma sino lo que se denomina un esquem a


axiom ático , un axioma con una (meta)variable libre (p, en este caso una variable para pro­
piedades, que da lugar a axiomas específicos para cada ejemplificación concreta de la
variable.)

Teoremas:
TI. El siguiente del siguiente del cero es un número natural.
T2. El siguiente del siguiente del cero no es el siguiente del cero.
T3. Cero no es el siguiente del siguiente de cero.
Definiciones:
DI. Uno = í!ej&1 siguiente de cero.
D2. Dos = def t 1 siguiente de uno.
D3. Tres = áef ........
D4. Suma (functor binario: la suma de ... y ...):
a) x más cero = <¡e/X
b) x más el siguiente de y = ^ e l siguiente de (x más y).
D5. Producto (functor binario):
a) x por cero = ^/cero
tí) x por el siguiente de y = d£fx más (x por y).
D6. x < y syss^/existe un número natural z tal que x más z = y.
D7. x es par syssí/e/existe un natural z tal que x - dos por z-
280 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

(D4 y D5 son lo que se denomina definiciones recursivas; intuitivamente; el resultado de


la operación de un número con otro diferente de cero se da en función del resultado con el
anterior del segundo —cláusula b )— ; como además se da el resultado de operar cualquier
número con el cero —cláusula a )—, queda bien definida la operación para cualesquiera
números, pues todos los números surgen del cero mediante la función siguiente.)

Teoremas:
T4. Dos es número natural y par.
T5. Dos no es el siguiente del cero.
T6, Cero no es el siguiente de uno.
T7. Uno más dos = tres.
T8. Para todo jc, y: x más y = y más jc.
T9. Para todo x: x por uno = x.
TIO. Para todo x, y: x < x más y.

Teoría de C onjuntos (TC):

TC es una teoría desarrollada en su práctica totalidad por el matemático alemán


G, Cantor a finales del siglo xix. TC trata de los “agregados”, conjuntos, colecciones o
clases, de las propiedades, relaciones y operaciones entre estas entidades. TC se axiomati-
zó a principios del siglo xx como parte de algunas estrategias para resolver los problemas
de fundamentos derivados de la inconsistencia de la teoría en su versión intuitiva inicial.
Hay varias axiomatizaciones alternativas, y la que damos aquí es parcial pues recoge sólo
algunos de los axiomas más comunes; es por tanto insuficiente y no contiene los elemen­
tos que hacen propiamente interesantes las diversas axiomatizaciones existentes.

Términos primitivos:
C l. Conjunto (relator monádico).
C2. Pertenencia (relator diádico:... es elemento de ...).
Axiomas:
A l. Dos conjuntos a los que pertenecen los mismos objetos son el mismo.
A2. Dado un conjunto y una propiedad cp, hay un conjunto cuyos elementos son
los elementos del primero que tienen la propiedad cp.
A3. Existe algún conjunto que no tiene elementos,
A4. Dados dos conjuntos, existe otro formado por los elementos de los anteriores,
A5. Dados dos objetos, existe un conjunto formado por ambos.

(El lector habrá notado que A2 es un esquema axiomático.)

Teoremas:
TI. Existe un y sólo un conjunto sin elementos.
T2. Dados dos conjuntos, existe un y sólo un conjunto cuyos miembros son los
elementos de los anteriores.
ANÁLISIS SINCRÓNICO DE TEORÍAS I 281

T3. Dados dos conjuntos, existe otro formado por los elementos comunes de
ambos, y es único.
T4. Dados dos conjuntos, existe otro formado por los elementos del primero que
no pertenecen al segundo, y es único.
Definiciones:
DI. 0 —í/f/el conjunto sin elementos.
D2. r e y syss^/ los elementos de x son también elementos de y.
D3. x y ¿fgj"d conjunto formsclo por los elementos de x o de y*
D4, x o y — el conjunto formado por los elementos comunes de x e y.
D5. x - y = def el conjunto formado por los elementos de x que no pertenecen a y.
Teoremas:
T5. Para todo x : 0 c i
T6. Para todo x: x u 0 = x.
T7. Para todo x , y : x n y = y m
T8. Para todo x, y, z: x - (y kj z ) = ( x - y) n (x - z).
T9. Para todo x, y: si x <= y entonces x n y = x.

AP y TC proporcionan una ilustración interesante de uno de los conceptos que in­


trodujimos más arriba con ocasión de las diversas teorías del parentesco, la relación de re­
ducción. Vimos entonces que TP5 reducía TP1, hecho que no parecía muy interesante
dada la inmediata proximidad temática de ambas teorías. Pues bien, uno de los logros más
importantes de la historia de las ciencias formales (debido fundamentalmente a Frege)
consiste en haber mostrado que AP se reduce a TC (no a esta TC, sino a la teoría de con­
juntos en su versión completa). Éste es un hecho en principio sorprendente pues ambas
teorías parecen hablar “de cosas diferentes”. Pues bien, Frege mostró que hay una manera
de definir los números como determinados conjuntos (o extensiones , como él decía) de
modo que las verdades básicas sobre números se derivan de las verdades básicas sobre
conjuntos: es posible definir los términos aritméticos primitivos mediante términos con-
juntistas de modo tal que los axiomas de la aritmética se convierten en teoremas que se
derivan de los axiomas de la teoría de conjuntos. La reducción se da pues exactamente en
el mismo sentido que más arriba vimos respecto de TP1 y TP5, pero ahora es realmente
interesante pues las teorías involucradas no comparten, en principio, aparato conceptual.
A modo de ejemplificación de la idea abstracta de reducción, vamos a presentar
tan sólo las líneas generales de la reducción de AP a TC (ahora nos expresaremos inco­
rrectamente y mezclaremos definición de términos con identificación de entidades). El
cero se define identificándolo con el conjunto vacío. Para la función siguiente hay varias
posibilidades. Una es definir el siguiente de un conjunto x como su unitario {x} (cuya
existencia unívoca queda garantizada: si existe x, existe por A5 {x, x} que es idéntico a
{x} por Al). Otra posibilidad es definir el siguiente de un conjunto x como su unión con
su unitario, e.e. como x u {x} (cuya existencia unívoca también queda garantizada, por
la existencia de {x} más A4). La definición de ‘número natural’ requiere algunas compli­
caciones que no hemos incluido en la versión simplificada de TC que hemos presentado.
En especial se requiere el siguiente axioma que habíamos omitido: “existe al menos un
282 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

conjunto tal que a) tiene como elemento 0 y b) si tiene como elemento un conjunto, en­
tonces tiene también el siguiente de dicho conjunto”. Este axioma asegura que existe al
menos un conjunto con el vacío y con todos los que le siguen (que son infinitos, por eso
se le denomina a veces Axioma de Infinitud). A los conjuntos así se les denomina in d u cti­
vos, y es posible que haya varios tales conjuntos “inductivos”, si además de tener esos ob­
jetos tienen otros. Pues bien, el menor de todos esos conjuntos inductivos, e.e. la intersec­
ción de todos ellos, tiene como elementos sólo el vacío y sus siguientes, es decir, los nú­
meros naturales “definidos” en términos conjuntistas. La propiedad de ser un número na­
tural se define entonces como “pertenecer al menor conjunto inductivo”, definición con la
que concluye la reducción de la aritmética a la teoría de conjuntos, pues ahora los cinco
axiomas de Peano son teoremas de TC (con algunas complicaciones que hemos obviado,
sobre todo relacionadas con A5 de AP, pero que no son esenciales para la idea general).

L ógica P ro p o sicio n a l (LO):

Concluimos con la presentación del propio cálculo lógico de la lógica proposicio­


nal (lo mismo se podría hacer con la lógica de primer orden). Aunque hoy es usual pre­
sentar los cálculos lógicos como cálculos de deducción natural, históricamente se formu­
laron originariamente como cálculos axiomáticos; eso fue (parte de) lo que hicieron, p.ej.,
Frege en su B eg riffssch rift y Russell y Whitehead en P rincipia M a them atica para la Lógi­
ca de Primer Orden. En lo que sigue referimos sólo los axiomas de una de las diversas
versiones posibles para la lógica de enunciados (no referimos las reglas de inferencia,
Modus Ponens y Sustitución; las variables están por proposiciones, y los axiomas y teore­
mas se han de leer, como en las teorías anteriores, clausurados universal mente).

Términos primitivos:
C l. Negador: -i (functor monario).
C2. Implicador: (functor binario).
Axiomas:
A l. x —> (y —^ x).
A2. (-i x -» -i y) -> (y -» x).
A3. (x —» (y —> z)) ((x —> y) —> (x —>■z)).
Teoremas:
TI. x —>x.
T2. n ( x - > n x ) .
T3. x —> ( i x - » y ) .
Definiciones:
DI. x v y = (/(,/ -ix -» y .
D2. x Ay = ^ - i (x-> iy ) .
D3. x y —c¡ef (x —>y) a (y —y x).
Teoremas:
T4. — • (x a - i x).
T5. x v “i x.
ANÁLISIS SINCRÓNICO DE TEORÍAS I 283

T6. (x a -i *) —>y.
T7. (x-»(y —>— <jy)) —>—
i x.
T8. i (a: a y) (~i x v -i y).
T9. (j c a (})v z ) ) o ((* a y) v (x a z)).

Con LO como última ilustración concluimos la presentación del concepto de


cálculo o teoría axiomática y de otras nociones relacionadas, como las de reducción y
equivalencia. Para fijar estos conceptos hemos utilizado intencionadamente como ejem­
plos (además de nuestras inventadas teorías del parentesco) teorías pertenecientes al cam­
po de las ciencias formales. El motivo es que el análisis de las teorías de las ciencias em­
píricas como cálculos axiomáticos presenta problemas específicos que no tienen que ver
con el concepto abstracto de teoría axiomática. Una vez fijado el instrumental conceptual,
en las secciones subsiguientes nos ocuparemos por extenso de su eventual aplicación a las
ciencias empíricas y los problemas específicos que tal aplicación comporta. Finalizare­
mos esta introducción del aparato conceptual presentando el concepto formal de m odelo o
realización de una teoría axiomática.

2. Teorías y modelos

En el lenguaje común el término ‘modelo’ es un término extremadamente polisé-


mico, y dentro mismo de la filosofía de la ciencia se usa con toda una variedad de signifi­
cados diferentes (para un análisis de los mismos, cf. Falguera, 1993). Una familia de tales
significados tiene que ver con la idea de caso o realización de una afirmación o conjunto
de ellas. Así, por ejemplo, podemos decir que Romeo y Julieta, o mejor ellos “junto con
su amor”, son un modelo, caso o realización de la afirmación “los amantes prefieren la
muerte a la separación”; o que España y Bélgica, “con todo lo que llevan dentro”, son en
la actualidad modelos o casos de monarquía constitucional, esto es, de una serie de princi­
pios o reglas políticas, y que Francia, Italia y Portugal lo son de estados republicanos
(aunque España y Bélgica no realizan exactamente los mismos principios monárquicos,
sólo comparten parte de ellos, y lo mismo Francia, Italia y Portugal respecto de los princi­
pios republicanos). Parte del sentido de este uso es explicitado y precisado por una teoría
lógico-matemática altamente abstracta, la Teoría de Modelos. No vamos a ver aquí si­
quiera los rudimentos de tal teoría, nos limitaremos a presentar informalmente el concep­
to de modelo del que ella se ocupa, pues desempeña un papel importante en algunos aná­
lisis metateóricos que veremos en éste y próximos capítulos.
Un modelo en el sentido de la Teoría de Modelos (en adelante escribiremos simple­
mente ‘modelo’) es un sistema o estructura, un “trozo de la realidad” constituido por enti­
dades de diverso tipo, que realiza una teoría o conjunto de axiomas en el sentido de que en
dicho sistema “pasa lo que la teoría dice” o, más precisamente, la teoría es verdadera en di­
cho sistema. Si tomamos los principios monárquicos generales comunes a las constitucio­
nes española y belga, y los bautizamos como Teoría Mínima de la Monarquía Constitucio­
nal, entonces España y Bélgica, y p.ej. también Suecia, como sistemas o “partes de la reali­
284 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

dad”, son modelos de dicha teoría, y Francia, Italia y Portugal no lo son. Esta idea intuitiva
se puede hacer precisa mediante la noción formal de sistema o estructura que presentamos
en el Apéndice. Recordemos que un sistema es simplemente una tupia o secuencia de enti­
dades conjuntistas construidas a partir de un universo o dominio básico de objetos. A veces
puede haber varios dominios básicos, pero eso no es una diferencia esencial, pues siempre
se puede tomar su unión como el universo y después destacar de él los subconjuntos princi­
pales. Lo importante es que un sistema es o representa “un pedazo de la realidad”, no es por
tanto una entidad lingüística, salvo quizá, en algunas ocasiones, en un sentido derivado
cuando los objetos del universo son ellos mismos entidades lingüísticas. El dominio básico
puede constar de personas, números, proposiciones, partículas o cualesquiera otras entida­
des, por ejemplo enunciados. En el primer caso tenemos un sistema “humano”, en el segun­
do otro “numérico”, y en el último caso tenemos un sistema “lingüístico", constituido por
entidades lingüísticas. Pero incluso si en este caso queremos decir que el sistema es una en­
tidad lingüística en el sentido de estar construido por entidades lingüísticas, ello sólo es un
modo de hablar, pues estos sistemas “lingüísticos” no son ellos mismos entidades lingüísti­
cas. Por tanto los sistemas son simplemente p a rtes estructuradas de la realidad, y como ta­
les no son entidades lingüísticas susceptibles de ser verdaderas o falsas o de tener significa­
do. Son más bien la realidad respecto de la cual ciertas entidades lingüísticas, enunciados o
conjuntos de ellos, las teorías entendidas en el sentido axiomático visto, son verdaderas
o falsas. O si se quiere, contemplada la relación en la dirección opuesta, son partes de la
realidad que se comportan o no como afirma la teoría, que satisfacen o no las afirmaciones
de la teoría. Puesto que en una teoría axiomática todas sus afirmaciones, su contenido, está
expresado plenamente, aunque implícitamente, por los axiomas, para ver si un sistema es o
no modelo de una teoría, basta ver si satisface o no sus axiomas.
Para que un sistema pueda siquiera ser modelo de una teoría es necesario que ten­
ga el tipo lógico apropiado, es decir, que esté constituido por entidades del mismo tipo ló­
gico que los términos primitivos de la teoría, pues las entidades del sistema son “el signi­
ficado en el sistema”, esto es la in terpretación , de los términos de la teoría. Si la teoría
contiene relatores diádicos y en el sistema no hay relaciones binarias es obvio que ni si­
quiera podemos ponemos a ver si la teoría es verdadera o falsa en dicho sistema. Sea una
teoría T cuyos términos primitivos son j relatores R ) ,..., Rj (cada uno con su ariedad espe­
cificada), k functores/i, ...,/* (con sus ariedades especificadas) y m términos singulares o
constantes individuales c u ..., cm. Diremos entonces que un sistema S es una realización
p o sib le de T si tiene el tipo lógico apropiado. Vamos a utilizar las mismas letras en negri­
ta para denotar las entidades que interpretan en el sistema los términos de la teoría. S es
una realización posible de T si S consta de un universo U y, construidas sobre U, j rela­
ciones R ] ,..., R,., k funciones f , , ..., f* y m individuos destacados Ci,..., c,„, S = < U, R i ,...,
f i , ..., Ci,..., c,„>, tales que cada relación y función es de la misma ariedad que el re­
lator o functor que interpreta. Estos sistemas son las entidades de las que tiene sentido
preguntarse si son o no modelos de la teoría, si en ellas la teoría es verdadera o falsa; por
ello se denominan ‘posibles realizaciones’. Por supuesto que (salvo que sea una teoría
tautológica) no todas las posibles realizaciones serán realizaciones efectivas o modelos de
la teoría. Las realizaciones efectivas, o m odelos de la teoría, son aquellas realizaciones
ANÁLISIS SINCRÓNICO DE TEORÍAS I 285

posibles en las que ocurre lo que la teoría afirma, las que de hecho se comportan como la
teoría dice, o técnicamente, en las que los axiomas (y con ellos todo el resto de afirmacio­
nes) de la teoría son verdaderos.
Para fijar ideas concluiremos dando una serie de axiomas y diversos sistemas, al­
gunos de los cuales satisfacen todos los axiomas y otros sólo parte de ellos.

Términos primitivos:
C 1. M (relator diádico).
C2. * (functor diádico).
C3. o (functor diádico).
C4. - (functor monádico).
C5. e (constante individual).
Axiomas (léanse clausurados universalmente):
A l. x M x
A2. xM y a yM z — xM z
>

A3. jc*y = y*jr


A4. x °y — y °x
A5. (x*y)*2 = x*(y*z)
A6. x ° x - x
A7. — x - x
A8. xMjt*y
A9. x°yMx
A10. jc°(y*z) = (,x;oy)*(jcoz)
A ll. - (jc°y) = ~ x* ~ y
A12. x* e = x
A l 3. x ° e = e
A14. x* ~ x = e

Contemplemos ahora los siguientes sistemas, en los que el primer constituyente, des­
pués del universo, interpreta ‘M \ el segundo **\ el tercero el cuarto y el quinto V .

51 = <Nt s, 0> (los naturales con “menor o igual que”, la suma, el producto,
la función “siguiente de” y el cero).
52 = <Z, <, +, •, 0> (los enteros con “menor o igual que”, la suma, el producto,
el opuesto y el cero).
53 = </, <, +, *, - , 0> (los enteros impares con “menor o igual que”, la suma, el
producto, el opuesto y el cero).
54 = <Q, <, *, 1> (los racionales con “menor o igual que”, el producto, el co­
ciente, el inverso y el uno).
55 = <C, c , u , n , % 0 > (los conjuntos con la inclusión, la unión, la intersección,
el complemento y el conjunto vacío).
56 = <Py >=, v , a , -i, c> (las proposiciones con la relación de consecuencia lógica,
la disyunción, la conyunción, la negación y la (o una) contradicción).
286 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

El lector puede comprobar que todos ellos son realizaciones posibles, tienen el
tipo lógico apropiado para p o d e r satisfacer los axiomas, pero que sólo S5y S6son mode­
los de todos los axiomas, satisfacen de hecho todos los axiomas a la vez. En Si fallan los
axiomas 6, 7, 9, 11 y 14; S2y S3satisfacen los mismos, a saber, todos menos 6, 8, 9 y 11;
por último, S4sólo satisface 1, 2, 3, 5, 7, 12 y 14.
Como se ve, una misma teoría, un mismo conjunto de axiomas, puede tener mode­
los muy diferentes. De hecho no hay ninguna teoría que tenga un único modelo o realiza­
ción, al menos si estamos dispuestos a aceptar siempre modelos matemáticos. Ahora bien,
aunque las teorías no determinan unívocamente sus modelos en este sentido tan estricto,
lo pueden hacer en otro sentido todavía interesante, un poco más débil que el anterior y
de hecho más razonable. En la interpretación que venimos usando, una teoría pretende
“describir (un trozo de) la realidad”. Pues bien, si los diversos modelos son “extremada­
mente semejantes” entre sí, aunque no se describa un único modelo se tratará de una bue­
na descripción en el sentido de suficientem ente unívoca. Dicho técnicamente: si los diver­
sos modelos son isomorfos entre sí (para la noción de isomorfía, cf. Apéndice), la teoría
determina la realidad del modo más fuerte que es razonable exigir; a una teoría así se le
denomina categórica. Dar con una teoría categórica no es fácil. Por ejemplo, la teoría
consistente en todos los axiomas que acabamos de presentar tiene modelos no isomorfos,
S5y S6. La teoría consistente en los axiomas 1, 2, 3,4, 5, 7, 10, 12, 13 y 14, tiene modelos
isomorfos, S2y S3, pero otros no isomorfos, pues S5y S6son también modelos de esa teo­
ría y no son isomorfos entre sí ni respecto de S2y S3. En realidad no siempre es bueno
pretender que la teoría sea categórica. Quizá eso sea deseable en las teorías formales, pero
desde luego no lo es en las teorías empíricas. En las teorías empíricas es natural pretender
que una teoría tenga modelos que sean partes de otros modelos o, como se dice técnica­
mente, que entre sus modelos algunos puedan ser extensiones de otros, esto es, partes más
grandes de la realidad, por así decir. Eso no siempre impide la isomorfía, por ejemplo S2
es una extensión de S3y son isomorfos; pero la impide cuando los modelos, como parece
razonable no descartar en las teorías empíricas, tienen un universo finito. Sobre este tipo
de cuestiones trataremos más adelante. De momento es conveniente insistir ahora tan sólo
en el siguiente hecho, trivial pero interesante: todos los modelos de una teoría, sean o no
isomorfos, se parecen mucho en cierto sentido, a saber, todos se comportan como la teo­
ría dice. Y eso por supuesto es un parecido digno de tener en cuenta, de hecho es el tipo
de parecido a tener en cuenta cuando se trata de teorías empíricas.

3. Caracterización general de las teorías empíricas como cálculos interpretados


Examinemos ahora los primeros análisis que se hicieron del concepto de teoría em ­
pírica. Según la concepción a que dichos análisis dieron lugar, una teoría empírica es un
cálculo interpretado , donde por ‘cálculo1 se entiende un cálculo o teoría axiomática en el
sentido presentado en la sec. 1. Allí vimos unos ejemplos puramente formales, y la ilustra­
ción era intencionada, pues de hecho los primeros filósofos de la ciencia tomaron la idea de
las axiomatizaciones que entonces se hacían de algunas teorías lógicas y matemáticas
ANÁLISIS SINCRÓNICO DE TEORÍAS I 287

(axiomatizaciones en matemáticas que hasta mediados de siglo seguirían invariablemente el


esquema de la sección 1). Es más, el primer análisis detallado de las teorías empíricas como
cálculos interpretados se presenta explícitamente en relación con una teoría axiomática pu­
ramente matemática. Se trata del estudio que hace Reichenbach en los años veinte de las
semejanzas y diferencias en naturaleza y estructura de la Geometría Pura (GP) y la Geome­
tría Física (GF) (cf. 1928). Las semejanzas consistían básicamente en la estructura axiomá­
tica de ambas; las diferencias se derivaban de la naturaleza empírica de la segunda. A dife­
rencia de GP, cuyo análisis se agota al dar su estructura axiomática puramente formal, el
carácter empírico de GF obliga a completar la parte puramente axiomático-formal con ele­
mentos adicionales que den cuenta de su carácter “físico”; estos elementos deben hacer ex­
plícitos los modos en que el formalismo abstracto se pone en contacto con la experiencia,
esto es, el modo en que recibe una interpretación físic a determinada.
Éste es el origen y núcleo del análisis de las teorías empíricas como cálculos inter­
pretados. La idea básica es desarrollada, en los años veinte y treinta del siglo xx, de modo
parcialmente coincidente por Reichenbach, Ramsey, Bridgman, Campbell y Carnap, que
sería su principal impulsor. Esta idea se conforma como el núcleo central de lo que se de­
nominará más tarde C oncepción H ered a d a y encuentra su expresión más elaborada en las
principales monografías que en los años cincuenta y sesenta escriben sus principales re­
presentantes (cf. especialmente Braithwaite, 1959; Carnap, 1966; Nagel, 1961 y Hempel;
1965 y 1966) y será prácticamente dominante en filosofía de la ciencia hasta casi los años
setenta. Veremos primero en esta sección cuáles son sus aspectos más generales y discuti­
remos en las siguientes con algo de detalle algunos de sus elementos, la evolución que su­
frieron y las últimas revisiones críticas, principalmente por parte de Hempel.

3 .1 . T e o r ía s f o r m a l e s y t e o r ía s e m p ír ic a s

Según la posición dominante en filosofía de las ciencias formales, al menos du­


rante la primera mitad del siglo xx, los axiomas del formalismo abstracto son lo único
que interviene en la caracterización de las entidades “de las que habla” una teoría mate­
mática; qué cosas son esas de las que pretendemos hablar al usar los términos de la teoría
es algo que depende únicamente de los axiomas, las entidades en cuestión son cualesquie­
ra de las que los axiomas sean verdaderos. Así, por ejemplo, los números naturales, es de­
cir, la propiedad de ser número natural, el número cero y la función siguiente, serán cua­
lesquiera entidades de las que resulten ser verdaderos los axiomas de Peano. A veces se
expresa esto diciendo que los axiomas caracterizan las entidades de la teoría o, también,
que definen im plícitam ente los términos primitivos. Debe quedar claro que no se trata de
una definición en el sentido introducido en la sección 1. De los términos primitivos no
puede haber d efinición exp lícita , pues entonces no serían primitivos (las definiciones ex­
plícitas son justamente el modo en que se introducen los términos derivados a partir de
los primitivos). Los axiomas “definen” implícitamente los términos primitivos en el senti­
do apuntado, a saber, ellos son los únicos elementos constitutivos del significado de los
términos: cualquier estructura que sea modelo de los axiomas es una interpretación admi­
288 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

sible de los mismos; esto es, los constituyentes de cualquiera de tales estructuras son in­
terpretaciones admisibles de los términos con que se formulan los axiomas.
Algunos autores, como Camap, han dado una interpretación convencionalista de las
definiciones implícitas, según la cual los axiomas estipulan el significado de los términos y
por tanto son “verdades por convención”. Otros, como Hilbert inicialmente, han defendido
una interpretación fo rm a lista , de acuerdo con la cual los axiomas son simplemente reglas
para el manejo de los signos involucrados, y por tanto en sentido estricto ni siquiera es ra­
zonable considerarlos susceptibles de ser verdaderos o falsos. En tal caso es discutible que
tenga incluso sentido hablar propiamente del significado o interpretación de los términos
involucrados. Convencionalismo y formalismo son dos modos específicos de entender la
idea general de que en un sistema axiomático los axiomas definen implícitamente los térmi­
nos, que los axiomas solos caracterizan p lenam ente el “uso correcto” de los términos. Pero
se puede defender esta idea sin defender ninguna de esas interpretaciones específicas de la
misma, defendiendo que existen “realmente” las entidades matemáticas significadas por los
términos primitivos; los números naturales son cualquier cosa (tomando ahora ‘cosa’ en se­
rio en un sentido no lingüístico) que satisfaga los axiomas de Peano.
Independientemente de cuál sea su interpretación específica (salvo en el caso qui­
zá del formalismo radical) hay algo de plausible en la idea general de que las cosas de las
que una teoría matemática habla son cualesquiera entidades que satisfagan los axiomas.
Ese elemento de plausibilidad es el que justifica que aceptemos que Frege redujera la arit­
mética a teoría de conjuntos. Como hemos visto en la sección 1, Frege demostró que los
axiomas de Peano que usan los términos ‘cero’, ‘el siguiente de’ y ‘número natural* son
verdaderos de “el conjunto vacío**, “la unión con el propio unitario” y “pertenecer al me­
nor conjunto inductivo”. Entonces eso son (los) naturales, pues de esas cosas son verda­
deros los axiomas de la aritmética. Quien proteste y diga que a pesar de ello no se trata de
la aritmética, pues está claro que “esas cosas” son conjuntos y no números, está rechazan­
do de plano dicha idea general; y en la medida en que tal protesta se considere injustifica­
da se considerará plausible la idea en cuestión. Y efectivamente la protesta parece algo in­
justificada, lo que son las cosas depende de sus propiedades, de su “comportamiento”,
que es lo que establecen los axiomas, no depende de las expresiones lingüísticas con
las que la teoría las nombre. De todas formas las intuiciones no son del todo claras pues,
¿qué diríamos si de hecho AP fuese verdadera también de (supongamos por un momento
que efectivamente existen tales entidades) el individuo Lucifer, la función “el corruptor
de’*y la propiedad “ser demonio”?, ¿aceptaríamos también sin protestar que estamos ante
números naturales?
Esta cuestión es extremadamente compleja y no vamos a ocupamos aquí de ella,
pues eso es tarea de la filosofía de la matemática. Si nos hemos extendido algo sobre este
punto es para presentar la intuición central del análisis de las teorías em p írica s . La idea
que queremos destacar es la siguiente: mientras que en las ciencias formales parece razo­
nable, o al menos defendible, la tesis de que las entidades a las que la teoría se refiere son
cualesquiera de las que sean verdaderas los axiomas, ella es totalmente inaceptable apli­
cada a las ciencias empíricas Por ejemplo, si los principios de la mecánica newtoníana,
formulados con términos como ‘partícula’, ‘masa* y ‘fuerza’, fuesen por casualidad ver-
ANÁLISIS SINCRÓNICO DE TEORÍAS I 289

daderos de los ángeles, su “cantidad de espiritualidad” y sus “afinidades”, no por ello di­
ríamos que ésas son cosas de las que habla la teoría mecánica, no diríamos que son siste­
mas mecánicos. O, con un ejemplo menos absurdo, tales principios son de hecho verdade­
ros de ciertos dominios puramente numéricos y de ciertas funciones puramente numéricas
entre los números de los dominios, pero eso no hace que la mecánica hable (quizá entre
otras cosas) de puros números, no por ello los números son partículas mecánicas. Eso es
indiscutible en este caso; la idea de que los términos de la mecánica refieren a cualesquie­
ra entidades que satisfagan el formalismo abstracto es claramente inaceptable. El motivo
es que, a diferencia de las ciencias formales donde esa idea es cuando menos discutible,
las teorías empíricas tienen, además de las constricciones derivadas del sistema axiomáti­
co abstracto, otras constricciones derivadas de su vinculación con el m u n d o f í s i ­
co-natural , o mejor dicho, con algún aspecto específico del mismo del que pretenden dar
cuenta. Por supuesto que esta diferencia depende de que se considere que hay a su vez
una diferencia entre teorías formales y teorías empíricas, y efectivamente la mayoría de
los autores de este período (y también posteriormente) consideran que dicha diferencia es
un dato fírme de nuestras intuiciones.
Aceptando esta peculiaridad de las teorías empíricas, ¿cómo se debe recoger este
hecho específico en el análisis de las mismas? La respuesta parece inmediata: incluyen­
do, junto con el sistema axiomático abstracto, otro elemento que exprese la conexión de
dicho formalismo con “situaciones de la experiencia” en las que interactuamos o “con­
tactamos” con el mundo físico. La articulación específica de esta respuesta que se im­
pondrá en la Concepción Heredada es que esas situaciones de experiencia en las que se
da el contacto básico con el mundo físico son situaciones de o b serva ció n d irecta de fe­
nómenos físicos. En la formulación y expansión de esta idea influyó sin duda el neoem-
pirismo (a veces radical) dominante en los círculos filosóficos donde se plantearon estas
cuestiones, pero independientemente de ello la idea tiene cierta plausibilidad en sí mis­
ma. La interacción básica con nuestro entorno físico inmediato la realizamos a través de
los órganos sensoriales, interacción que se plasma en forma de o b serva ció n , en un senti­
do amplio, no estrictamente visual, del término. Pero hay que distinguir esta idea gene­
ral difícilmente recusable de otras dos más fuertes: a) El “estar basado en la observa­
ción” característico de nuestro sistema cognitivo global, caracteriza también sus diver­
sas partes, y en particular es característico en exactamente el mismo sentido de cada
teoría científica concreta, b) Por observación directa se ha de entender observación in­
dependiente de esquemas cognitivos elaborados. Aunque hemos formulado estas tesis
muy vagamente, debe notarse que no son ya indiscutibles, que son mucho más fuertes
que la idea general claramente defendible. En la penúltima sección volveremos sobre
ellas para discutirlas en detalle; por el momento basta saber que eran defendidas por
muchos de los iniciadores de la Concepción Heredada y que se acabarían imponiendo
en la versión oficial de la misma (aunque, como veremos, la particular versión que cada
autor ofrece de ellas incluye importantes matizaciones y cualificaciones para evitar al­
gunas de las consecuencias más patentemente inaceptables).
290 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

3,2. C álculos interpretados: vocabulario; axiomas y reglas de correspondencia

Según el análisis que estamos presentando, por tanto, cada teoría científica está con­
formada por un cálculo axiomático abstracto y otro componente que conecta las expresiones
de dicho cálculo abstracto con situaciones de la experiencia entendidas como situaciones de
observación directa. Este segundo elemento está conformado por enunciados que vinculan
los términos del sistema axiomático con términos observacionales que refieren a objetos,
propiedades o relaciones directamente observables. A esos “enunciados conectares” se les ha
denominado de varios modos: reglas de correspondencia (Camap, Nagel, Margenau), defini­
ciones coordinativas (Reichenbach), enunciados interpretativos (Hempel), postulados de sig­
nificación (Camap, Hempel), diccionario (Campbell, Ramsey) o definiciones operacionales
(Bridgman). Pero, a pesar de que hay algunas diferencias de concepción (especialmente nota­
bles en el último caso), su función es en términos generales la misma, proporcionar interpre­
tación empírica al cálculo axiomático que por sí mismo está vacío de contenido empírico.
Las teorías empíricas son pues cálculos axiomáticos interpretados empíricamente a través de
esos enunciados que conectan los términos del formalismo con situaciones de observación
directa. En este punto, y antes de esquematizar los elementos centrales de esta concepción, es
necesario hacer una observación.
Hemos dicho que el cálculo axiomático por sí solo carece de contenido empírico
y que, para dar cuenta de su interpretación empírica, el análisis añade junto a los axio­
mas del cálculo un conjunto de reglas de correspondencia. Pero podría pensarse, quizá,
que las cosas no tienen por qué ser así. Aunque lo distintivo de las teorías empíricas sea
que tienen contenido empírico, e incluso si tal contenido se adquiere a partir de ciertas
situaciones de observación, no es necesario introducir las reglas de correspondencia,
puede bastar con el cálculo axiomático si algunos de sus términos fuesen términos de
observación, en cuyo caso algunos de los axiomas estarían ya cargados de contenido
empírico. Bien, esta cuestión es en parte puramente nominal, derivada de cómo hemos
presentado las cosas. Tomemos todas las afirmaciones (primitivas) de la teoría y selec­
cionemos entre ellas las que no contienen términos observacionales: diremos que estas
afirmaciones constituyen el cálculo axiomático abstracto. Tomemos las afirmaciones
que incluyen términos tanto observacionales como no observacionales, éstas son las re­
glas de correspondencia. Se trata, si se quiere ver así, de que el análisis “divide” el siste­
ma de afirmaciones completo en dos partes, o en realidad en tres partes, pues hay que
añadir las afirmaciones que sólo contienen términos observacionales, esto es, las afir­
maciones puramente observacionales.
Esta estrategia de análisis sería insatisfactoria si toda afirmación contuviera
términos observacionales, pues en tal caso lo que hemos venido llamando cálculo axio­
mático abstracto no existiría. Pero ello no es así, toda teoría mínimamente compleja y
sistematizada, que no sea un mero informe de afirmaciones observacionales, contiene
afirmaciones sin términos observacionales. Y no sólo eso, sino que la mayoría de sus
afirmaciones son de ese tipo, al menos tal y como aparecen las teorías formuladas en los
libros de texto avanzados. Esas afirmaciones, aisladas, están desconectadas de la expe­
riencia, de modo que lo que nos presenta una formulación estándar de una teoría empíri­
ANÁLISIS SINCRÓNICO DE TEORÍAS I 291

ca compleja altamente elaborada se parece mucho a lo que hemos caracterizado como


un cálculo axiomático abstracto no interpretado (o al menos así lo pensaban los autores
mencionados). Eso representa un serio reto para ios filósofos de orientación empirista
que, como parte de un proyecto que arranca de la Ilustración, quieren descartar como
carentes de sentido las afirmaciones (no puramente analíticas) desconectadas de la ex­
periencia, típicamente las de la metafísica especulativa y las de pseudociencias como la
astrología. Es un reto, pues las afirmaciones que aparecen en los textos avanzados de
muchas teorías científicas parecen en principio de ese tipo. La solución radica en que,
aparezcan o no en las exposiciones usuales de la teoría, forman parte esencial de la teo­
ría otras afirmaciones que ponen en conexión expresiones que aparecen en las primeras
con situaciones observacionales; y si no existen afirmaciones de ese tipo, no se trata de
una teoría empírica. Esa es la diferencia entre la ciencia empírica y la metafísica; la di­
ferencia con las pseudociencias consistiría en que, o carecen (como la metafísica) de re­
glas de correspondencia, o si tienen tales conexiones con la experiencia, entonces son
patentemente falsas.
Pasemos ahora a esquematizar sumariamente los principales elementos del análi­
sis presentado. Las teorías empíricas dan cuenta de fenómenos empíricos postulando cier­
tas entidades o procesos gobernados por ciertas leyes; esas entidades postuladas no están
directamente dadas en la observación, están “alejadas” de la experiencia observable, con­
trariamente a los fenómenos de los que pretenden dar cuenta, directamente accesibles a la
observación. La teoría introduce nuevos términos para referirse a esas entidades y proce­
sos no observables. Diremos de esas entidades que son entidades teóricas y de los térmi­
nos introducidos para referirnos a ellas que son térm inos teóricos.

V o ca b u la rio .
Podemos dividir el conjunto de expresiones o vocabulario V de
una teoría en tres partes (nos limitamos aquí a los términos primitivos, los términos de­
rivados se introducen mediante definiciones explícitas del modo indicado en la sec­
ción 1):

(1) Términos puramente lógico-matemáticos. Éste es el vocabulario formal Vr


de la teoría, esto es, el vocabulario de apoyo que proporciona el lenguaje o
instrumental formal y que en algunos casos puede incluir partes muy eleva­
das de la matemática.
(2) Términos observacionales. Éste es el vocabulario observacional V0 de la teo­
ría, esto es, el vocabulario que se refiere a entidades directamente obser­
vables y a propiedades y relaciones entre ellas directamente observables.
Son términos observables, por ejemplo, ‘rojo’, ‘caliente’, ‘vara’, ‘más largo
que’, ‘más voluminoso que’, ‘más liviano que’, etc.
(3) Términos teóricos. Éste es el vocabulario teórico VT de la teoría, esto es, el vo­
cabulario que se refiere a entidades, propiedades y relaciones no directamen­
te observables postuladas para dar cuenta de los fenómenos. Son términos
teóricos, por ejemplo, ‘electrón’, ‘masa’, ‘campo eléctrico’, ‘gen’, ‘entro­
pía’, etc.
292 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

Sí llamamos vocabulario descriptivo VD al vocabulario no meramente formal de


apoyo, tenemos V= V V V o, Vp — Vo V V ,VVo V 2
>- 0 y V Vro Vo— 0.

A firm a cio n es. La anterior partición del vocabulario de una teoría genera otra a
nivel de los enunciados o afirmaciones. Toda afirmación de la teoría contiene vocabulario
formal, pero no sólo vocabulario formal, también contiene términos descriptivos. Eso nos
deja las siguientes tres posibilidades:

(1) Enunciados (puramente) teóricos. Contienen como vocabulario descriptivo


únicamente términos teóricos. De entre ellos se seleccionan algunos como
axiomas o postulados primitivos: Ai, ..., A„; el resto se deriva de ellos
como teoremas. Son los enunciados que expresan el comportamiento de las
entidades teóricas. Son enunciados teóricos, por ejemplo, Ta fuerza eléctrica
es directamente proporcional al producto de las cargas’, ‘los genes tienen
dos pares de alelos’, etc.
(2) Enunciados (puramente) observacionales. Contienen como vocabulario descrip­
tivo únicamente términos observacionales. Algunos describen situaciones obser­
vables particulares y otros son afirmaciones generales, esto es, expresan genera­
lizaciones o leyes puramente empíricas-observacionales. Son enunciados obser­
vacionales, por ejemplo, ‘Juan Pérez tiene los ojos verdes’, ‘esta porción de
agua se ha solidificado’, ‘los líquidos se solidifican al enfriarse’, etc.
(3) Reglas de correspondencia. Contienen tanto términos teóricos como térmi­
nos observacionales. En la medida en que unas se puedan derivar de otras,
también se pueden escoger de entre ellas unas que hagan de primitivas: R u
..., R m. Son los enunciados que conectan los términos teóricos con la expe­
riencia observable cargando así de interpretación empírica los axiomas pura­
mente teóricos. Son ejemplos de reglas de correspondencia, por ejemplo, ‘a
presión constante, el volumen aumenta con la temperatura’, ‘diferencias en
el color de los ojos van acompañadas de diferencias en los genes’, ‘al solidi­
ficarse un líquido disminuye su entropía’, etc. Estos enunciados son el puen­
te que permite pasar de lo observacional a lo teórico y viceversa.

Esta clasificación de los términos y los enunciados permite expresar de un modo


simple la estructura de las teorías en tanto que cálculos interpretados: una teoría T es un
par T = <A, R>, donde A es el conjunto (o la conjunción) de todos los axiomas y R es el
conjunto (o la conjunción) de todas las reglas de correspondencia. Las teorías empíricas
son cálculos interpretados: A es el cálculo axiomático, R proporciona la interpretación
empírica. Se dirá que faltan los enunciados puramente observacionales, pero no es así,
pues se derivan de A y i? y, por tanto, ya están incluidos en T, Se comienza por una serie
de observaciones particulares, que quizá den lugar a generalizaciones empíricas de las
que queremos dar cuenta. Para ello se postulan una serie de entidades teóricas regidas por
ciertas leyes expresadas por A. Una vez determinadas las reglas R que expresan los efec­
tos observacionales de las entidades teóricas, se derivan, si se tiene éxito, de A y R las ge-
ANÁLISIS SINCRÓNICO DE TEORÍAS I 293

neralizaciones o fenómenos de los que queríamos dar cuenta (explicación), u otros nuevos
que servirán para contrastar la teoría (predicción).2
Esta estructura es plásticamente expresada por Hempel mediante su famosa me­
táfora de la red: “Una teoría científica puede entonces ser comparada con una red espa­
cial compleja: sus términos están representados por los nudos, mientras que los hilos
que unen éstos corresponden en parte a las definiciones y en parte a las hipótesis funda­
mentales y derivadas incluidas en la teoría. Todo el sistema flota, por así decir, sobre el
plano de la observación y está anclado en él mediante reglas de interpretación. A éstas
se las puede considerar como cuerdas que no forman parte de la red pero que conectan
ciertas partes de ella con lugares específicos de la observación. En virtud de estas cone­
xiones interpretativas, la red puede funcionar como teoría científica: a partir de ciertos
datos observacionales podemos ascender a través de una cuerda interpretativa hasta al­
gún punto de la red teórica, de aquí pasar a través de definiciones e hipótesis a otros
puntos, desde los cuales otras cuerdas interpretativas permiten descender al plano de la
observación” (1952, §7).
Hasta aquí las líneas generales del análisis de las teorías empíricas, de sus constitu­
yentes, naturaleza y funcionamiento, propio de la Concepción Heredada. Para concluir con
este enfoque comentaremos en las próximas secciones dos cuestiones que fueron objeto de
especial atención: a) la naturaleza de las reglas de correspondencia y sus consecuencias
para la supuesta eliminabilidad de los términos teóricos; y b) la distinción teórico/observa-
cional y la naturaleza de la base empírica. En esta última cuestión presentaremos las críti­
cas internas de Popper y el último Hempel, que sugieren modificaciones fundamentales.

4. Las reglas de correspondencia y la cuestión de la elim inabilidad


de los térm inos teóricos

Hasta ahora hemos presentado las reglas de correspondencia de una forma extre­
madamente general, sin especificar su estructura, tan sólo hemos dicho de ellas que con­
tienen términos tanto teóricos como observacionales. Ésta es una caracterización muy dé­
bil compatible con prácticamente cualquier forma sintáctica.3 Pero eso no fue siempre así
y en los inicios se pretendió imponer constricciones más fuertes sobre la forma de las re­
glas, constricciones derivadas de la finalidad que se les atribuía.

2. Algunos representantes de esta concepción, como Nagel (cf. 1961, cap. 5, §11.3, también Hesse,
1966) incluyen, como “elemento adicional”, además de axiomas y reglas, m o d elo s. Pero la referencia a mode­
los en esta concepción es excepcional y, cuando se hace, está poco desarrollada, mal estructurada con el resto
de elementos y, en general, es muy confusa. Al no pasar a formar parte de la versión oficial, no vamos a dete­
nemos aquí en ella.
3. Aunque no con cualquiera, al menos no si se entiende la inclusión de términos de ambos tipos
en sentido esencial, e.e., que las reglas contienen esen cia lm en te términos tanto teóricos como observaciona­
les. SÍ eso es así y, supuesto que t es el único término de uno de los tipos, la regla no puede tener la forma,
p.e., “a a (y(r) v i y(r)) —> p”, pues ahí t no ocurre esencialmente (a no ser que ocurra esencialmente en a o
en p); es sólo este tipo de formas el que queda excluido por la caracterización general anterior.
294 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

4.1. INELIMINABILIDAD DE LOS TÉRMINOS TEÓRICOS

Las reglas expresan la conexión de los términos teóricos con la experiencia obser­
vable, cargan de contenido o significación empírica tales términos. Como hemos indicado
más arriba, una de las preocupaciones de estos filósofos, de orientación general neoempi-
rista, era dejar clara la legitimidad semántica de las expresiones científicas, por contrapo­
sición a otras según ellos carentes de sentido. Esa legitimidad la da el anclaje en la expe­
riencia observable, y es tanto mayor cuanto más fuerte sea dicho anclaje observacional. Si
eso es así, entonces la alternativa más fuerte a considerar es que los términos teóricos
sean completamente definibles mediante términos observacionales, esto es, que haya d e ­
fin ic io n e s explícitas de los términos teóricos mediante vocabulario observacional. Más
arriba hemos indicado que no puede haber definiciones explícitas de los términos primiti­
vos del cálculo axiomático, pero en ese contexto estaba claro que teníamos en cuenta úni­
camente la intervención de términos teóricos. La opción ahora es definir explícitamente
los términos primitivos teóricos del formalismo abstracto, no mediante otros términos
teóricos sino mediante términos observacionales; puesto que con los términos teóricos
primitivos se definen los restantes términos teóricos, la alternativa implica la eliminabili-
dad total de los términos teóricos, los convierte en meras abreviaturas de expresiones más
complejas cuyos componentes se refieran sólo a entidades observables.
Esta alternativa determina la forma que deben tener las reglas de correspondencia,
a saber, la de las definiciones explícitas: para cada término t de W hay una regla de co­
rrespondencia que tiene la forma “y(í) cp(oi,..., ok) '\ donde t es el único término teórico
que ocurre en y y <p sólo contiene como términos descriptivos k términos observacionales
o i, ..., ok. Si esta propuesta fuese viable, entonces la teoría estaría utilizando siempre un
vocabulario en realidad exclusivamente observacional, sólo que usando a menudo abre­
viaturas notacionales. No es difícil ver que ello conferiría la máxima legitimidad observa­
cional al lenguaje de la teoría: las entidades teóricas “desaparecen” o, más suavemente, se
reducen a, o se construyen como, complejos de observables.
El principal defensor de dicha propuesta, Carnap, reconoció pronto su inviabili­
dad, El problema principal lo ejemplificaban los términos de propiedades d isp o sicio n a les ,
como ‘frágil’, ‘elástico’ o ‘soluble’. Estos términos se refieren a propiedades que se ca­
racterizan por cierta reacción ante ciertas circunstancias; por ejemplo, un cuerpo es solu­
ble si, al sumergirse en agua, se disuelve (las propiedades no disposicionales se denomi­
nan categóricas, p.ej. ser molécula de ácido sulfúrico o ser vertebrado). Aunque no lo pa­
rezcan en primera instancia, muchas de las propiedades teóricas de la ciencia son disposi­
cionales, lo que representa un serio problema para el programa elimínativista. Las únicas
definiciones explícitas para estas propiedades deben tener la forma

(1) D x <-> (C x —» R x ),

donde D es la propiedad disposicional que queremos definir, C son las condiciones obser­
vables en las que se actualiza la disposición y R es la respuesta observable que la disposi­
ción produce en las condiciones C; por ejemplo, “x es soluble syss, si x se sumerge en
ANÁLISIS SINCRÓNICO DE TEORÍAS I 295

agua, entonces x se disuelve”. El problema es que, por la lógica del condicional material,
estas definiciones atribuyen la propiedad disposicional a todo individuo que no sea some­
tido a las condiciones C, por ejemplo a toda sustancia que no se sumerja nunca en agua,
lo cual es inaceptable. La solución de Carnap (cf. 1936-1937, §7) es abandonar la pro­
puesta reduccionista radical, optar por otra que no tenga consecuencias inaceptables aun­
que no permita la eliminación vía definición explícita de los términos teóricos.
La nueva propuesta consiste en modificar la forma de las reglas para términos dis-
posicionales del siguiente modo:

(2) C x —> (D x <-» Rx),

Es claro que (2) no tiene los problemas de (1), pero también que no permite eliminar el
término disposicional al no ser una definición explícita, sino una definición “parcial” o,
en expresión de Carnap, un enunciado de reducción parcial. Una reducción (definición,
eliminación) parcial es, simplemente, una no reducción (definición, eliminación), pues
ahora, cuando las condiciones de prueba C no se satisfacen, la posesión o no de la propie­
dad disposicional D queda simplemente indeterminada; por ejemplo, de una sustancia que
nunca se sumerja en agua queda indeterminado, según (2), si es o no soluble. Eso sería
una consecuencia inaceptable si pretendiéramos que (2) es una definición, esto es, si pre­
tendiéramos que d eterm in a las co ndiciones necesa ria s y suficientes de que algo sea o no
soluble. Pero ahora ya no se pretende tal cosa.4
Los términos disposicionales no son los únicos que sugieren estas modificaciones,
aunque son los que mejor las ilustran, al menos en primera instancia. Se reconoce que lo
mismo ocurre con términos en principio no disposicionales, como ‘temperatura’. También
en estos casos las reglas sólo proporcionan interpretaciones empíricas parciales. Por ejem­
plo, la regla “si al introducir un tubo de vidrio con mercurio en una sustancia y después in­
troducirlo en otra, la columna de mercurio asciende, entonces la segunda sustancia está a
mayor temperatura que la primera” interpreta sólo parcialmente el término ‘temperatura’,
pues no se aplica a sólidos, o a temperaturas muy altas, o muy bajas, etc. (cf. p.ej. Carnap
1966, cap. XXVIII). Y lo mismo ocurre con las demás reglas para el término. Podría pen­
sarse que la situación se resuelve conyuntando todas las reglas de correspondencia para
cada término, pero, y esto es verdaderamente importante, no es así. La conyunción propor­
ciona la total interpretación em pírica, pero no constituye una definición o eliminación del
término, pues no incluye situaciones en las que, según los axiomas teóricos, también se
aplica; por ejemplo, no hay ninguna regla de correspondencia directa para la situación con­
sistente en que el centro del Sol está a mayor temperatura que su superficie.
Una vez abandonada la propuesta eliminativista radical y abierta la puerta a reglas
de correspondencia no definicionales, no hay especial razón para imponer constricciones

4. Es cierto que ésta no es la única alternativa al problema, hay otras que mantienen la vocación
definicional. La más inmediata es sustituir en (1) el condicional material por un condicional contrafáctico o
de necesidad física (cf. cap. 5), pero para la mayoría de nuestros filósofos neoempiristas (especialmente Car-
nap, pero no sólo él) las soluciones en esta línea son inaceptables por apelar a conceptos modales, como el de
n ecesid a d , que prefieren evitar en una reconstrucción lógica de la ciencia.
296 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

muy específicas a la forma de las reglas. De este modo se acaba admitiendo como regla
cualquier tipo de enunciado mientras contenga esencialmente términos teóricos y obser-
vacionales. O para ser más precisos, de los tres tipos de enunciados que puede contener
una teoría científica, a saber, enunciados sólo con términos teóricos, enunciados sólo con
términos observacionales y enunciados con términos tanto teóricos como observaciona-
les, se seleccionan estos últimos (o una subclase-representante de los mismos) como las
reglas de correspondencia de la teoría sin importar la forma sintáctica que tengan (incluso
a veces, como señalaron Ramsey, Camap y Braithwaite, las reglas pueden tener la forma
de definiciones explícitas de términos observacionales mediante términos teóricos). El
propio Camap acaba poniendo como ejemplo de regla de correspondencia enunciados que
simplemente conectan mediante un condicional material un término teórico con otro ob-
servacional, por ejemplo “si w es más caliente que v, entonces la temperatura de u es ma­
yor que la de v” (cf. Camap, 1956, §V). Esta liberalización en la forma lógica de las re­
glas va acompañada de otra en apariencia más radical, a saber, ni siquiera es necesario
que todo término teórico intervenga esencialmente en al menos una regla de correspon­
dencia. Pero esta liberalización es más radical sólo en apariencia. En efecto, si no se trata
de d e fin ir observacionalmente los términos teóricos, si basta con que estén conectados
con términos observacionales mediante las reglas, entonces no es necesario que esa cone­
xión deba ser directa para todos y cada uno de los términos teóricos; esto es, puede que
algunos se conecten sólo indirectam ente con la base observacional a través de su cone­
xión axiomática con términos teóricos conectados directamente con la base observacio-
nal. Algunos términos teóricos tendrán varias reglas (p.ej. varios enunciados de la forma
(2) con diferentes Cs y R s ), pero otros pueden no tener ninguna y no por eso carecen de
contenido empírico (y con ello de legitimidad semántica) pues adquieren tal contenido
(legitimidad) indirectamente por su conexión a través de los axiomas con otros términos
para los que sí hay reglas de correspondencia.
Resumiendo, los términos teóricos (primitivos), por tanto, no son eliminables me­
diante definiciones explícitas a partir de términos observacionales. Son términos con
“vida propia” que fijan su contenido o significado por dos vías, cada una de las cuales los
“define” sólo parcialmente: a) su conexión con otros términos teóricos a través del cálcu­
lo axiomático, y b ) su conexión, directa o indirecta, con términos observacionales a través
de las reglas de correspondencia. Así pues, el significado de los términos teóricos no es
puramente observacional, las conexiones axiomáticas contribuyen esencial e inelimina-
blemente al mismo.
Nótese que tampoco es viable la alternativa opuesta, a saber, que el significado
fuese puramente teórico, que los axiomas diesen el significado (implícito) completo de
los términos teóricos y que las reglas fuesen hipótesis empíricas que no contribuyeran al
significado de tales términos. Si eso fuera así, los axiomas teóricos, las leyes, serían
(como en las ciencias formales) verdades analíticas, verdades en virtud del significado de
los términos que involucran, carentes por tanto de todo contenido empírico; sólo tendrían
contenido empírico las reglas de correspondencia, la mayoría de las afirmaciones de las
teorías consideradas empíricas serían, contra toda apariencia, analíticas. Puesto que ésta
parece una conclusión claramente rechazable, el significado de los términos teóricos no
ANÁLISIS SINCRÓNICO DE TEORÍAS I 297

puede depender de los axiomas solos, como tampoco depende de las reglas solas, sino de
ambos a la vez. Aquí, sin embargo, se abre uno de los problemas más profundos de la fi­
losofía de la ciencia, relativo al significado de los términos teóricos y al estatuto epistémi-
co de las afirmaciones científicas. El lector avisado habrá advertido que, si el significado
de los términos teóricos no es constituido por los axiomas solos, ni por las reglas solas,
sino por ambos a la vez, entonces parece que se puede decir de “los axiomas más las re­
glas” lo mismo que se dice en las ciencias formales de los axiomas, a saber, que puesto
que constituyen el significado de los términos, entonces axiomas y reglas son analítica­
mente verdaderos, verdaderos en virtud de definiciones. Ésta es en parte la brecha por la
que Quine ataca la distinción analítico/sintético (cf. 1951) al poner de manifiesto toda una
serie de problemas en la distinción tradicional que obligarán a revisar la relación entre
analítico y em p írica m en te revisable. No podemos detenernos aquí en esta cuestión. Para
concluir con las reglas de correspondencia mencionaremos brevemente dos modos en los
que, en este enfoque, se acepta que los términos teóricos son eliminables en cierto sentido
en favor de los observacionales, aunque no mediante definiciones explícitas.

4 .2 . E l im in a b il id a d a l o R am sey

El primero de los procedimientos se debe a F. P. Ramsey. Ramsey mostró (cf.


1929) que, dada una teoría T <A, R>, siempre es posible dar con otra que tenga el mis­
~

mo contenido empírico, es decir las mismas consecuencias observacionales, y que no use


términos teóricos. El expediente es sencillo: sustituimos cada enunciado “y(í)” de A o de
R que contenga un término teórico t por otro de la forma “3 x y(x)”; por ejemplo, sustitui­
mos “si u es más caliente que v entonces Temp(«) > Temp(v)” por “3 P (si u es más ca­
liente que v entonces P (u ) > P(v)”. En realidad no se realiza la existencialización en cada
enunciado suelto, pues cuando un mismo término teórico aparece en varios enunciados, la
variable para su existencialización debe ser la misma. Una teoría T = <A, R> (con p térmi­
nos teóricos y q términos observacionales) se puede identificar con la conyunción “Axt a
A x 2 a ... R e i a R c2 a ...” , de los axiomas de A y las reglas de R, que abreviaremos median­
te “A/? ( q , ..., O] , ..., oqy \ Si T es una teoría, la versión-Ramsey de Tes:

7* = 3x[, ...,3xp A R ( x , , x p, o ,,..., oq).

Pues bien, se puede demostrar entonces que todo enunciado (puramente) observacional
que se sigue de T se sigue también de 7*, enunciado éste que, como hemos visto, no con­
tiene térm inos teóricos.
En este sentido los términos teóricos son ciertamente eliminables. Sin embargo,
este resultado tiene poca trascendencia filosófica si lo que se pretende es prescindir de las
entidades teóricas (lo que no era la pretensión de Ramsey). En primer lugar, la ver­
sión-Ramsey de la teoría requiere lógica de segundo orden, pues algunas constantes des­
criptivas teóricas serán predicados, con lo que la versión-Ramsey de enunciados con pre­
dicados cuantificará sobre variables predicativas (como en nuestro ejemplo, que cuantifi-
298 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

ca sobre una variable de función, un tipo de variable predicativa). Segundo, relacionado


con lo anterior, y verdaderamente importante, la versión-Ramsey TR prescinde de, o eli­
mina, los térm inos teóricos, cierto, pero no las entidades teóricas. T* presupone la exis­
tencia de entidades teóricas tanto como 7, pues las variables introducidas en 7* deben te­
ner algún valor. En 7, las entidades teóricas son los referentes de las constantes descripti­
vas teóricas, en TR son los valores de las nuevas variables introducidas. Por tanto, median­
te este expediente, al desaparecer los térm inos teóricos, nos libramos quizá nominal mente
de la formulación del problema semántico acerca de la legitimidad de estos términos bajo
sospecha para el empirista, pero no nos libramos en absoluto (ni siquiera nominalmente)
de la cuestión ontológica relativa a las entidades teóricas pues la nueva versión sigue ape­
lando a ellas, aunque mediante otro recurso expresivo, las variables. Lewis (1970) utiliza
el método de Ramsey para mostrar cómo se puede dar una definición “funcional” de los
términos teóricos, esto es, cómo se puede denotar una entidad teórica mediante una expre­
sión que no contenga términos teóricos, a saber, mediante una descripción que describa
su función en la teoría; por ejemplo, la masa es la denotación de la descripción “la fun­
ción Xj tal que donde los puntos suspensivos contienen la versión-Ramsey de la Me­
cánica Clásica (y j es un subíndice concreto). Queda claro por tanto que el método de
Ramsey no permite eliminar las entidades teóricas sino tan sólo el modo usual de referir­
nos a ellas mediante constantes predicativas (o funcionales).

4.3. E liminabilidad a l o C raig

La alternativa de Ramsey no depende de que los dos grupos de términos sobre los
que se realiza la eliminabilidad relativa sean los teóricos y los observad onales en el senti­
do pretendido, se aplica a cualquier teoría en la que dividamos el vocabulario en dos con­
juntos disjuntos. Lo mismo sucede con el segundo expediente de eliminación, debido a
Craig y que es consecuencia de un teorema de lógica formal del mismo autor. Craig mos­
tró (cf. 1953 y 1956) que si el vocabulario V de una teoría 7 se divide en dos conjuntos
disjuntos de términos Vi y V2, y la teoría satisface ciertos requisitos formales (no especial­
mente estrictos), entonces siempre existe otra teoría 7* que usa términos sólo de un tipo,
digamos Vi, y de la cual se derivan los mismos V v-enunciados (e.e. enunciados que invo­
lucran sólo términos de Vi) que se derivaban de 7; 7 y 7* son por tanto V(-equivalentes.
Además 7* no contiene, contrariamente a la versión de Ramsey, recursos expresivos nue­
vos, nuevas variables. Aplicado a la distinción entre los vocabularios teórico y observa-
cional, este resultado implica que las mismas consecuencias observacionales que se deri­
van de una teoría con términos teóricos, se derivan también de otra teoría que no contiene
términos teóricos ni variables que los sustituyan. En este sentido parece que los términos
teóricos son eliminables o prescindibles, y ahora no se trata sólo de los térm inos sino tam­
bién de las en tid a d es teóricas mismas.
Pero, como antes, esta vía no es tan prometedora para el eliminativista como a pri­
mera vista parece. Aunque ahora parecen ser eliminables las entidades teóricas mismas,
ello es sólo “en principio”. En primer lugar, la eliminabilidad es sólo a p o ste rio ri , esto es,
ANÁLISIS SINCRÓNICO DE TEORÍAS I 299

una vez tenemos previamente la teoría original con sus términos teóricos, por lo que la
teoría puramente observacional “sustituta” no puede desempeñar ninguna función heurís­
tica o metodológica efectiva. Pero además el expediente es tal que la teoría puramente
observacional T* consiste siempre en un conjunto infinito de axiomas no simplifícable de
manera significativa (ni siquiera mediante esquemas axiomáticos). Las consecuencias fi­
losóficas de la eliminabilidad a lo Craig son prácticamente nulas, a lo sumo satisfacer la
mala conciencia de las mentes empiristas radicales con una eliminabilidad en principio
completamente irrelevante para la práctica científica. Pero si nos contentamos con eso, ni
siquiera se precisa de complejos resultados formales, pues es trivial construir una teoría
T puramente observacional y observacionalmente equivalente a otra T que use sólo tér­
minos observacionales: simplemente seleccionamos como axiomas para T todas las (infi­
nitas) consecuencias puramente observacionales de T (dado T - A R , V = {a /a es conse­
cuencia de A R y contiene sólo términos observacionales).

5. La distinción teórico/observacional y la naturaleza de la base em pírica

Hasta aquí hemos procedido como si estuviera clara la naturaleza de los términos,
y las entidades, observacionales. Pero eso dista mucho de ser así y en la Concepción He­
redada se plantearon, casi desde los inicios, diversos problemas relativos a la naturaleza
de estos términos. Comentaremos aquí muy brevemente tres que están íntimamente co­
nectados, dos de los cuales hemos mencionado anteriormente: a) el problema ontológico
de la naturaleza de las entidades teóricas, la fundamentación a partir de ella de la distin­
ción teórico/observacional y el carácter rígido o fluido de tal distinción; b ) el problema
semántico de la supuesta neutralidad teórica de los términos observacionales; c) el proble­
ma metodológico de la supuesta naturaleza observacional de la base empírica de contras-
tación, no sólo del conjunto de nuestro conocimiento, sino para cada teoría científica par­
ticular. Estas cuestiones motivaron multitud de debates, han sido tratadas por casi todos
los filósofos de la ciencia y en relación con ellas surgieron algunas de las posiciones que
dieron lugar a concepciones alternativas a la Concepción Heredada. En el primer parágra­
fo nos limitaremos a los aspectos más generales, y en los dos siguientes desarrollaremos
algunos problemas específicos.

5 .1 . E n t id a d e s o b s e r v a b l e s y d is t in c ió n t e ó r ic o / o b s e r v a c io n a l

Para muchos empiristas y positivistas lógicos del período de entreguerras, y espe­


cialmente para aquéllos en torno a los cuales se gestan las primeras versiones de la con­
cepción estándar, la fundamentación del conocimiento en la experiencia se entendía en
términos fenomenalistas: los primeros datos sobre los que se construye todo conocimien­
to, que justifican nuestras creencias, son datos de la experiencia fenoménica. Esta posi­
ción extrema plantea múltiples dificultades en las que no podemos detenemos aquí, y el
fenomenalismo termina por ser abandonado, al menos como base de experiencia para las
300 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

teorías científicas. Las entidades fenoménicas (q u a lia , datos sensoriales) son entonces
sustituidas por entidades que se caracterizan simplemente como “directamente presentes a
la observación”. Sin embargo, esta nueva versión, que se convertirá en estándar, tiene sus
propios problemas, el principal de ellos su vaguedad. Las entidades fenoménicas son cla­
ramente distinguibles de las no fenoménicas, pero por su “privacidad” o subjetividad son
poco plausibles como constituyentes de la base de experiencia para la ciencia. Las entida­
des observables, públicas, parecen en primera instancia poder desempeñar más plausible­
mente tal función, pero ahora el problema es la dificultad para distinguir nítidamente en­
tre entidades observables y no observables (teóricas).
Inicialmente, Carnap intentó una caracterización precisa de los términos observa-
cionales como aquellas expresiones del lenguaje tales que, en condiciones normales, un
observador puede determinar a través de una serie de observaciones, y con un alto grado
de confirmación, si el término se aplica o no en una situación dada (cf. Carnap,
1936-1937). Esta caracterización es inadecuada, pues, sin más precisiones, se aplica tam­
bién a predicados pretendidamente no observacionales. En escritos posteriores, Carnap se
limitó a caracterizar el vocabulario observacional como aquel que se refiere a entidades
observables (cf. 1956, §11): los términos observacionales son predicados que denotan pro­
piedades observables de acontecimientos o cosas, o relaciones observables entre ellos.
Pero es claro que si no se especifica lo que caracteriza las entidades observables, simple­
mente se desplaza el problema. Hempel presentó las cosas de modo parecido al hablar de
entidades o fenómenos “que podemos observar directamente” (1958, §11). La cuestión es:
¿qué cuenta como observación directa? Aunque no se da una respuesta a esta cuestión,
parece que en este primer momento se sigue pretendiendo que la distinción que hay tras
ella es relativamente rígida y no dependiente del contexto.
Después de una serie de críticas, especialmente de Putnam (cf. 1962, y también
Hanson, 1958), el primer exponente de la doctrina oficial en reconocer el carácter fluido
de la distinción fue Nagel, quien en su monografía de 1961 afirma: “es dudoso que haya
un sentido riguroso que pueda ser asignado con utilidad a la palabra ‘observable’; y en la
medida en que la distinción [entre leyes empíricas y axiomas teóricos] se base en el con­
traste entre lo que es observable y lo que no, la distinción patentemente no es nítida” (cap.
5, §1). Carnap, en su monografía de 1966, acabó también aceptando explícitamente que la
distinción es gradual. Por ejemplo, si la percepción visual directa cuenta como observa­
ción, ¿qué ocurre con la asistida de lentes?, ¿y de prismáticos o catalejos?, ¿y de telesco­
pio óptico?, ¿y de telescopio de radio? O, para ir en la dirección contraria, ¿cuenta como
observación la realizada con lupa?, ¿y con microscopio óptico?, ¿y con microscopio elec­
trónico? ¿Observa directamente el físico la trayectoria de una partícula cuando ve el ras­
tro en una cámara de niebla?; ¿se observa la corriente eléctrica al ver moverse la aguja de
un amperímetro? Preguntas como éstas son las que le hacen concluir que “hay un conti­
nuo que comienza con observaciones sensoriales directas y pasa a métodos de observa­
ción enormemente complejos e indirectos, [...] el físico habla de observables en un senti­
do muy amplio, comparado con el estricto sentido que da el filósofo a la palabra, pero en
ambos casos la línea de separación entre lo observable y lo inobservable es muy arbitra­
ria” (cap. XXIII).
ANÁLISIS SINCRÓNICO DE TEORÍAS I 301

A pesar de la fluidez o vaguedad de la distinción, tanto Nagel como Carnap insis­


ten en su utilidad para la caracterización de la naturaleza y estructura de las teorías. Así,
por ejemplo, Carnap insiste en que las leyes empíricas son las que contienen términos que
refieren a entidades “directamente observables por los sentidos o medibles mediante téc­
nicas relativamente simples” (ib id .). Pero sorprendentemente menciona ahora como ejem­
plos, además de regularidades cualitativas simples (como la típica “todos los cuervos son
negros”) también leyes cuantitativas (como las de los gases, que relacionan presión, volu­
men y temperatura para los gases, o la ley de Ohm, que relaciona potencial, resistencia e
intensidad de corriente) que involucran términos que había considerado tradicionalmente
teóricos (como ‘temperatura’ o ‘intensidad de corriente eléctrica’). El cambio se debe sin
duda a la aceptación de la fluidez de la distinción. La cuestión que surge ahora es si en es­
tos nuevos términos la distinción teórico/observacional puede desempeñar la función para
la que fue originalmente introducida. Numerosos críticos, como Putnam (1962), Shapere
(1965), Maxwell (1961), Achinstein (1968) o el propio Hempel posteriormente (1973),
argumentaron en contra de ello. Veamos algunas de las principales dificultades.

5 .2 . N e u t r a l id a d t e ó r ic a d e l o s t é r m in o s o b s e r v a c io n a l e s

y c a r g a t e ó r ic a d e l o s h e c h o s

El principal motivo de la introducción de la distinción teórico/observacional era


proporcionar legitimidad semántica, según los criterios empiristas, a los términos “sin co­
nexión empírica inmediata” que las teorías científicas introducen a través de sus leyes
para dar cuenta de los fenómenos. Esta finalidad semántica va acompañada de otra meto­
dológica, pues se pretende que la base observacional es la que proporciona la experiencia
“neutra” con la cual contrastar las afirmaciones de la teoría. Esta neutralidad teórica de la
base de contrastación parece en primera instancia fundamental, pues de lo contrario pare­
cería que la teoría resulta autojustificativa. Si la experiencia observacional que se usa para
contrastar la validez de una teoría fuese dependiente de la teoría en cuestión, esto es, si la
elaboración de los informes observacionales que sirven de base de contrastación presupu­
siera la validez de la teoría, entonces tendríamos un círculo autojustificativo. Por tanto, la
base observacional, si ha de servir para la contrastación, debe ser teóricamente neutral.
Esta cuestión está íntimamente ligada a la anterior, pues la distinción T/O parece proble­
mática en la medida que lo que consideramos usualmente observaciones requieran adies­
tramiento o conceptualización teórica.
Ya antes de la formulación explícita de la Concepción Heredada, Duhem (1914)
objetó a lo que iba a ser este elemento de la misma. Duhem rechazó que la observación
esté libre de conceptualización teórica, aunque usualmente sí lo está respecto de algunas
teorías, esto es, puede ser que las observaciones no presupongan una teoría que usa de
ellas en su contrastación. Debe recordarse que originalmente la observabilidad no se pre­
tende relativizada a una teoría, los estados de cosas son observables o no sin más, y los
que supuestamente lo son se usan para contrastar unas teorías u otras. Lo que constató
Duhem es que toda observación, o mejor dicho todo informe observacional, supone una
302 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

interpretación de los datos de los sentidos, y una interpretación no es más que una con-
ceptualización teórica, sea explícita o implícita. Quizá el aparato conceptual interpretador
que genera la base observacional no corresponde a cierta teoría que usa dicha base en la
contrastación, pero en cualquier caso corresponderá a otro “constructo teórico”; este
constructo presupondrá a su vez otro en la descripción de sus propios fenómenos empíri­
cos y así sucesivamente. No hay (en general) una autojustificación inmediata de cada teo­
ría, pero sí un círculo global autojustificativo en el conjunto de la ciencia. Duhem ejem­
plifica esta tesis con múltiples casos históricos y con referencias a la práctica experimen­
tal usual en laboratorios (cf. p.ej. su ejemplo de la oscilación de una barra de hierro en
cierto mecanismo y la medición de la resistencia, 1914, p. 218). Ésta es la base del cono­
cido holism o de Duhem, de gran influencia en el siglo xx, y sobre el que volveremos bre­
vemente más adelante (cap. 11).
En el Círculo de Viena fue Neurath quien más radicalmente se distanció de la tesis
oficial inicial de la neutralidad de los “informes protocolares de experiencia” y a él, y a
Duhem, apelará después Quine como inspiradores de sus propias tesis holistas. Pero en el
campo específico de la filosofía de la ciencia, en el contexto neopositivista de entregue­
rras, fue Popper quien primero expresó de forma explícita el componente teórico de la
base empírica de contrastación, lo que después se denominará carga teó rica de los he­
chos. Popper es uno de los mayores críticos de las tesis centrales del Círculo de Viena (al
que, como insiste en declarar, no pertenecía), pero comparte en general la caracterización
de las teorías como cálculos interpretados. El principal punto de desacuerdo tiene que ver
con la epistemología de la contrastación; como veremos en detalle en el capítulo 12, fren­
te al confirmacionismo y la lógica inductiva de Camap, de los que Popper fue el primer y
más severo crítico, él defiende una lógica de la falsación. Pero otro de los puntos de di­
sensión tiene que ver con nuestra actual cuestión. Aunque no sacara todas las consecuen­
cias (consecuencias que acaban cuestionando sus tesis falsacionistas más radicales, cf.
cap. 12, §4 y §5), declaró abiertamente que en la determinación de la base de contrasta­
ción, “en la determinación de los hechos”, interviene un conocimiento de fondo necesita­
do de aceptación previa. Al someter a prueba una teoría, señala, no sólo intervienen en
ella las condiciones iniciales y los supuestos auxiliares (según el esquema comúnmente
admitido) sino también cierto conocim iento de fo n d o sobre los hechos singulares. Este
conocimiento de fondo, que “contiene” lo que se acepta como hechos, se puede conside­
rar constituido por teorías de bajo nivel que se aceptan como altamente corroboradas y
que no entran en el juego de la contrastación. Y no entran en el juego por d ecisión (no ne­
cesariamente consciente): “Siempre que una teoría se somete a contrastación [...] hay que
detenerse en algún enunciado básico que decidimos aceptar: si no llegamos a decisión al­
guna a este respecto, [...] la contrastación no lleva a ninguna parte” (1935-58, §29).
Esta idea pone de manifiesto lo que se denomina, siguiendo a Hanson, la carga teóri­
ca de los hechos . Hanson fue el primero en hacer de este fenómeno algo esencial para el aná­
lisis de la ciencia y en defender la opinión de que ello modifica dramáticamente la visión tra­
dicional de la misma. Apoyándose en los casos de ambigüedad perceptiva estudiados por la
psicología de la Gestalt, destacó la importancia del contexto y los elementos organizativos ya
en la percepción. Ilustró esta tesis con el siguiente ejemplo (cf. 1958, cap. 1).
ANÁLISIS SINCRÓNICO DE TEORÍAS I 303

Al contemplar las figuras 1 y 3, se ven en los extremos inferiores derechos dos


animales diferentes a pesar de que son “la misma cosa” (figura 2); además, cuando con­
templamos el dibujo aislado podemos ver una cosa u otra, pero no las dos a la vez. En
parte se ve lo mismo (hay una excitación similar del córtex) y en parte no, y el sentido in­
teresante de ‘ver’ relevante para la ciencia es el segundo. No se trata de interpretaciones
diferentes a p a r tir de una misma visión; eso, afirma, no tiene sentido, pues “interpretar”,
si se quiere llamar así, es parte constitutiva de “ver”. Además, el contexto puede no darse
explícitamente, no es esencial al hecho que el ejemplo pretende mostrar que en él el con­
texto esté manifiesto; piénsese, afirma Hanson, en lo que ven un físico y un profano ante
los rastros de una cámara de niebla. Este fenómeno, que salvo radicales diferencias cultu­
rales tiene en la vida cotidiana escasa trascendencia, es determinante en la ciencia, donde
la dependencia del contexto es altamente teórica y, en momentos de cambio conceptual
en los que se contraponen diferentes contextos de fondo, deviene crucial. Cuando Tycho
y Kepler ven el Sol al amanecer, dice Hanson, en parte ven lo mismo y en parte no:
Tycho ve un astro móvil, Kepler uno estático, “y es el sentido en que no ven la misma
cosa el que debe tomarse en cuenta para entender los desacuerdos que existen dentro de la
física” (ibid. B).
Consideraciones parecidas a éstas se encuentran en otros autores. Toulmin afirma
que los fenómenos no sólo son seleccionados por la actividad teórica sino que incluso es­
tán definidos por la misma: hay una “continua interacción entre teoría y hecho las
teorías se construyen sobre la base de hechos, a la vez que les dan significación y aun de­
terminan lo que son ”hechos“ para nosotros” (1961, p. 95). Feyerabend, defendiendo su
pluralismo metodológico (cf. 1964, 1965, 1981), sostiene que la descripción de los he­
chos depende siempre de una teoría (aunque en general no de la que se contrasta) y que
hay hechos que sólo pueden salir a la luz con ayuda de teorías alternativas incompatibles.
Rechaza por tanto la tesis de que “los hechos existen y están disponibles independiente­
mente de la consideración de alternativas a la teoría que se contrasta” (1981, §5). La con­
secuencia de ello es lo que él caracteriza como la inversión de la relación tradicional entre
teoría y observación. El significado de las oraciones de observación está determinado por
las teorías con las que están relacionadas, no son significativas a menos que se hayan re­
lacionado con las teorías: “la interpretación de un lenguaje de observación está determi­
nada por las teorías que usamos para explicar lo que observamos, y cambia tan pronto
como estas teorías cambian” (1981, §6). En su monografía de 1975 ilustró esta tesis con
innumerables ejemplos extraídos de la historia de la ciencia que, en su opinión, la confir­
man; muestra, por ejemplo (cap. 10), cómo, en la controversia entre Galileo y los aristoté­
licos sobre las consecuencias de la observación telescópica de diversos fenómenos astro­
304 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

nómicos, el primero se apoyaba, entre otros supuestos que los aristotélicos tenían buenas
razones para rechazar, en una teoría óptica inaceptable. Kuhn, como veremos, sostuvo por
su parte que las teorías contienen elementos que determinan el contenido de la experien­
cia y que defensores de teorías diferentes viven en mundos experienciales diferentes.
También Lakatos apuntaba en la misma dirección cuando, siguiendo a su maestro Popper,
afirmaba que en la contrastación no comparamos la teoría con hechos neutros sino con
otras teorías más básicas presupuestas por los hechos.
El fenómeno de la carga teórica de los hechos, y el ofrecer una imagen de las teo­
rías y de la actividad científica adecuada a este fenómeno y a los casos históricos del mis­
mo, es una de las principales motivaciones de las nuevas concepciones que surgen en tor­
no a estos n u evo s filó s o fo s de la ciencia (así denominados, en su día, por contraposición
a la Concepción Heredada). Nosotros dejamos provisionalmente la cuestión aquí sólo
apuntada y volveremos sobre ella en los dos próximos capítulos. Es esencial darse cuenta
de que toda esta discusión presupone una identificación casi siempre aceptada implícita­
mente. Se comienza cuestionando la neutralidad teórica de los informes observacionales y
se concluye que los datos, fenómenos o hechos que constituyen la base de experiencia en
la contrastación están teóricamente cargados. Ello supone la identificación entre a) in fo r­
m es de experien cia o datos de contrastación y b) inform es o b serva cio n a les . Parte de las
críticas expuestas se deben entender como cuestionando esta identificación. Para concluir
nos detendremos brevemente en este aspecto de la cuestión.

5 .3 . O b s e r v a c ió n y b a s e e m p ír ic a

Las teorías empíricas se generan a partir de una serie de fenómenos de los que,
tras la elaboración teórica, se pretende dar cuenta; esos mismos fenómenos, u otros nue­
vos del mismo tipo, constituyen el ámbito de experiencia sobre el que la teoría hace pre­
dicciones y se somete a contrastación. Llamemos a esos datos, fenómenos o hechos que
constituyen el ámbito de experiencia y contrastación de una teoría, la base em p írica o
base de contrastación de la teoría en cuestión. Hemos visto que en la versión oficial de la
Concepción Heredada se entiende la base empírica en términos observacionales.
Por otro lado, aceptemos, como demuestran múltiples estudios tanto empíricos
como teóricos, que la observación “directa” incluye conceptualización. A pesar de ello,
cabe suponer que algunos aspectos de esa conceptualización, los cognitivamente más bási­
cos, serán generales, comunes a todo sistema cognitivo (o al menos, en su dimensión bioló-
gica-evolutiva, comunes a todos los seres humanos). Si eso es así, del hecho de que la ob­
servación presuponga cierta conceptualización no se sigue que dicha conceptualización de­
penda siempre esencialmente de las teorías científicas. Por tanto, si la base de contrastación
fu e s e observacional, ello no implicaría que lo que cuenta como base empírica depende
esencialmente de las teorías científicas . En realidad, pues, lo que hay implícitamente de­
trás de las consideraciones críticas sobre la carga teórica (científicam ente teórica) de todo
dato de contrastación es una puesta en cuestión del supuesto de la Concepción Heredada de
que la base de contrastación es en general de naturaleza observacional. Tras muchas de las
ANÁLISIS SINCRÓNICO DE TEORÍAS I 305

críticas a la supuesta neutralidad de las observaciones, lo que hay en realidad es un rechazo


a la identificación entre base empírica de contrastación y experiencia directamente observa­
ble. El principal motivo para identificar la base empírica con la experiencia observable di­
recta es el viejo anhelo empirista de fundamentar y justificar todo nuestro conocimiento en
la experiencia sensorial. Todo conocimiento (empírico) empieza con las afecciones de
nuestro entorno sobre nuestro aparato sensorial y toda justificación del mismo debe apelar
en última instancia a esa “observación directa” del entorno. Pero, como dijimos más arriba
(sección 3), de este supuesto razonable no se sigue que la justificación de cada pieza de
nuestro conocimiento deba proceder del mismo modo, que esta tesis global sea también vá­
lida localmente. Puede ocurrir que, como organismos vivos, la interacción más básica con
nuestro entorno la realicemos en términos globales perceptualmente mediante observación
directa, pero que en algunas partes de nuestro sistema cognitivo, especialmente en las muy
complejas que dan lugar a las teorías científicas (muy escasas y raras en términos evoluti­
vos globales), la base de experiencia no se dé a través de observación directa inmediata.
Puede que todo empiece por la observación pero, si el sistema cognitivo es modular y jerár­
quico, no en todas partes. Si eso es así, la base de contrastación de muchas, o (casi) todas,
las teorías científicas puede estar constituida por datos o fenómenos que no sean de obser­
vación directa; y por tanto, alternativamente, lo distintivo de los términos teóricos no será
que denotan entidades inobservables.
Ya en 1962, Putnam se opuso a identificar la distinción “inobserv able/observable”
con “teórico/no teórico”. Afirmaba, por un lado, que hay teorías cuyo aparato teórico se
refiere a entidades observables, y, por otro, que casi nunca los fenómenos a explicar son
accesibles mediante observación directa. Se trata de dos dicotomías diferentes. Un térmi­
no teórico es un término que proviene de una teoría científica y “el problema apenas toca­
do en treinta años que se lleva escribiendo acerca de ‘términos teóricos’ es qué es lo real­
m ente distintivo de dichos términos” (1962, §1). Poco antes, Ryle había distinguido entre
expresiones de una teoría que están cargadas con el peso de esa teoría particular y expre­
siones que no lo están; así, p.ej., “los términos técnicos de la genética están impregnados
de teoría, [...] no sólo con equipaje teórico de alguna clase, sino con el de la teoría genéti­
ca” (1956, p. 90). Estas consideraciones apuntan a la idea de que un término es teórico o
no en relación con una teoría en función de si depende o no, de un modo que hay que es­
pecificar, de la teoría en cuestión. Achinstein (1968, cap. 6) hace explícita esta caracteri­
zación y discute varios sentidos en que un término puede depender de una teoría. Como
veremos en el próximo capítulo, durante los años sesenta, Kuhn y Lakatos hicieron tam­
bién consideraciones que apuntan en la misma dirección.
El primero en dar una caracterización mínimamente articulada y elaborada de la
nueva distinción que se está gestando fue Hempel en una serie de trabajos de finales de
los años sesenta y principios de los setenta (1966, cap. 6, 1970, 1973). En estos trabajos,
Hempel divide ahora el vocabulario básico de cada teoría en dos clases que se pretenden
nítidamente separadas y relativizadas a una teoría específica. Una clase está formada por
los términos con los que se describen los fenómenos a explicar, la base empírica. Estos
términos constituyen el voca b u la rio p reteó rico o, como también dice, “previamente dis­
ponible”. Estos términos preteóricos no corresponden en general a situaciones observa­
306 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

bles en sentido estricto, sino que a menudo se introducen en la ciencia en el contexto de


una teoría anterior. Los otros términos descriptivos usados en la teoría son los que ella in­
troduce para llevar a cabo la elaboración teórica que da cuenta de los fenómenos preteóri­
camente descritos; ellos constituyen el vocabulario teórico de dicha teoría. Es importante
enfatizar dos puntos de esta nueva distinción: a) es una distinción relativizada a las teo­
rías, un término no es teórico o preteórico sin más, sino respecto de una teoría específica,
y por tanto un término puede ser preteórico en una teoría y teórico en otra; aunque no lo
afirma explícitamente, de su caracterización informal parece seguirse que un término pue­
de ser preteórico en varias teorías, aunque normalmente será teórico sólo en una; b) el cri­
terio para la distinción es el uso o no del término en la descripción de los fenómenos em­
píricos a explicar; por tanto, la distinción será precisa en la medida en que se dé un crite­
rio preciso para determinar qué enunciados son los que describen los fenómenos a expli­
car, pero Hempel no lo da.
Junto con esta nueva caracterización del vocabulario básico de una teoría, Hempel
introduce otra para los enunciados. Además de enunciados puramente empíricos, la teoría
contiene: (i) p rin cip io s internos , que son los que especifican “el escenario teórico”, los que
sistematizan el nuevo aparato conceptual introducido por la teoría; (ii) principios-puente ,
que indican la forma en que “se relaciona lo que ocurre a nivel del escenario teórico con los
fenómenos que la teoría debe explicar” (1973, §1). Esta clasificación de los enunciados pa­
rece una nueva versión de la anterior, axiomas teóricos y reglas de correspondencia, pero
no es así. Aunque hay enunciados cuyos únicos términos descriptivos son preteóricos (a sa­
ber, los informes empíricos particulares y sus generalizaciones), no hay ahora enunciados
que contengan sólo términos teóricos; tanto los principios internos como los princi­
pios-puente contienen esencialmente tanto términos teóricos como preteóricos.
En cuanto a la presunta función de los enunciados en la fijación del significado de
los términos, Hempel sostiene ahora que el significado de los términos teóricos no está
totalmente determ in a d o por los principios internos más los principios-puente. Ambos ti­
pos de enunciados ofrecen al aprendiz de la teoría el acceso principal a la compresión de
las expresiones, pero no determinan completamente su significado. La idea clásica de que
el significado de los términos se fija completamente m ediante enunciados que los conec­
tan con otros términos es errónea; y, como ya había sugerido Putnam (1962), el problema
del significado de los términos teóricos planteado en ese esquema no existe, es un pseu-
doproblema. El motivo es que los términos científicos adquieren su significado por vías
diversas, quizá en algunos casos (parcialmente) mediante enunciados, pero usualmente de
otros modos; especialmente, como los términos del lenguaje ordinario, vinculándolos a
aplicaciones específicas, “mediante instancias de uso en contextos particulares” (Hempel,
1973, §7, donde menciona además a Kuhn como referencia explícita para estas ideas;
cf. también al respecto las teorías causales de la referencia, p.ej. Putnam, 1975).
Por último, Hempel considera ahora que la pretensión de la Concepción Heredada
de caracterizar una teoría empírica a través de su reconstrucción axiomática es inadecua­
da, pues siempre hay varias axiomatizaciones posibles, ninguna de las cuales expresa me­
jor que las otras la naturaleza de la teoría; una teoría no se puede identificar pues con un
sistema esp ecífico de enunciados dotados de cierta estructura o sistematización.
ANÁLISIS SINCRÓNICO DE TEORÍAS I 307

Todas estas innovaciones del último Hempel son importantes y apuntan a elemen­
tos esenciales en la caracterización de las teorías que se desarrollarán en otras concepcio­
nes, pero en esta particular versión son sumamente insatisfactorios. Sus principales con­
tribuciones son: a) la relativización de la distinción teórico/preteórico a las teorías y b ) la
caracterización de la base empírica en términos preteóricos, con lo cual los datos se consi­
deran cargados de teoría pero no de la misma teoría para la que constituyen su base empí­
rica. Las principales dificultades radican en: (i) la imposibilidad de distinguir entre princi­
pios internos y principios-puente, y (ii) la inexistencia de un criterio preciso para poner en
obra la distinción entre términos teóricos y preteóricos.

6. C onsideraciones finales

En este capítulo hemos examinado los primeros análisis que, en el contexto de la


llamada Concepción Heredada, se dieron de la naturaleza y estructura sincrónica de las
teorías empíricas. La idea básica que inspira este análisis es que una teoría empírica es un
conjunto de afirmaciones que a) son susceptibles de ser estructuradas mediante relaciones
de dependencia lógica y b ) versan sobre la realidad física, algunas directamente y otras
indirectamente a través de las primeras. El núcleo de este análisis lo constituye la noción
de cálculo axiom ático em píricam ente interpretado. La articulación de esta noción supone
la distinción entre vocabulario teórico y observacional, y entre afirmaciones puramente
teóricas (axiomas del cálculo abstracto), afirmaciones puramente observacionales (enun­
ciados fácticos particulares y generalizaciones empíricas) y afirmaciones “mixtas” (reglas
de correspondencia).
La intuición que hay tras la idea básica es esencialmente correcta, pero el modo
específico en que la Concepción Heredada la desarrolla presenta diversas dificultades.
Estas dificultades son básicamente de tres tipos. De ellas, sólo la última ha recibido aten­
ción en las secciones anteriores, pues sólo ella fue tematizada por los representantes de
esta concepción, las otras serán examinadas en detalle en los dos próximos capítulos.

1, La primera dificultad tiene que ver con la excesiva “rigidez” del uso que se
hace de la noción de cálculo axiomático. Tal como se presenta aquí, todos los axiomas
(y reglas) de una teoría están al mismo nivel, no hay unos más esenciales, básicos, y
otros menos, complementarios. Nótese que estamos hablando sólo de los axiomas, no se
piense por tanto que la distinción entre axiomas y teoremas tiene que ver con ésta que
ahora estamos apuntando. Por lo que a los axiomas se refiere, si todos están al mismo
nivel, si todos son igualmente esenciales, entonces es difícil que esta noción tan rígida,
“monolítica”, de teoría sincrónica permita una elucidación adecuada de las teorías en
sentido diacrónico. Si todo está al mismo nivel, si no se distingue entre afirmaciones
esenciales y otras sólo complementarias (“no esenciales”), entonces el más mínimo
cambio implica un cambio de toda la teoría, la sustitución de una teoría por otra teoría
diferente. Esto es intuitivamente insatisfactorio. Una de las principales contribuciones
de los nuevos filósofos de la ciencia que estudiaremos en el próximo capítulo consiste
308 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

precisamente en llamar la atención sobre esta inadecuación y proponer un concepto de


teoría mucho más rico y dúctil.
2. La segunda dificultad tiene que ver con la noción misma de sistema axiomáti­
co. Tal como se presenta la identidad de una teoría, ésta parece depender de los axiomas
que se elijan en su axiomatización, lo cual es intuitivamente insatisfactorio. Parece que
una teoría puede decir “lo mismo” mediante recursos expresivos diferentes. Esto no lo
niegan los representantes de la Concepción Heredada pero, simplemente, la articulación
“enunciativista” que hacen de la idea básica no les permite recoger plenamente las intui­
ciones. Como veremos en el capítulo 10, para ello es necesario hacer jugar un papel más
central en la caracterización de las teorías a la noción de modelo que presentamos en la
sección 2. Ésta será la principal contribución de las concepciones semanticistas que estu­
diaremos en ese capítulo.
3. Por último, en la discusión sobre la naturaleza de la base de contrastación, su
supuesta carga teórica y su eventual naturaleza observacional, se deben distinguir dos ni­
veles, el local y el global. Por lo que se refiere al supuesto carácter observable de la base
de contrastación, una cosa es a) que las teorías científicas, globalmente consideradas
como partes del sistema total de nuestro conocimiento, descansen en última instancia, por
lo que a su justificación se refiere, en los modos más básicos de experiencia “observable”
(“observabilismo” global), y otra b) que cada teoría científica sea tal que los enunciados
que expresan los hechos con los que se contrasta involucren sólo expresiones que se refie­
ren a situaciones observacionales básicas (“observabilismo” local). Lo primero es segura­
mente cierto, lo segundo es, a la luz de las teorías reconstruidas, muy poco plausible. En
cuanto a la carga teórica de la base de contrastación, una cosa es c) que la determinación
de los datos de contrastación presuponga “directamente” la teoría que se quiere contrastar
mediante dichos datos (autojustificacionismo local), y otra d) que tal determinación pre­
suponga otra u otras teorías vinculadas a nivel global de una disciplina, o incluso la cien­
cia entera, con la teoría original (holismo de contrastación). Lo primero es claramente
inaceptable, lo segundo merece un juicio filosófico más detenido. Sobre estas cuestiones
volveremos en los próximos capítulos.
C a p ít u l o 9

ANÁLISIS SINCRÓNICO DE TEORÍAS II.


LAS CONCEPCIONES HISTORICISTAS:
LAS TEORÍAS COMO PROYECTOS DE INVESTIGACIÓN

1. La revuelta historicista y la naturaleza sincrónica de las teorías

Durante los años sesenta, y en parte como consecuencia de los debates sobre algu­
nas de las cuestiones que hemos expuesto en el capítulo anterior, se gestan y desarrollan
concepciones alternativas a la Concepción Heredada que cuestionan sus supuestos funda­
mentales. De ellas, la que más pronto cristaliza como alternativa es la que entonces se de­
nominó nueva filo s o fía de la cien cia , vinculada a autores como Hanson, Toulmin, Kuhn,
Feyerabend y Lakatos, y mucho más tarde y sin pertenecer oficialmente al grupo, pero
con orientaciones parecidas, Laudan. Una de las características de estos pensadores es su
mayor preocupación por, y su mejor conocimiento de, la historia de la ciencia (el más re­
presentativo e influyente de ellos, T. Kuhn, se había dado a conocer años antes como un
extraordinario y renovador historiador de la ciencia). En su opinión, la atención a la cien­
cia real que la historia nos presenta obliga a modificar la práctica totalidad de la imagen
de la misma que se ofrece en la Concepción Heredada. Esta revuelta historicista propicia
una revisión drástica en prácticamente todos los ámbitos metacientíficos. Aunque, como
siempre, también en esta concepción las tesis centrales en los diversos ámbitos están ex­
tremadamente interrelacionadas, vamos a ocupamos aquí, en la medida de lo posible,
exclusivamente de las tesis relativas a la naturaleza y estructura de las teorías científicas
en su dimensión estática o sincrónica (en el capítulo 13 nos detendremos en los aspectos
diacrónicos).
Conviene advertir que, contrariamente a la Concepción Heredada, ésta no es una
cuestión que reconozcan como central los nuevos filósofos, ni siquiera hacen de ella un
tema de estudio explícitamente declarado (salvo quizá Kuhn en una segunda etapa). En
la medida en que se ocupan de las teorías o constructos teóricos, lo hacen siempre, con­
secuentemente con su orientación general historicista, desde una perspectiva diacrónica,
centrándose en los aspectos dinámicos de las teorías como entidades que se extienden
en el tiempo, esto es, que nacen, se desarrollan y “mueren” (se desalojan mutuamente).
Sin embargo, debe quedar claro que, independientemente de que se reconozca o no ex­
plícitamente, el estudio diacrónico presupone una concepción de la naturaleza sincróni-
310 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

ca de las teorías. Cualquier análisis de la dimensión diacrónica de las teorías científicas


debe partir de que las teorías diacrónicamente consideradas, en tanto que entidades que
perduran en el cambio a través del tiempo, consisten en determinadas secuencias de
“teorías en sentido sincrónico”. La “historia” de una teoría consiste en la sucesión de las
diversas “etapas” o versiones por las que pasa. Estas etapas, en tanto que imágenes
“congeladas” de la teoría en cierto momento, se deben considerar aproximadamente es­
tables o “estáticas”. La cinemática de la teoría, su “historia”, consiste en la sucesión de
sus diversas versiones estáticas, en la sucesión de “etapas” por las que la teoría pasa.
Esta intuición básica, en la que descansa cualquier análisis de la estructura diacró­
nica de la ciencia, implica entonces que los análisis diacrónicos presuponen alguna no­
ción de la estructura sincrónica de las teorías, de las etapas cuya sucesión constituye la
teoría-en-el-tiempo. El análisis y discusión de la evolución de los constructos teóricos
contiene pues, cuando menos implícitamente, cierta preconcepción de la naturaleza de los
diversos estadios por los que atraviesa ese constructo teórico, de sus elementos constitu­
yentes y su estructuración. Esta preconcepción de la naturaleza sincrónica de las teorías
que subyace a los estudios diacrónicos puede estar mejor o peor articulada y en algunos
de estos autores está, aunque no siempre explícita, altamente estructurada y elaborada.
Éste es el caso particularmente de Kuhn y también, aunque en menor medida, de Lakatos
(su temprana muerte le impidió concluir la reelaboración de sus ideas que estaba prepa­
rando). Revisaremos aquí las contribuciones de estos dos autores, con especial deteni­
miento en Kuhn, y concluiremos comentando brevemente las de Laudan quien, aunque
posterior, desarrolla una posición parcialmente parecida en abierta polémica con los an­
teriores.
Como veremos al final, estos autores realizaron contribuciones fundamentales a la
caracterización sincrónica de las teorías. Ahora bien, en su opinión, esos nuevos elemen­
tos que señalan, al estar esencialmente vinculados a la actividad científica como activi­
dad práctica con componentes históricos y sociales ineliminables, son inaccesibles al aná­
lisis formal. Todo el proyecto original de desarrollar una lógica de la ciencia, incluida en
ella la reconstrucción formal de las teorías, está según ellos abocado al fracaso. Uno de
los mayores retos de la filosofía de la ciencia posterior será dar cuenta en términos forma­
les, o semiformales, de las principales contribuciones de estos autores. En general, estos
nuevos elementos van a conformar una noción de teoría mucho más dúctil que la extre­
madamente rígida de la Concepción Heredada. Ahora, el análisis de las teorías ha de ser
tal que éstas resulten entidades susceptibles de evolución, que puedan sufrir modificacio­
nes extendiéndose en el tiempo sin perder su identidad. Para ello es imprescindible que
sus estadios, las teorías en su dimensión estática o sincrónica, sean dúctiles, tengan partes
más accidentales que puedan cambiar manteniendo su identidad, esto es, preservando sus
componentes más esenciales. Veamos cómo se concreta esta idea básica en las nociones
de p a ra d ig m a o m atriz d iscip lin a r , de Kuhn, de p ro g ra m a de investigación, de Lakatos,
y de tradición de investigación, de Laudan.
ANÁLISIS SINCRÓNICO DE TEORÍAS II 311

2. Los paradigm as-m atrices disciplinares de Kuhn

En 1962, Kuhn presenta en L a E stru ctu ra de las R evoluciones C ientíficas una vi­
sión de la ciencia, de los constructos teóricos, de las comunidades científicas y de su acti­
vidad, radicalmente novedosa y contraria a la dominante hasta entonces. Se ha señalado
que esa nueva perspectiva tiene muchos puntos en común con la que esbozara el científi­
co y filósofo polaco L. Fleck treinta años antes (cf. Fleck, 1935). El propio Kuhn recono­
ce en la introducción a su obra no sólo la semejanza, sino la influencia de las ideas de
Fleck. Pero, reconocidos sus méritos como precursor adelantado, es indudable que por la
articulación y desarrollo de las tesis, por la elaboración y precisión posterior de las mis­
mas y, sobre todo, por la enorme influencia que ejercieron, corresponde sin duda a Kuhn
el mayor protagonismo en el surgimiento de esta nueva concepción. En esta obra se tratan
prácticamente todos los temas fundamentales de la filosofía de la ciencia y todos ellos
bajo una perspectiva nueva. Nos ceñiremos aquí a los relativos a la estructura de los cons­
tructos teóricos o, como Kuhn los denomina inicialmente, p aradigm as.

2 .1 . C ie n c ia n o r m a l y c ie n c ia r e v o l u c io n a r ia

En las ciencias maduras, Kuhn distingue dos modos de “hacer ciencia” que ade­
más, en su opinión, se suceden históricamente. Al primero lo llama n orm al pues es el
modo usual en que opera la ciencia, la manera en que ésta se desarrolla la mayor parte del
tiempo. Al segundo lo denomina, por oposición, n o -n o rm a l o extraordinario y, a veces,
revolucionario. Es importante insistir en que éste es el modo en que, según Kuhn, proce­
de la ciencia madura, pues el panorama que vamos a trazar no se aplica a los períodos de
formación o asentamiento de una disciplina.
Los períodos de ciencia normal se caracterizan por el hecho de que la comunidad de
científicos que trabaja en un determinado ámbito comparten ciertos presupuestos de muy
diverso tipo (teóricos, experimentales, metodológicos y otros) que son los que les permiten
ir haciendo ciencia. Estos elementos compartidos se encuentran, implícitamente unos, ex­
plícitamente otros, en los canales usuales de enseñanza y transmisión de una disciplina
(principalmente los libros de texto) y el futuro científico los adquiere por regla general en
su período de aprendizaje. En ciencia normal la tarea casi exclusiva consiste en lo que
Kuhn llama trabajo de resolución de enigm as o rom pecabezas. Esta tarea consiste, grosso
m odo, en ir ampliando y perfeccionando la aplicación del aparato teórico-conceptual a la
experiencia, y a la vez y como consecuencia de ello, en ir ajustando y puliendo la base teó­
rico-conceptual. Algunas de las tareas típicas de la investigación normal son la precisión de
constantes ya conocidas, la determinación de otras nuevas, encontrar formas específicas
de leyes generales y aplicar las ya disponibles a nuevos fenómenos. Para llevar a cabo este
trabajo es esencial que el científico no cuestione los supuestos compartidos, pues son pre­
cisamente ellos los que guían su investigación y le permiten abrigar esperanzas de éxito. La
ciencia normal no discute sobre fundamentos ni “tiende hacia novedades fácticas o teóricas
y, cuando tiene éxito, no descubre ninguna” (1962-1970, p. 43).
312 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Ahora bien, la ciencia normal es sólo un modo en que se desarrolla la empresa


científica. La ciencia (madura) no discurre siempre de este modo. Un tipo importante de
enigmas tiene que ver con la presencia de anom alías, experiencias que “no encajan” en el
aparato teórico. Aunque a menudo se resuelven con éxito, a veces algunas anomalías (o,
más raramente, algún otro tipo de enigma) se muestran recalcitrantes. Si ello ocurre con
varias, o con alguna considerada especialmente importante, puede ocurrir que, tras cierto
tiempo, algunos miembros de la comunidad desesperen de encontrar una solución, o que,
aunque la encuentren, consideren excesivas las modificaciones n orm ales a que obliga.
Cuando este sentimiento se generaliza en la comunidad científica sobreviene lo que Kuhn
llama una crisis: se comienzan a cuestionar los supuestos que guiaban la investigación, se
pierde la confianza en ellos y se empiezan a revisar y a discutir los fundamentos. En estos
períodos de crisis se suceden propuestas alternativas hasta que en torno a alguna de ellas
se comienza a organizar un nuevo cuerpo de supuestos desde los que mirar las viejas co­
sas de un modo nuevo y más prometedor. Con el tiempo, y si el trabajo basado en los
nuevos supuestos permite abrigar esperanzas de éxito, reciben la confianza de los especia­
listas de la comunidad y acaban suplantando a los antiguos como guía para la investiga­
ción. Los viejos supuestos son desplazados por los nuevos consumándose lo que Kuhn
llama una revolución cien tífica , tras la cual se inicia un nuevo período de ciencia normal.
Éste es el tipo de actividad que caracteriza la ciencia n o -n o rm a l o extra o rd in a ­
ria , la que se desarrolla en los períodos revolucionarios. A ella están asociados los
“grandes nombres” de la historia de la ciencia, como Copérnico, Newton, Darwin o
Einstein. Pero es importante señalar que no sólo ellos pues, si bien la ciencia extraordi­
naria es un fenómeno mucho más extraño que la ciencia normal, según Kuhn se da con
más frecuencia de la que la referencia a estas grandes revoluciones puede sugerir
(cf. 1969, p. 149; el “tamaño” de las revoluciones es una de las cuestiones que Kuhn
nunca ha precisado suficientemente). Es importante señalar que el paso de un período
normal a otro no viene obligado por necesidad lógica. Se trata de un desplazamiento de
confianza y, en ausencia de un nuevo programa, el antiguo puede mantenerse largo
tiempo aunque haya entrado en crisis. Recuérdese que ésta es la situación en disciplinas
científicas ya asentadas. En los períodos de gestación no hay un paradigma dominante y
lo que sucede es algo muy parecido a lo que sucede en los períodos de crisis en la cien­
cia madura, a saber, una extraordinaria proliferación de alternativas rivales que compi­
ten por imponerse en la comunidad.

2 .2 . P a r a d ig m a s q u a m a t r ic e s d is c ipl in a r e s

El concepto básico que articula esta nueva concepción de la ciencia es el de p a r a ­


digm a, Un uapaS siypa (del griego ‘n a p a ’: cercano, aproximado; y ‘SstYpa’: muestra,
mostración) es un ejemplo o caso de algo que hace de modelo para otros casos de lo mis­
mo, es un ejemplo-tipo o típico. Así decimos, por ejemplo, que María Callas es un para­
digma de cantante de ópera, que es una cantante de ópera paradigmática; o que Romeo y
Julieta son un paradigma de amantes apasionados; o, el ejemplo preferido del propio
ANÁLISIS SINCRÓNICO DE TEORÍAS II 313

Kuhn, que a m o -a m a s-a m a t-a m a m u s-a m a tis-a m a n t es un paradigma de la conjugación del


verbo latino. Este significado original del término ‘paradigma’ se desplaza en La E stru c­
tura en varias direcciones hasta llegar a tener sentidos muy diferentes (cf. p.ej. Master-
man, 1970, para un análisis de los mismos). De entre ellos, el dominante, el que sustenta
esta concepción, es desafortunadamente el más impreciso de la obra. En este sentido un
paradigma es el conjunto de supuestos compartidos por una comunidad que guían su in­
vestigación normal. La ciencia normal es ciencia -b a sa d a -en -(u n -)p a ra d ig m a y la ciencia
extraordinaria o revolucionaria es el paso de un paradigma a otro. En esta última, al igual
que en la fase inmadura o preparadigmática de una disciplina, se trabaja sin (el dominio
de un) paradigma, hay una proliferación de hipótesis diferentes. Las disciplinas maduras,
aquellas en que ha surgido ya un primer paradigma, se desarrollan de p a ra d ig m a en p a r a ­
digm a a través de revo lu cio n es .
En este primer trabajo, Kuhn no es lo suficientemente explícito acerca de estos su­
puestos compartidos como para extraer una idea clara de los mismos. Muchas de las críti­
cas que se le dirigieron inicíalmente no sólo se dirigían contra la equivocidad del término
sino también, y principalmente, contra la vaguedad de éste su sentido preponderante. Pa­
recía que hablar de paradigmas no era sino otro modo, poco afortunado, de referirse en
términos muy generales a teorías. En trabajos posteriores (cf. especialmente 1962-1970,
“Postscriptum”, y 1970c), Kuhn intenta distinguir y precisar los diferentes sentidos con
que introdujo el término. Los diversos usos que de él hacía en su primera obra los reagru­
pa ahora en dos sentidos principales. El primero es global y comprende todos los compro­
misos compartidos por un grupo científico, la completa constelación de creencias, valo­
res, técnicas y demás elementos compartidos por los miembros de una comunidad cientí­
fica dada. Como veremos, el segundo es concreto y denota un componente específico de
lo anterior, un tipo especialmente importante de tales compromisos. Aunque entre los es­
tudiosos de la ciencia el término ha acabado por usarse en el sentido global, fue el segun­
do el que motivó originalmente su introducción y el que se adecúa a su significado etimo­
lógico. Para no confundirlos, Kuhn denomina en estos trabajos ‘matriz disciplinar’ ( ld is-
ciplinary m a trix ’) a lo primero y ‘ejemplar’ a lo segundo.
Un paradigma qua matriz disciplinar es por tanto lo compartido por una comuni­
dad científica, lo que guía en un momento dado su investigación normal. Sus principales
componentes son los siguientes:

G eneralizaciones sim b ó lica s

Este es el componente formal o fácilmente formalizable de la matriz disciplinar y


comprende, aproximadamente, las tradicionales leyes. A menudo se encuentran ya en for­
ma simbólica, como / = m a, I = VÍR o V2VF + %n2m lh2(E ~ v y v = 0; pero también pueden
venir expresadas en palabras, como “la acción es igual a la reacción” o “la combinación
química se produce según proporciones constantes de peso”. Estas generalizaciones simbó­
licas, consideradas aisladamente, funcionan como expresiones de un sistema matemático
puro de uso compartido por los miembros de una comunidad científica; como mero forma­
lismo abstracto, son expresiones vacías de significado o aplicación empírica.
314 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

No todas las generalizaciones simbólicas son paradigmáticas, esto es, no todas se


consideran incuestionables. Es típico que así ocurra con las que tienen cierto carácter fun­
dacional o programático. De entre ellas, son especialmente importantes las “más genera­
les”, cuasi-vacías o cuasi-tautológicas, como / = m a o la ecuación de onda de Schródinger,
que más que generalizaciones son esquemas de tales: “no son tanto generalizaciones como
esquemas de generalizaciones, formas esquemáticas cuya expresión simbólica detallada
cambia de una aplicación a la siguiente” (1970c, §111). Una de las tareas de la ciencia nor­
mal consiste precisamente en intentar aplicarlas a situaciones empíricas concretas encon­
trando formas especiales de las mismas: “En el problema de la caída libre,/ = m a pasa a ser
m g = mdVdí2. Para el péndulo simple se convierte en m g sen0 = - md2s/dr2. Para oscilado­
res armónicos acoplados, la mencionada fórmula se convierte en dos ecuaciones, la primera
de las cuales puede escribirse m \á2S\íát2 + k\Si = k2(d + s2 - S\). Problemas mecánicos de ma­
yor interés, por ejemplo el movimiento de un giroscopio, mostrarían aún mayor disparidad
entre f - m a y la generalización simbólica a la que efectivamente se aplica la lógica y la
matemática” (ibid.). Es en este sentido que f - m a n o es tanto una generalización específi­
ca cuanto un esquema que va adquiriendo formas específicas para casos de aplicación espe­
cíficos. Y por eso es, considerada en s í m ism a , cuasi-vacía o cuasi-tautológica y, por tanto,
difícilmente refutable, difícilmente puede entrar en conflicto con la experiencia. Por sí sola
apenas tiene “contenido”, son sus versiones específicas las que lo tienen y las que entran en
conflicto con la experiencia. Pero si ello ocurre, siempre es posible mantener la ley más ge­
neral y retocar sólo sus desarrollos específicos. La idea es que tales leyes generales son
“programáticas”, son algo así como “guías para la investigación”: si tienes un fenómeno ci­
nemático a explicar, busca fuerzas responsables del mismo de modo que la suma de todas
ellas sea igual al producto de la masa por la aceleración; si la suma de fuerzas no coincide
con dicho valor, la conclusión no es que la segunda ley es falsa, sino que debes seguir bus­
cando nuevas fuerzas o precisar mejor la naturaleza y magnitud de las ya detectadas. En
este sentido, este tipo de generalizaciones son “irrefutables” y sólo sus versiones específi­
cas entran en conflicto con la experiencia. Su abandono es un fenómeno revolucionario.
Durante los períodos de ciencia normal no se cuestionan, sólo se cuestionan en los momen­
tos de crisis y si se terminan abandonando es porque han perdido la confianza de la comu­
nidad como principios que guían la investigación. Las revoluciones entrañan, entre otras
cosas, el abandono de estos principios, de estas leyes para d ig m á tica s , pero como parte del
proceso general de pérdida de confianza en el paradigma-matriz en crisis (sobre la forma
lógica de estos prin cip io s g u ía , cf. Moulines, 1982, cap. 2.3).

M odelos

Kuhn usa aquí ‘modelo’ en el sentido de imagen, algo a lo que se puede asimilar
otra cosa, por ejemplo cuando decimos que un computador es un modelo de la mente. Los
modelos proporcionan al grupo las analogías preferidas o, si se las sostiene a fondo, una
ontología. En un primer sentido, los modelos son simples analogías, son sólo h eu rístico s ,
por ejemplo la asimilación del comportamiento de un gas con el de un conjunto de peque­
ñas bolas en movimiento, o del funcionamiento de la mente con el de un computador. En
ANÁLISIS SINCRÓNICO DE TEORÍAS II 315

un segundo sentido, más fuerte, los modelos son objeto de compromiso metafísico, son
ontológicos , por ejemplo la creencia de que todo fenómeno perceptible es debido al movi­
miento e interacción de átomos en el vacío. Kuhn admite que ambos tipos de modelos son
conceptualmente diferentes, pero los subsume en un mismo grupo de compromisos por­
que su función metodológica y epistémica es muy parecida (cf. 1962-1970, “Postscrip-
tum”, n. 9). Además de proporcionar a la comunidad científica sus analogías preferidas,
muchas veces determinan qué puede ser aceptado como solución a un problema. Por otro
lado, a veces modelos heurísticos pueden pasar a convertirse en ontológicos, como ocu­
rrió en la reducción de la termodinámica a la mecánica estadística con la asimilación del
calor con la energía cinética media de las moléculas. Kuhn enfatiza que, aunque usual­
mente los miembros de una comunidad comparten los modelos, ello no es esencial, pue­
den no compartirlos, ni siquiera los heurísticos. En este punto, sin embargo, no está claro
qué grado de “esencialidad” tienen estos componentes de las matrices (cf. 1962-1970,
pp. 151-152).

Valores

Los valores son el conjunto de criterios axiológicos que emplea la comunidad al


evaluar su propia actividad. Los más destacados son los relativos a la no vaguedad de las
predicciones, el margen de error admisible de las observaciones respecto de las prediccio­
nes, la fecundidad, coherencia y simplicidad del aparato teórico y la compatibilidad con
otras teorías aceptadas. A veces también se contemplan otros más externos relacionados,
por ejemplo, con la utilidad de la ciencia o su función social. Los valores operan también
en la ciencia normal, pero juegan su principal papel en el surgimiento de las crisis y en su
resolución, en la elección de paradigmas alternativos. Generalmente estos valores son
compartidos por varias comunidades dentro de una misma disciplina, pero no por ello tie­
nen siempre el mismo efecto. Puesto que su aplicación conjunta produce conflictos al no
ser plenamente compatibles entre sí, es forzoso a veces conceder más importancia a unos
que a otros, y diferentes comunidades, o la misma en momentos diferentes, pueden ha­
cerlo de diferente modo. Ésta es una de las razones por las que no hay un procedimiento
mecánico que nos diga cuándo un paradigma debe ser abandonado, se le debe retirar la
confianza, o qué elección hacer entre paradigmas alternativos. Nótese que, en las revolu­
ciones, una opción, el viejo paradigma, está muy desarrollada y otra, el nuevo, poco, por
lo que no está claro cómo contrapesar los resultados de las exigencias que impone el mis­
mo grupo de valores. Si concedemos mucha importancia a la fecundidad, el nuevo para­
digma incipiente sale de momento perdiendo, pero si se la concedemos a la resolución de
problemas recalcitrantes, saldrá ganando. El proceso de decisión de acuerdo con esos va­
lores no es pues automático o mecanizable, y a veces puede depender esencialmente de
otros elementos externos a la actividad científica, elementos de carácter social, o econó­
mico, o incluso político o ideológico.
316 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

E jem plares

Éste es el componente más importante, junto con las generalizaciones simbólicas,


de la matriz. A él se refiere el otro sentido de ‘paradigma’ anunciado, sentido que motiva
originalmente la introducción del término. Los ahora llamados ‘ejemplares’ son paradig­
mas en sentido etimológico: casos que hacen de modelo, ejemplos modélicos. Los ejem­
plares son aplicaciones empíricas específicas del aparato formal que sirven de modelo o
guía para el trabajo de resolución de rompecabezas, para otras aplicaciones; son las “par­
tes de la realidad” a las que típicamente se aplica el formalismo. Pueden ser logros espe­
cialmente importantes de la teoría, como la aplicación al sistema solar de la mecánica
newtoniana, o la aplicación al cometa Halley de esa misma teoría, o la aplicación al pe-
rihelio de Mercurio de la mecánica relativista, etc. Otros son ejemplos-tipo, típicos, para
su aplicación, como una experiencia de laboratorio con un plano inclinado, o un proble­
ma-resuelto de un libro de texto. A ellos se refiere Kuhn en La E structura cuando afirma
que los paradigmas son “realizaciones científicas universalmente reconocidas que, duran­
te cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad cien­
tífica” (p. ix).
Mediante los ejemplares se ven situaciones nuevas como semejantes a otras ante­
riores bien establecidas. Se ven fenómenos diferentes de modo similar, como casos de
aplicación de una misma ley; por ejemplo se puede ver el movimiento de un péndulo
como semejante, con ciertas idealizaciones, al de una bola moviéndose en un doble plano
inclinado, o puede verse, como propusieron los copernicanos tras el descubrimiento de las
lunas de Júpiter, el sistema Sol-planetas como semejante al sistema Júpiter-lunas. Tam­
bién aquí no todos estos elementos son considerados igualmente esenciales, no todos los
casos de aplicación son igualmente importantes, de entre ellos sólo algunos son conside­
rados p a rad ig m á tico s. Al hacer de modelos-paradigmas para la resolución de enigmas,
los ejemplares guían, junto con las leyes paradigmáticas, la investigación normal, el desa­
rrollo de la matriz disciplinar. En gran medida, la ciencia normal consiste en ir ampliando
con éxito el ámbito de situaciones semejantes a los ejemplares, intento que obliga gene­
ralmente a alguna modificación de las leyes más específicas (no paradigmáticas).
Al presentar el primer elemento de las matrices, las generalizaciones simbólicas,
vimos que Kuhn enfatiza que por sí solas son simples componentes de un formalismo
abstracto vacío de contenido empírico. Pues bien, según Kuhn es justamente a través de
los ejemplares como, al menos en parte, se cargan de contenido empírico los términos
de las generalizaciones que constituyen el formalismo abstracto. Con los ejemplares se
aprende cómo el aparato conceptual se aplica a la naturaleza y, en consecuencia, parte de
su significado. Los ejemplares desempeñan ahora (al menos parte de) el papel de las anti­
guas reglas de correspondencia. En la sección en que se ocupa de la conexión de la teoría
con la experiencia, Kuhn afirma explícitamente que la “habilidad adquirida para ver se­
mejanzas entre problemas aparentemente dispares desempeña en las ciencias una parte
importante del papel atribuido corrientemente a las reglas de correspondencia” (1970c,
§IV); a esta idea se refería Hempel cuando, como mencionamos en el capítulo anterior,
señala a Kuhn como una de las fuentes de sus nuevas tesis sobre el modo en que los tér­
ANÁLISIS SINCRÓNICO DE TEORÍAS II 317

minos teóricos se cargan de contenido empírico. Por otro lado, los ejemplares no son e x ­
p erien cia s p u ra s, descripciones neutras de la naturaleza. Son ejemplares dentro de un pa­
radigma y están en parte ya conceptualizados. Ello hace que, al cambiar el paradigma,
con todos sus componentes, cambie, según Kuhn, al menos parte del significado de los
términos y a su vez el modo-de-ver-guiado-por-ejemplares las cosas. Las “mismas” situa­
ciones se ven de modo diferente y quienes mantienen paradigmas diferentes viven, en
cierto sentido, en mundos diferentes. Éste es el origen del fenómeno de la inco n m en su ra­
b ilid a d que en opinión de Kuhn acompaña los cambios revolucionarios.

Esta nueva concepción de los constructos teóricos tiene importantes consecuen­


cias para las más importantes cuestiones epistemológicas y semánticas de la filosofía de
la ciencia, como el ya mencionado de la inconmesurabilidad, o los del relativismo, la ra­
cionalidad, el significado de los términos científicos, la confirmación y la falsación, etc.
Por ahora nos limitamos a los elementos fundamentales de las matrices disciplinares y
más adelante, cuando tratemos algunas de estas cuestiones, volveremos sobre el resto de
las tesis kuhnianas (cf. especialmente cap. 12, §5, sobre sus consecuencias para el proble­
ma de la inmunidad y cap. 13, §4, §5 para las relativas a la inconmensurabilidad). Para
concluir comentaremos brevemente un problema de ambigüedad relativo al término ‘ma­
triz disciplinar’. Kuhn afirma que introduce dicho término en sustitución del equívoco
‘paradigma’ usado en La E structura de las R evoluciones C ientíficas, y que mediante él se
quiere referir al conjunto de supuestos compartidos por los miembros de una comunidad
científica. Estos supuestos son los supuestos de los cuatro tipos que acabamos de exami­
nar, pero lo que no está claro es si la matriz disciplinar incluye todos los supuestos de
cada tipo o sólo los p a ra d ig m á tic o s ; o limitándonos a los dos que más centrarán nuestra
atención, no está claro si las matrices incluyen todas las leyes y todos los ejemplares o
sólo las leyes programáticas generales y los ejemplares paradigmáticos.
Esta cuestión es en parte sólo nominal. Kuhn afirma que su intención era captar lo
que tradicionalmente se ha denominado ‘teoría’, pero que no usa este término porque tal
como de hecho lo emplean los científicos “connota estructuras mucho más limitadas en na­
turaleza y alcance que las requeridas [...]; para los presentes propósitos sugiero ‘matriz
disciplinar’: ‘disciplinar’ porque se refiere a la posesión común de los practicantes de una
disciplina; ‘matriz’ porque está compuesta de elementos ordenados de varios tipos”
(1962-1970, p. 150). No aclara sin embargo si la matriz incluye todos los elementos de
cada tipo o sólo algunos, y cuando usa el término unas veces parece referirse a todos y
otras sólo a los paradigmáticos. En principio, sus numerosas referencias al “conjunto total
de supuestos compartidos” parecen sugerir que incluye todos, pero en realidad ello no es
inmediato pues depende de qué se entienda por ‘comunidad científica’. Si la comunidad
científica es el conjunto de científicos que trabajan en una teoría en un m om ento dado, en­
tonces la matriz incluye todos los supuestos com partidos en ese estadio de la teoría. Pero si
la comunidad es el conjunto de los científicos que trabajan en la teoría en toda su historia ,
entonces la matriz incluye todos los supuestos com partidos a lo largo de toda la historia de
la teoría , que serán sólo los paradigmáticos pues, como veremos (cf. cap. 13), éstos son los
que se preservan a lo largo de la historia de la teoría. La presente ambigüedad no es, pues,
318 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

sino consecuencia de la ambigüedad entre los sentidos sincrónico y diacrónico de ‘teoría’ o


‘matriz disciplinar’. Desde una perspectiva sincrónica, la matriz disciplinar incluye todos
los elementos compartidos en un momento dado; desde la perspectiva diacrónica, incluye
sólo los que perduran durante la historia de la teoría. Una vez esto queda claro, qué pala­
bras usemos es lo de menos. Cuando en adelante usemos esta expresión, el contexto aclara­
rá el sentido en que se hace, en caso contrario lo aclararemos explícitamente.

3. Los program as de investigación de Lakatos

Lakatos, inicialmente discípulo de Popper, reacciona contra él llegando a puntos de


vista similares a los de Kuhn y Feyerabend aunque sin caer, al menos eso pretende, en algu­
nas tesis extremas de éstos, sobre todo las relativas a la racionalidad científica, que considera
inaceptables, desde una perspectiva popperiana general que comparte. Lakatos lleva a cabo la
revisión del falsacionismo de Popper en una serie de estudios sobre lo que denomina la m eto­
dología de los program as de investigación científica. Estos trabajos iban a concluir con una
extensa monografía titulada, en referencia directa a la obra de Popper, The Changing Logic o f
Scientific D iscovery , proyecto que quedó truncado al morir su autor. Una de las finalidades
de esta obra era desarrollar la estructura final de los program as de investigación , noción con
la que Lakatos pretendía recoger lo que consideraba fundamental de los constructos teóricos.
Al quedar el proyecto sin conclusión, sólo disponemos, como fuente de sus ideas sobre la es­
tructura de los programas de investigación, de sus primeros trabajos (especialmente 1968¿> y
1970). El propio Lakatos los considera muy insuficientes y provisionales, pero contienen ya
algunos elementos de interés para nuestro actual tema. Veremos aquí muy brevemente las
principales contribuciones, que casi siempre están sólo esbozadas.
Lakatos parte de las observaciones de Popper sobre el cono cim ien to de fo n d o y la
contrastación y las lleva a sus últimas consecuencias. Lo que se evalúa en la contrasta-
ción, dice, no es una teoría comparada con los hechos sino un conjunto de (mini)teorías,
de diferente estatus metodológico, comparadas entre sí; “el conflicto no es entre ‘teorías y
hechos’, sino entre una teoría interpretativa que provee de hechos y una teoría exp lica ti­
va que los explica [...], no se trata de que nosotros propongamos una teoría y la Naturale­
za pueda gritar n o , sino que nosotros proponemos una red de teorías y la Naturaleza pue­
de gritar i n c o n s i s t e n t e s ” (1970, p. 130). E ste conflicto se intenta resolver modificando
algunos elementos de la red y se genera así una sucesión de teorías-redes ligadas por “una
notable continuidad”. Esta serie o sucesión de teorías es lo que Lakatos llama un ‘progra­
ma de investigación’ que, como reconoce explícitamente, tiene fuertes reminiscencias de
la ciencia normal de Kuhn.
Lakatos presenta los elementos constituyentes de los programas de investigación
en el contexto de las heurísticas que caracterizan la metodología de los programas. Todos
los programas tienen un núcleo que los vertebra y les confiere unidad. Este núcleo lleva
asociada una heurística que determina dos tipos de reglas metodológicas: unas nos dicen
qué senderos de investigación hemos de evitar, h eurística n eg a tiva , y otras qué senderos
hemos de seguir, h eurística p o sitiv a . La heurística negativa prohíbe, p o r decisión, aplicar
ANÁLISIS SINCRÓNICO DE TEORÍAS II 319

la refutación al núcleo, para lo cual se debe articular un cinturón p ro tec to r de hipótesis


auxiliares o complementarias que sí se consideran modificables. La heurística positiva su­
giere cómo modificar y desarrollar esta parte “refutable” del programa. Éstas son las lí­
neas maestras de la nueva metodología de Lakatos, contenida sucintamente en el siguien­
te pasaje:
“Todos los programas de investigación científica se pueden caracterizar por
su ‘núcleo’. La heurística negativa del programa nos prohíbe dirigir el m odus tollens a
este ‘núcleo’. En lugar de ello debemos emplear nuestro ingenio en articular o incluso in­
ventar ‘hipótesis auxiliares’ que conformen un cinturón p ro tecto r en torno a ese núcleo, y
es a éstas a quienes debemos dirigir el m odus tollens. Es ese cinturón protector de hipóte­
sis auxiliares quien tiene que resistir el peso de las contrastaciones e irse ajustando y rea­
justando, o incluso ser sustituido por completo, para defender al núcleo, que de ese modo
se hace más sólido. [...] Este núcleo es ‘irrefutable’ por decisión metodológica de sus pro­
tagonistas: las anomalías sólo deben llevar a cambios en el cinturón protector. [...] La
heurística negativa especifica el núcleo del programa que es ‘irrefutable’ por decisión me­
todológica; la heurística positiva consiste en un conjunto parcialmente articulado de suge­
rencias o indicaciones sobre cómo cambiar y desarrollar las ‘variantes refutables’ del pro­
grama de investigación, cómo modificar, sofisticar, el cinturón ‘refutable’ de protección”
(1970, §3a-¿).
El resultado de aplicar esta metodología constituye la evolución de una teoría
científica; en términos de Lakatos, se trata de una sucesión de diferentes versiones del
mismo programa, esto es, en torno a un mismo núcleo. Como se habrá advertido, esta
imagen es similar a la evolución de un paradigma kuhniano. Lakatos ofrece además una
tipología de los programas de investigación en función de su mayor o menor “éxito”. Un
programa es p ro g resivo si (entre otras cosas en las que no podemos detenernos ahora)
predice hechos que se constatan después, y es, o está, estancado si sólo “postdice”, esto
es, si sólo ofrece explicaciones a d hoc de hechos (para él) inesperados. Esto exige dos
cualificaciones. En primer lugar, el juicio requiere cierta perspectiva histórica, esto es, a
los programas incipientes es racional “concederles cierto tiempo”. Por otro lado, e incluso
garantizada la perspectiva histórica, las cosas no siempre están tan claras, los casos men­
cionados son más bien idealizaciones y hay numerosos casos intermedios. Como es usual
en los filósofos de esta orientación, Lakatos ilustra su nueva concepción con un detallado
estudio histórico, en este caso del programa de investigación de Prout centrado en la idea
de que todos los átomos están compuestos de átomos de hidrógeno, y del programa de in­
vestigación de Bohr centrado en la tesis de que la emisión de luz se debe al salto de órbita
de los electrones en el interior del átomo. Es importante señalar que esta tipología ideali­
zada de programas no debe tomarse como un criterio cuasiformal de sustitución: nada
obliga, y por supuesto la lógica más “los hechos” tampoco, a abandonar un programa es­
tancado, aunque sólo sea porque siempre es posible su “resurrección”, esto es, de todo
programa estancado siempre es en principio posible que se convierta de nuevo en uno
progresivo.
Esta perspectiva, bastante kuhniana en general, se distancia de la del autor de L a
E structura en algunos puntos, especialmente los que tienen que ver con los problemas de
320 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

la inconmensurabilidad y la racionalidad de la ciencia y en los que no podemos detener­


nos ahora. Por lo que respecta a la estructura de las teorías, la diferencia más señalada,
aparte de la extrema imprecisión de las nociones de núcleo y cinturón p r o te c to r , tiene que
ver con el “alcance” o “dimensión” de los programas de investigación.
En Kuhn está (aproximadamente) claro que los paradigmas-matrices se identifi­
can, diacrónicamente, con teorías a lo largo de la historia. La astronomía geocéntrica
constituye un paradigma, la heliocéntrica otro diferente; la mecánica desde Newton a La-
grange constituye un paradigma, la mecánica relativista otro diferente; la química del fio-
gisto constituye un paradigma, la química del oxígeno otro diferente; etc. Sin embargo, y
quizá como consecuencia de la mencionada imprecisión, no está claro en Lakatos cuáles
son los límites de los programas de investigación. En general parece que engloban, como
en Kuhn, sólo teorías extendidas en el tiempo; así se refiere, por ejemplo, “al programa de
Newton”. Pero en ocasiones habla como si varias de esas teorías pudieran constituir una
única tradición, que se identificaría entonces con toda una disciplina. En ausencia de ma­
yores precisiones, no es posible entonces distinguir claramente entre a) el paso de una
versión a otra de la misma teoría, y b ) el paso de una teoría a otra. Estos dos fenómenos
diacrónicos son p rim a fa c ie esencialmente diferentes (como veremos con detenimiento en
el capítulo 13) y poder dar cuenta de esta diferencia depende de cómo se caractericen los
constructos teóricos en su dimensión sincrónica. Probablemente Lakatos no consideraba
que la diferencia de la que se debe dar cuenta sea nítida, pues incluso llega a afirmar que
“la ciencia como un todo puede considerarse un inmenso programa de investigación”
(,ibid ., §3). Pero entonces la imprecisión de sus nociones centrales, p ro g ra m a de in vesti­
gación, núcleo y cinturón p ro tec to r , es deliberada y no se ve claramente cómo es cohe­
rente con la aplicación histórica que realiza sobre casos concretos. Seguramente esta
cuestión era una de las que quería clarificar en la monografía que preparaba y que no
pudo concluir.4

4. Las tradiciones de investigación de Laudan

Laudan no pertenece generacionalmente al grupo de los nuevos filósofos de la


ciencia, pero su obra, bastante posterior, presenta grandes afinidades, tanto en intereses
como en contenidos, con la de aquéllos. Desde finales de los años setenta, Laudan publi­
ca una serie de estudios donde revisa las principales tesis acerca de la naturaleza de los
constructos teóricos, los valores que rigen la actividad científica y la noción de progreso
adecuada a ellos. Como en el caso de Kuhn, el ámbito de estudio es extraordinariamente
amplio, somete a revisión crítica prácticamente todas las cuestiones centrales de la filoso­
fía de la ciencia. En relación a nuestro actual tema, el concepto básico que articula su
concepción de los constructos teóricos es el de tradición de investig a ció n , presentado por
primera vez de forma sistemática en su monografía de 1977. Aunque, como los paradig­
mas de Kuhn, estas entidades se caracterizan diacrónicamente, nos centraremos ahora en
los aspectos sincrónicos que tal caracterización diacrónica presupone.
Laudan presenta la noción de tradición d e investigación en relación explícita con
ANÁLISIS SINCRÓNICO DE TEORÍAS II 321

los paradigmas de Kuhn y los programas de investigación de Lakatos, intentando preser-


var lo que considera adecuado de ellos y modificando los aspectos que considera insatis­
factorios (cf. Laudan, 1977, cap, 3). Laudan comienza distinguiendo dos sentidos del tér­
mino ‘teoría científica’, dos tipos de “redes preposicionales”. En primer lugar, el término
puede denotar un conjunto relativamente específico de doctrinas, leyes, hipótesis o princi­
pios relacionados, que se usan para hacer predicciones experimentales y ofrecer explica­
ciones de fenómenos naturales. Ejemplos de ello son la teoría newtoniana de la luz, el
electromagnetismo de Maxwell, la teoría de la estructura atómica de Bohr, la del efecto
fotoeléctrico de Einstein o la de la plusvalía de Marx. Además de este sentido, el término
se usa también para referirse a conjuntos de doctrinas o supuestos “mucho más generales
y mucho menos fácilmente corroborables empíricamente” (p. 71). Ejemplos de ello son la
teoría de la evolución, la teoría atómica o la teoría cinética de los gases. Aunque no siem­
pre es claro al respecto, parece que las teorías en este segundo sentido consisten, al me­
nos, en familias enteras de teorías en el primer sentido vinculadas por principios metodo­
lógicos u ontológicos muy generales. Kuhn y Lakatos, afirma, han mostrado que son las
teorías en el segundo sentido las unidades en que se debe centrar el estudio de la actividad
científica, la “herramienta primaria para la comprensión y valoración del progreso cientí­
fico [.... yo] comparto esa opinión, pero encuentro que las explicaciones dadas hasta aho­
ra de lo que son estas teorías más amplias y de cómo evolucionan, no son completamente
satisfactorias” (p. 72). De estas teorías generales, en el segundo sentido del término, es de
lo que pretende dar cuenta su noción de tradición de investigación. Veamos, sin detener­
nos en las críticas específicas que hace a Kuhn y Lakatos, cuáles son los principales ele­
mentos que caracterizan a estas tradiciones de investigación.

Supuestos com partidos

Las tradiciones constan de dos tipos de supuestos generales, que individualizan


una tradición dada y la distingue de otras:

(i) C om prom isos m etafísicos. Conjunto de creencias acerca de qué tipos de en­
tidades y procesos constituyen el dominio de investigación; por ejemplo, en física, las
creencias asociadas a las teorías atomistas, o contrariamente, las asociadas a las teorías de
campos.
(ii) N o rm a s epistém icas y m etodológicas. Normas acerca de cómo tiene que
investigarse el dominio, cuál es el conocimiento de fondo intocable, cómo han de some­
terse a prueba las hipótesis, cómo han de recogerse los datos, cómo han de evaluarse la
solución a los problemas, etc.

Conjuntamente, los compromisos metafísicos y las normas epistémicas y metodo­


lógicas proporcionan a la tradición una h eu rística , orientaciones para la investigación, y
una a xiolog ía , normas de evaluación.
322 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

A r tic u la c ió n teó rica

Las tradiciones poseen un cierto número de teorías esp ecíficas aso cia d a s que las
ejemplifican y las constituyen parcialmente. Son los elementos empíricamente contrasta-
bles de la tradición, el “lugar” donde se contrasta la tradición con la experiencia.

R esolución de p ro b lem a s

La finalidad principal de las tradiciones, en relación a la cual se evalúan global­


mente, es la resolución de p ro b lem a s . Los problemas son de dos tipos:

(i) P ro b lem a s em píricos. Derivados de la aplicación de las teorías específicas


al dominio empírico de investigación. Estos problemas pueden ser (estar): resu elto s , los
casos de aplicación al dominio empírico exitosos según los estándares de la tradición; p o ­
tenciales , los casos de aplicación que la tradición considera que deben resolverse, pero to­
davía no resueltos por la tradición en cuestión ni por ninguna otra; a n ó m a lo s , los casos de
aplicación que la tradición considera que deben resolverse, que ella todavía no ha resuelto
y que han sido resueltos en otra tradición alternativa.
(ii) P ro b lem a s conceptuales. Relativos a la estructuración conceptual de algu­
na teoría específica. Se dan en los siguientes casos: cuando la teoría es inconsistente;
cuando contiene supuestos inaceptablemente ambiguos; cuando algunas de sus hipótesis
contravienen otras teorías específicas, o los supuestos metafísicos predominantes; cuando
sus afirmaciones no proceden según las doctrinas metodológicas y epistemológicas; cuan­
do no acierta a integrar conceptos y principios de teorías más generales a las que está su­
bordinada.

D esarrollo histó rico

Las tradiciones discurren en el tiempo a través de un cierto número de formulacio­


nes. Estas formulaciones son la respuesta en un momento específico a la evaluación nega­
tiva sobre la solución dada a alguno o varios de los problemas. El modo más usual en que
cambia una tradición es modificando sus teorías específicas, pero ocasionalmente puede
cambiar alguno de sus elementos nucleares más básicos.

C oexistencia

Las tradiciones no son “dominantes”, no se imponen por períodos. En cierto mo­


mento dado, en contra de lo que sugiere Kuhn, la coexistencia de tradiciones de investiga­
ción rivales es la regla, y no la excepción.

Estos son los rasgos más generales de las tradiciones de investigación según Lau­
dan, que como se habrá apreciado tienen mucho en común con los paradigmas kuhnianos
y los programas de investigación de Lakatos. Como hemos indicado, sin embargo, aun­
ANÁLISIS SINCRÓNICO DE TEORÍAS II 323

que esté de acuerdo con la idea general, Laudan discrepa en aspectos que considera cen­
trales. Esto se pone de manifiesto en el desarrollo específico de algunos de estos rasgos
generales. Concluiremos comentando brevemente algunos de los elementos más proble­
máticos en el desarrollo de su programa.
En primer lugar, no está muy definido el “tamaño” de las entidades involucradas,
tradiciones de investigación y teorías específicas. Los ejemplos que da de tradiciones,
como la teoría de la evolución o la teoría cinética de los gases, sugieren entidades como
las matrices kuhnianas, esto es, teorías científicas a lo largo de su historia. Pero la carac­
terización general que da parece más bien sugerir grandes orientaciones científicas de una
época (quizá coexistiendo y rivalizando), como el mecanicismo o el vitalismo, que pue­
den incluir varias matrices disciplinares en una época. Esta fluctuación es pareja a la que
se da en las teorías específicas. Algunas veces parece que se trata de leyes bastante espe­
cíficas, del tipo de la ley de caída libre de Galileo, la de gravitación de Newton, o la de
gases ideales. Otras veces parece que se refiere a agregados de tales leyes, como el elec­
tromagnetismo de Maxwell o la teoría atómica de Bohr. Seguramente la vaguedad es in­
tencionada y se pretende que puede haber diversas dimensiones en ambos tipos de entida­
des. El problema es cómo caracterizarlas para que la diferencia entre las más grandes de
las teorías específicas y las más pequeñas de las tradiciones de investigación, no sea sólo
de grado; ello representa un problema en la medida en que Laudan parece requerir que la
diferencia entre teorías y tradiciones sea nítida.
En segundo lugar, y relacionado con lo anterior, no está claro si hay alguna rela­
ción formal, y si la hay cuál es, entre tradiciones y teorías específicas. Por un lado, no se
clarifica si, como decía Kuhn, de los supuestos generales puede formar parte alguna ex­
presión legaliforme, alguna ley especialmente general que funciona cuasi-definicional-
mente y de la cual las leyes específicas son concreciones. Quizá se pudieran incluir cosas
de este tipo en los compromisos metafísicos generales, pero Laudan no dice si es así ni,
caso de que lo sea, cómo se diferenciarían estos compromisos de los otros. Por otro lado,
afirma que la relación entre tradiciones y teorías específicas no es de implicación, las tra­
diciones no implican sus teorías constitutivas. Al argumentar este punto, enfatiza el hecho
de que las tradiciones pueden contener, y usualmente contienen, teorías específicas in­
compatibles (si teorías incompatibles fuesen implicadas por la tradición a la que pertene­
cen, las tradiciones serían simplemente inconsistentes). El caso más claro es el de teorías
específicas sucesivas en la misma tradición, que se contradicen mutuamente; recuérdese
que las teorías específicas hacen afirmaciones empíricas específicas, y por tanto si una da
cuenta de un problema del que su versión anterior en la tradición no podía dar cuenta
(anomalía), ambas versiones específicas sucesivas son inconsistentes. Pero también abun­
dan, según Laudan, los casos en que teorías incompatibles coexisten en la tradición en el
m ism o período, como las teorías ópticas rivales de la tradición cartesiana que defendían,
respectivamente, el aumento o disminución de la velocidad de la luz en función de la den­
sidad del medio. Se supone que entonces tenemos uno de los problemas conceptuales a
que antes nos referíamos, pero una cosa es que se den a veces problemas de este tipo, y
otra que se den tan usualmente y tan drásticamente como Laudan parece sugerir.
Por último, como hemos mencionado más arriba, a veces en la evolución de la
324 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

tradición pueden modificarse algunos de los supuestos básicos. Eso es en principio sor­
prendente dentro de su propio enfoque, pues Laudan sostiene a la vez que tales supues­
tos básicos identifican la tradición, por lo que parece que pueden perder (al menos parte
de) su identidad y seguir siendo ellas mismas (!). Una vez más, este efecto es querido
por Laudan, que discrepa en este punto de Kuhn y Lakatos sobre la persistencia de la
esencia o núcleo a lo largo de la tradición. La esencia, afirma, está relativizada respecto
al tiempo. El núcleo muy raramente permanece constante a lo largo de toda la evolución
de la tradición: “difícilmente hay un conjunto interesante de doctrinas que caracterice
las tradiciones de investigación a lo largo de toda su historia” (op. cit., cap. 3, §6). Es
cierto que existe una continuidad, pero se trata de una “continuidad rela tiva entre etapas
su cesiva s del proceso evolutivo” (ibid.). Es importante enfatizar que, aun restringida a
estadios sucesivos, la continuidad debe ser sólo aproximada, no absoluta, en cada paso
se pueden modificar parte de los supuestos básicos; si en cada paso se debieran conser­
var todos los supuestos básicos, entonces en el conjunto del proceso se seguirían con­
servando.
Pero si parte de la esencia se puede abandonar, la pregunta que surge inmediata­
mente es, ¿qué y cuánto se puede cambiar del núcleo sin abandonar la tradición?, ¿qué
distingue a) el paso de un estadio a otro de la misma tradición de b ) el paso del estadio
terminal de una tradición al inicial de otra tradición nueva diferente?: “Una respuesta par­
cial a esta pregunta proviene del reconocimiento de que, en cu a lq u ier m o m en to d a d o , de­
terminados elementos de una tradición de investigación son más medulares y están más
alojados en la tradición de investigación que otros. [...] Ciertos elementos son sagrados y
no pueden rechazarse sin repudiar la tradición misma. Pero, a diferencia de Lakatos, quie­
ro insistir en que el conjunto de elem entos de esta clase (los irrechazables) cam bia con el
tiem po ” (ibid.). Pero esto no parece ser una respuesta ni siquiera parcial, pues si el con­
junto de elementos irrechazables cambia con el tiempo, ¿en virtud de qué dos conjuntos
diferentes sucesivos se consideran correspondientes a la misma tradición o tradiciones su­
cesivas diferentes?
Sólo hay dos modos en que, como pretende Laudan, pueda no conservarse nada
en el transcurso de una tradición. Uno es que en cada paso no haya un conjunto bien defi­
nido de elementos irrechazables, pudiendo ser rechazado cualquiera de ellos mientras se
preserve la inmensa mayoría; así, tras una serie de pasos puede que no permanezca ningu­
no de los originales. Otro es que sí haya un conjunto bien definido de elementos irrecha­
zables, pero que ese conjunto cambie parcialmente en cada estadio; también así puede
que tras varios pasos no permanezca ninguno de los elementos originales. Pero si no se
dice nada más, en ambos casos no está clara la diferencia entre el cambio en una tradición
y el cambio de tradición. Quizá sea sólo una cuestión de grado, o de convención en la re­
construcción histórica. Pero si no se aceptan estas consecuencias, la única posibilidad es
que haya a lg o que se mantenga a lo largo de toda la tradición y cuyo cambio sea precisa­
mente el indicio de un cambio de tradición. Esto es, que las teorías científicas, aun cuan­
do cambien en el tiempo, tengan un núcleo persistente.
ANÁLISIS SINCRÓNICO DE TEORÍAS II 325

5. Consideraciones finales

La incidencia de los n uevos filó s o fo s de la ciencia, y otros afines, en nuestra disci­


plina fue decisiva. La irrupción de la perspectiva historicista que en general les caracteri­
za marca definitivamente el desarrollo de la reflexión metacientífica posterior. La influen­
cia más determinante afecta quizá a cuestiones como la importancia de los estudios histó­
ricos y de los determinantes sociales, la cuestión de la carga teórica de los hechos y el
problema de la inconmensurabilidad, los problemas del progreso y la racionalidad en la
ciencia, o del relativismo. Sin embargo, a la mayoría de sus tesis subyace, sin implicarlas
estrictamente, una nueva visión de la naturaleza y estructura de las teorías científicas, más
ajustada a la realidad y más fiel a las teorías tal como la historia nos las presenta. En
nuestra opinión, y sin desmerecer sus otras aportaciones, es en esta nueva noción, aunque
muy imprecisa, de teoría empírica donde radica su mayor contribución a la disciplina.
Desde la perspectiva actual, los principales rasgos de esta nueva noción de teoría que está
emergiendo son los siguientes. Las teorías en sentido sincrónico:

1. Son entidades sumamente complejas y dúctiles, susceptibles de evolucionar


en el tiempo sin perder su identidad. Aunque la idea de que las teorías son entidades que
se extienden en el tiempo a través de diferentes estadios no es un descubrimiento de estos
filósofos, sí fueron los primeros en dar a ese hecho todo su valor.
2. No son enunciados o secuencias de enunciados y en un sentido propio no pue­
den calificarse de verdaderas o falsas, aunque con ellas sí se realizan afirmaciones empíri­
cas verdaderas o falsas.
3. Tienen, al menos, un componente formal, las leyes o hipótesis, y otro empíri­
co o aplicativo, los sistemas a que se pretenden aplicar.
4. Cierta parte de cada uno de estos componentes se considera intocable por
decisión metodológica (núcleo). Las teorías tienen pues partes “esenciales” y partes “ac­
cidentales”, en ello radica su ductilidad. El aparato formal se articula en niveles progresi­
vamente cada vez más específicos, que dan cuenta de situaciones empíricas también espe­
cíficas. A veces se denomina ‘teoría’, en un sentido más restrictivo, a estos desarrollos
concretos del formalismo (p.ej., la teoría de la gravitación).
5. Tienen diversos niveles de empiricidad. Parte de la teoría conceptualiza los
hechos y parte explica, y se contrasta con, lo así conceptualizado.
6. Es la parte específica, “accidental”, del formalismo la que recibe el peso de la
contrastación. Ante una contrastación negativa, el núcleo siempre se puede salvaguardar
modificando los elementos no nucleares.
7. Llevan asociadas normas, valores, o simplemente indicaciones metodológicas
y evaluativas, algunas de ellas fuertemente dependientes del contexto socio-histórico.

La principal deficiencia de esta nueva caracterización es su imprecisión, en oca­


siones tan extrema que termina por difuminar casi totalmente lo que parecen intuiciones
correctas. El principal motivo de los positivistas para desarrollar una filosofía formal de
la ciencia era justamente eludir el discurso metacientífico vago e impreciso. Y gran parte
326 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

de las polémicas que surgen tras la irrupción de los nuevos filósofos son generadas por la
imprecisión y equivocidad de algunas de sus nociones centrales. La mayoría de los filóso­
fos de la ciencia sensibles a esta nueva perspectiva concluyeron que la complejidad y ri­
queza de los elementos involucrados en ella escapa a cualquier intento de formalización.
No sólo las formalizaciones al estilo de la Concepción Heredada son totalmente inadecua­
das para expresar estas entidades en toda su complejidad, sino que no parece razonable
esperar que cualquier otro procedimiento de análisis formal pueda capturar los elementos
mínimos de esta nueva caracterización. Ésta es la moraleja antiformalista que se extendió
en muchos ambientes metacientíficos tras la revuelta historicista. Como vamos a ver en
el próximo capítulo, no en todos. Tras la digestión de los primeros efectos antiformalistas,
algunas de las corrientes más recientes en filosofía de la ciencia muestran que al menos
parte de los nuevos elementos señalados, los más estructurales, son susceptibles de un ra­
zonable análisis y reconstrucción formales.
C a p ít u l o 10

ANÁLISIS SINCRÓNICO DE TEORÍAS III.


LAS CONCEPCIONES SEMÁNTICAS:
LAS TEORÍAS COMO ENTIDADES MODELOTEÓRICAS

El efecto de la irrupción historicista durante los años sesenta y principios de los


setenta fue doble. Por un lado, a su estela se desarrolla toda una rama de los Science stu-
dies (con importantes, aunque puntuales, antecedentes antes de los años sesenta) que se
centra en el estudio de los determinantes sociales de la ciencia apoyándose en una consi­
derable investigación empírica. Esta línea de investigación culmina con el asentamiento
durante los años ochenta de la sociología de la ciencia como disciplina. Aunque desde
este ámbito se han hecho numerosas incursiones en la filosofía de la ciencia, su importan­
cia para el tema actual, la estructura de las teorías, es escasa, pues sus propuestas son sólo
negativas, más bien nihilistas: en la práctica científica no existen en realidad entidades
identificares que quepa caracterizar, en ningún sentido del término mínimamente preciso
y útil para la comprensión de la actividad científica, como “teorías científicas”. No vamos
a detenernos aquí en estas tesis.
Por otro lado, asimiladas las contribuciones incuestionables de los historicistas y
expurgados sus principales excesos, se recupera durante los años setenta la confianza en
la viabilidad de los análisis formales o semiformales de la ciencia, al menos en algunos de
sus ámbitos, entre ellos el relativo a la naturaleza de las teorías. A finales de los años se­
tenta y en los ochenta, aunque algunas versiones venían desarrollándose desde bastante
antes, se extiende y acaba imponiéndose en general una nueva caracterización de las teo­
rías científicas que se ha denominado C oncepción S em ántica de las Teorías. En realidad
no se trata de una única concepción sino de una familia de ellas que comparten algunos
elementos generales relativamente unitarios en comparación con las caracterizaciones de
la Concepción Heredada. A esta familia pertenecen Suppes, su pionero en los años cin­
cuenta, y su escuela de Stanford; van Fraassen, Giere y Suppe en EEUU; Dalla Chiara y
Toraldo di Francia en Italia; Przelecki y Wójcicki en Polonia; y la concepción estructura-
lista de las teo ría s , iniciada en EEUU por Sneed y desarrollada en Europa, principalmen­
te, por Stegmüller, Moulines y Balzer.
En este capítulo vamos a presentar, en primer lugar, la motivación principal que,
en relación con el proyecto de la Concepción Heredada, acompaña a este nuevo enfoque,
así como los rasgos más generales comunes a las diferentes versiones del mismo. A conti-
328 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

nuación veremos los orígenes de la concepción modeloteórica en los trabajos fundaciona­


les de Suppes y la contribución esencial de un miembro de su escuela, E. Adams. Des­
pués repasaremos brevemente las principales peculiaridades de cada uno de los enfoques
vinculados a la familia semántica. En relación con el tema que nos ocupa, la naturaleza y
estructura de las teorías, la concepción estructuralista es la que ha desarrollado un aparato
metateórico más rico para el análisis y reconstrucción de las teorías científicas. La última
sección está destinada a presentar con cierto detalle los elementos principales del análisis
estructuralista.

1. Teorías, enunciados y m odelos

El lema de las concepciones semánticas es: “presentar una teoría no es presentar


una clase de axiomas, las teorías no se identifican metateóricamente con conjuntos de
enunciados; presentar una teoría es presentar una clase de modelos, las teorías se identifi­
can metateóricamente como conjuntos de modelos”. Puesto que la noción de modelo es
una noción fundamentalmente semántica, se denomina co n cep ció n sem á n tica a este nue­
vo enfoque que enfatiza la importancia de los modelos en el análisis de la ciencia; contra­
riamente, la concepción clásica es calificada de sin tá ctica por su caracterización de las
teorías como conjuntos de enunciados y por su énfasis general en los aspectos lingüísti­
co- sintácticos, Este lema expresa por tanto el carácter distintivo frente a la concepción
clásica. Pero apreciar en su justa medida cuál es ese carácter distintivo es difícil. Para ello
comenzaremos revisando un aspecto de la concepción sintáctica que es claramente insa­
tisfactorio. El enfoque semántico es en parte un intento de mejorar la concepción clásica
en ese punto.

1 .1 . A x io m a s y m o d e l o s

Para apreciar el elemento insatisfactorio más manifiesto de la concepción sintácti-


co-axiomática es imprescindible tomársela en serio, tomarse en serio la id entificación de
una teoría con una serie de enunciados, los axiomas (ahora no distinguimos entre axio­
mas y reglas de correspondencia, pues esa distinción no afecta a la cuestión que aquí se
trata). Según esta concepción, una teoría es una clase de axiomas, y si nos tomamos eso
en serio ello implica que toda diferencia en axiomas supone una diferencia de teorías.
Puesto que dos axiomatizaciones diferentes son dos diferentes clases de enunciados, tene­
mos dos teorías diferentes. Esta es una consecuencia intuitivamente insatisfactoria, pues
podemos tener dos axiomatizaciones diferentes de, intuitivamente, “la misma teoría”.
Debe quedar claro que nos estamos refiriendo a casos en los que el aparato conceptual en
ambos conjuntos de axiomas es el mismo; en caso contrario las intuiciones no están tan
claras. Por ejemplo, en casos como el de la equivalencia entre las versiones ondulatoria y
matricial de la mecánica cuántica sí cabe decir en un sentido interesante que se trata de
teorías diferentes entre las que se da determinada relación interteórica específica, la de
ANÁLISIS SINCRÓNICO DE TEORÍAS IÍI 329

equivalencia (cf. cap. 11, §4). Pero en los casos a que nos referíamos, cuando ambos con­
juntos de axiomas utilizan el mismo aparato conceptual, parece intuitivamente razonable
considerar que se trata de axiomatizaciones diferentes de una m ism a teo ría , esto es, que
no hay ningún sentido interesante en que quepa hablar de dos teorías. Si eso es así enton­
ces una teoría no puede ser un conjunto de axiomas, no se representa metateóricamente
de forma satisfactoria identificándola con un conjunto tal.
Se dirá que eso es ser demasiado rigurosos, poco caritativos con la concepción
clásica. Después de todo, ya se reconocía que si dos axiomatizaciones diferentes coinci­
den en el conjunto de sus teoremas, se trata en cierto sen tid o , no de dos teorías diferentes
equivalentes sino de dos axiomatizaciones equivalentes de la misma teoría. El problema
es que la caracterización de las teorías que hace esa concepción no es el mejor modo de
expresar ese cierto sentido, no puede expresarlo satisfactoriamente. Quizá se piense que
sí, pues en muchas presentaciones de la concepción clásica se dice que una teoría es el
conjunto de afirmaciones primitivas m ás todas sus consecuencias. Pero, si se mantiene un
papel esencial para los axiomas, eso no resuelve el problema. Incluso si incluimos la refe­
rencia explícita a las consecuencias, dos conjuntos diferentes de axiomas-junto-con-
sus-consecuencias (e.e. <A, C on(A)> y <A', C on(A')> ) siguen siendo entidades diferentes
aunque las consecuencias sean las mismas, pues simplemente los conjuntos de axiomas
son diferentes. La única posibilidad es prescindir totalmente, en la individualización de
las teorías, de la referencia a los axiomas, identificando la teoría simplemente con el con­
junto de las consecuencias. Las teorías serían nombradas por expresiones del tipo ‘el
conjunto de enunciados consecuencias de Ai, ..., A „ \ y dos nombres diferentes, que men­
cionan distintos axiomas, pueden ser nombres de la misma teoría. En este caso la referen­
cia a los axiomas sólo se incluye entonces en el nombre de la teoría, pero en la teoría mis­
ma, esto es en la identidad del conjunto infinito de enunciados, no desempeñan ningún
papel. Sin embargo, así planteada, esta opción se compadece mal, como veremos, con el
axiom aticism o que inspiraba a la Concepción Heredada. En parte, la concepción semánti­
ca consiste en expresar el núcleo de esta idea de un m odo a d ecu a d o , un modo que no
hace desempeñar a los enunciados un papel esencial en la identidad de las teorías. Nótese
que el problema con la Concepción Heredada no es que quiera sostener una idea que nos
parece inadecuada, no es que p reten d a que dos teorías con el mismo vocabulario que “di­
gan lo mismo” sean diferentes; el problema es que en su versión sintáctico-axiomática ex­
presa inadecuadamente una intuición correcta, a saber, que en tales casos se trata de una
única teoría.
El modo en que la concepción semántica va a expresar las intuiciones contenidas
ya en la Concepción Heredada surge de tomarse en serio el hecho de que dos axiomatiza­
ciones diferentes pueden serlo de la misma teoría. ¿Por qué lo son de la misma teoría?
Porque el conjunto total de las cosas que dicen de cierta parcela del mundo es el mis­
mo, porque la manera en que según ambas dicha parcela se comporta es la misma. Lo que
importa de una teoría, lo que la identifica, es lo que dice sobre el comportamiento de de­
terminada parcela de la realidad, no cómo lo dice. Lo esencial es que caracteriza ciertos
trozos de la realidad como comportándose de cierto modo. Esto es, que determina ciertos
modelos. Si dos axiomatizaciones lo son de lo mismo, lo son porque ambas determinan la
330 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

misma clase de modelos o realizaciones. Lo importante es pues qué modelos determina


una teoría, no los recursos lingüísticos que emplea para ello. De ahí el lema de la concep­
ción semántica: presentar una teoría es presentar una clase de modelos, no de axiomas.
Se dirá que no es necesario recurrir a los modelos, que apelando sólo ai conjunto to­
tal de las consecuencias de los axiomas tenemos una vía “sintáctica” equivalente; en lugar
de ‘la clase de modelos que satisfacen Ai..... A,,’ podemos usar igualmente ‘el conjunto de
enunciados consecuencias de A i , A» pues nombran entidades biunívocamente relaciona­
das, a cada conjunto de modelos tales le corresponde un conjunto de enunciados tales, y vi­
ceversa. Pero usar la versión de las consecuencias nos mantiene en el plano sintáctico sólo
aparentemente; ésta es la razón por la que hemos indicado que esta opción se compadece
mal con el espíritu sintacticista propio de la Concepción Heredada. La clave es que apelar a
las consecuencias es apelar implícitamente a los modelos, la noción de consecuencia intro­
duce subrepticiamente la de modelo: un enunciado es consecuencia de otros si todos los
modelos de éstos son modelos de aquél. Por tanto, si queremos expresar la idea de que me­
diante axiomas diferentes podemos capturar la misma teoría, debemos hacer necesariamen­
te referencia, explícita o implícitamente, a los modelos. Si es así, lo mejor y más clarifica­
dor es hacerlo desde el comienzo: una teoría se caracteriza por determinar una clase de
modelos, y su identidad está vinculada a tal clase.
Es importante comprender que esta opción no supone, ni pretende, prescindir de
los enunciados o, en general, de las formulaciones lingüísticas; no pretende que los recur­
sos lingüísticos son superfluos para la caracterización metateórica de las teorías. Por su­
puesto que para determinar o definir una clase de modelos hace falta un lenguaje. Los
modelos, en la medida en que en el análisis metateórico se determinen explícita y precisa­
mente, se determinan dando una serie de axiomas, principios o leyes, esto es, mediante
enunciados. Nadie pretende negar tal cosa. Lo único que se pretende es que los conceptos
relativos a modelos son más provechosos para el análisis filosófico de las teorías científi­
cas, de su naturaleza y funcionamiento, que los relativos a enunciados. Que la naturaleza,
función y estructura de las teorías se comprende mejor cuando su caracterización, análisis
o reconstrucción metateórica se centra en los modelos que determina, no en un particular
conjunto de axiomas o recursos lingüísticos mediante los que lo hace. Efectivamente la
determinación de los modelos se realiza mediante una serie de axiomas, pero la identidad
de la teoría no depende de esa formulación lingüística específica. Si se quiere, las formu­
laciones lingüísticas son esenciales en el sentido (trivial) de ser el medio necesario para la
determinación de los modelos, pero en un sentido verdaderamente importante no lo son,
pues nada en la identidad de una teoría depende de que la formulación lingüística sea una
u otra. Resumiendo: “De acuerdo con la concepción semántica, presentar una teoría es
presentar una familia de modelos. Esta familia puede ser descrita de varios modos, me­
diante enunciados diferentes en lenguajes diferentes, y ninguna formulación lingüística
tiene ningún estatuto privilegiado. Específicamente, no se atribuye ninguna importancia a
la axiomatización como tal, e incluso la teoría puede no ser axiomatizable en ningún sen­
tido no trivial” (van Fraassen, 1989, p. 188).
El enfoque semántico, que enfatiza la referencia explícita a los modelos, más que
a los enunciados, puede parecer una mera revisión del enfoque sintáctico propio de la
ANÁLISIS SINCRÓNICO DE TEORÍAS III 331

Concepción Heredada. Es efectivamente una revisión, pues pretende expresar más ade­
cuadamente una idea ya contenida en ia concepción anterior, aunque insatisfactoriamente
expresada. Pero no es una mera revisión si con ello se quiere sugerir que se trata de una
revisión sin importancia. En cuanto conceptualización más satisfactoria de una idea esen­
cialmente correcta pero insatisfactoriamente conceptualizada con anterioridad, ejemplifi­
ca el tipo de progreso al que se puede aspirar en filosofía. Esta reconceptualización gene­
ra inmediatamente otras subsidiarias vinculadas a la idea central, lo que permite reorientar
algunos problemas que más dificultades habían planteado a la Concepción Heredada.
Uno de ellos será el relativo a la vinculación de los conceptos teóricos con la experiencia.
Como se recordará, la Concepción Heredada sostiene que ese vínculo se establece a tra­
vés de enunciados, las reglas de correspondencia, que conectan términos teóricos con tér­
minos que, pretendidamente, refieren a entidades directamente observables. Esta cuestión
había suscitado todo tipo de problemas y, como vimos, el propio Hempel acaba rechazan­
do la idea de que el vehículo de conexión empírica sea lingüístico. En la perspectiva sin-
tacticista clásica pocas alternativas quedan. Veremos que la referencia a los modelos, ca­
racterística de la concepción semántica, va a permitir dar una nueva orientación a esta
cuestión.

1 .2 . E l e n f o q u e m o d e l o t e ó r ic o

En el parágrafo anterior hemos visto la motivación y justificación del cambio de


estrategia que caracteriza a las concepciones semánticas. En cuanto al desarrollo de esta
estrategia, cada miembro de la familia lo hace de un modo específico, no sólo técnica­
mente sino que también difieren en cuestiones filosóficas fundamentales. No comparten
pues una serie de tesis filosóficas sustantivas, sino un modo y un marco en el que plantear
los problemas filosóficos. Lo mismo ocurre en el seno de la Concepción Heredada, donde
el acuerdo general sobre el enfoque axiomático es compatible con diferencias radicales en
temas filosóficos sustantivos, como el del realismo, la explicación o la causalidad.
A pesar de sus diferencias, las diversas caracterizaciones de la noción de teoría
que se hacen dentro de la familia semántica tienen algunos elementos comunes:1

1. Una teoría se caracteriza en primer lugar, como hemos visto, por determinar
un conjunto de modelos; presentar-identificar una teoría es presentar-identificar la familia
de sus modelos. La determinación de los modelos se realiza mediante una serie de princi­
pios o leyes. Las leyes se deben entender, por tanto, como definiendo una clase de mode­
los: ux es un sistema ... [un modelo de la teoría___] syss^tpC*)”, donde (p expresa las le­
yes en cuestión. Que esto sea una definición, que las leyes definan los modelos, no signi­
fica por supuesto que una teoría sea una definición, o que vaya a ser verdadera por defini­
ción, o cosas parecidas. Que las leyes definen una serie de modelos significa sólo que las
leyes determinan qué entidades son las que se comportan de acuerdo con la teoría; por
ejemplo, cierta entidad, cierto pedazo del mundo, es “por definición” un sistema mecáni­
co si y sólo si cumple tales y cuales principios.
332 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

2. Una teoría no sólo determina, a través de sus leyes, una clase de modelos. Si
sólo hiciera eso, poco tendríamos. Ya sabemos, por ejemplo, qué es en abstracto un siste­
ma mecánico. ¿Qué hacemos sólo con ello? Nada. Definimos los sistemas mecánicos para
algo más, quizá p.ej. para explicar el comportamiento del par de objetos Tierra-Luna. Una
teoría determina una clase de modelos para algo, para dar cuenta de ciertos datos, fenó­
menos o experiencias correspondientes a determinado ámbito de la realidad. Parte de la
identificación de la teoría consiste entonces en la identificación de esos fenómenos empí­
ricos de los que pretende dar cuenta.
3. Una vez identificados los modelos teóricos abstractos y los fenómenos empí­
ricos de los que se pretende dar cuenta, tenemos lo esencial de la teoría. Lo que hace la
teoría es definir los modelos con la pretensión de que representan adecuadamente los fe­
nómenos, esto es, con la pretensión de que los sistemas que constituyen los fenómenos de
que queremos dar cuenta están entre los modelos de la teoría; en términos tradicionales,
que tales fenómenos concretos satisfacen las leyes de la teoría, que ellos se comportan
como las leyes dicen. Esta pretensión se hace explícita mediante un acto lingüístico o pre­
posicional, mediante una a firm a ció n , la afirmación o aserción “empírica” de la teoría. La
aserción empírica afirma que entre los sistemas empíricos reales de que queremos dar
cuenta y los modelos determinados por las leyes se da cierta relación. Esta relación puede
ser de diversos tipos, más fuertes o más débiles, según las diferentes versiones. Puede ser
la identidad, e.e. que los sistemas empíricos son literalmente algunos de los modelos; o la
aproximación, e.e., que los sistemas empíricos se aproximan (en un sentido que hay que
precisar) a los modelos; o de subsunción, e.e., que los sistemas empíricos son subsumi-
bles (en un sentido que hay que precisar) bajo los modelos. Pero más allá de los detalles,
importantes como veremos, lo esencial es que expresa la pretensión de que nuestra teoría
representa adecuadamente la realidad, esto es, que nuestros modelos se “aplican bien” a
los sistemas a explicar. Así es cómo la teoría dice cómo es el mundo, esos pedazos del
mundo de que quiere dar cuenta en su ámbito de aplicación específico. Dice que el mun­
do es de cierto modo al afirmar que ciertos sistemas empíricos específicos son (o se apro­
ximan a, o se subsumen bajo) modelos de los que ella ha definido; “el mundo”, los siste­
mas empíricos, se comporta de “ese” modo.

Es importante enfatizar el hecho de que esta afirmación simplemente hace explíci­


ta una pretensión ya contenida implícitamente en el par “cmodelos definidos, fenóme-
nos>” Es importante para no confundirse en cuestiones importantes, como la contrasta-
ción. Algunos representantes de la concepción semántica tienden a identificar las teorías
con la aserción empírica (o a incluir la aserción en la identidad de la teoría).1 Pero, como
se verá, hay buenos motivos para no identificar una teoría con su aserción empírica. Ha­
cer eso oscurece la naturaleza estructuralmente muy compleja de las teorías, complejidad
que es preciso que se refleje claramente en la noción de teoría para dar cuenta de algunos
hechos fundamentales, entre otros los enfatizados por los historicistas. Es más adecuado,

1. No se piense que por eso se destierran de la familia semántica, pues siguen pensando que el me­
jo r modo de describir esa entidad es en términos de modelos y sus relaciones.
ANALISIS SINCRÓNICO DE TEORÍAS III 333

por tanto, identificar las teorías con esos pares de conjuntos de modelos (en realidad,
como veremos, con secuencias un poco más complejas de conjuntos de modelos). Así
identificadas, es obvio entonces que, en un sentido estricto, las teorías no son entidades
susceptibles de ser verdaderas o falsas, pues un par (una secuencia) no es una entidad a la
que quepa atribuir con sentido los predicados verdadero y fa ls o . Es cierto pues que, si las
identificamos de ese modo, estrictamente las teorías no son verdaderas ni falsas. Pero
nada filosóficamente sustantivo se deriva sólo de ello. Las teorías, esos pares, llevan biu-
nívocamente asociadas entidades que sí son susceptibles de ser verdaderas o falsas, a sa­
ber, sus aserciones empíricas. Por tanto, aunque no cabe atribuir primariamente valores
veritativos a las teorías, sí cabe atribuírselos d eriva tiva m en te : una teoría es “derivativa­
mente verdadera” si y sólo si su aserción empírica es verdadera. Y este sentido derivativo
es suficientemente importante desde el punto de vista filosófico.
Insistir en que las teorías deben ser, o incluir esencialmente, aserciones puesto
que d ecim o s que son verdaderas o falsas, no es un argumento suficiente si hay buenas
razones para no identificarlas de ese modo. Pero del hecho de que no se identifiquen
con entidades proposícionales no se pueden extraer conclusiones apresuradas sobre pro­
blemas filosóficos sustantivos relativos a la “verdad” de las teorías. Por ejemplo (como
veremos más adelante en detalle, cap. 12, §5), si hay cierto sentido interesante en el que
las teorías no son falsables, no es porque no sean entidades a las que no cabe atribuir los
predicados verdadero o falso. No cabe atribuírselo primariamente, pero sí derivativa­
mente y con ello es suficiente para el sentido importante de falsar: si la aserción es falsa
la teoría queda “falsada” en el sentido de que no todo puede permanecer igual. Si no son
falsables será, como veremos, porque entendemos entonces por teoría sólo la parte esen­
cial, el núcleo lakatosiano que siempre se puede mantener indemne a costa de suficien­
tes reformas en la parte accidental, el cinturón protector de hipótesis específicas.
Una última advertencia antes de ver algunas de las versiones de la familia semán­
tica. Al caracterizar los elementos generales compartidos de esta familia hemos hecho
constante y central referencia a los modelos. En la sección 2 del capítulo 8 presentamos la
noción intuitiva informal de modelo y una de sus posibles precisiones, la que se establece
en la teoría formal de modelos. Debe quedar claro que cuando hemos hablado aquí de
modelos nos referíamos a la noción informal. Las diversas versiones de la concepción se­
mántica discrepan, entre otras cosas, en la naturaleza precisa de esas entidades a las que
denominan modelos y cuya determinación identifica una teoría. Para Suppes y la concep­
ción estructurali sta, se trata de modelos en el sentido genérico de la teoría de modelos,
para van Fraassen y Suppe son lo que se denomina espacios de esta d o , para Giere son
modelos en cualquier sentido informal aceptable del término.2

2. La noción de teoría de Suppes

Patrick Suppes es el primero en criticar la práctica general de la Concepción He­


redada de identificar las teorías con determinadas formulaciones lingüísticas. En pleno
apogeo de la Concepción Heredada y de su enfoque sintáctico-axiomático, Suppes plan-
334 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

tea ya en los años cincuenta las principales objeciones que, como acabamos de ver, se le
pueden hacer. Como alternativa a la axiomatización clásica desarrolla un programa al­
ternativo de axiomatización de teorías científicas con el que se inaugura el enfoque se­
mántico. Su propuesta es desarrollada por él mismo y algunos de sus discípulos de Stan-
ford (cf. McKinsey, Sugar y Suppes 1953, Suppes 1954, 1957, cap. 12, 1960, 1967 y
\9 1 0 b y Adams 1959); en este desarrollo E. Adams tiene, como veremos, una posición
especialmente destacada al contribuir con una modificación esencial a la propuesta ori­
ginal de Suppes. Durante cierto tiempo, sin embargo, ese nuevo enfoque no recibe gene­
ral atención y queda reducido a la llamada escu ela de S ta n fo rd . Es a finales de los
sesenta y principalmente durante los setenta, una vez superados los momentos más radi­
cales de la revuelta historicista de los años sesenta, cuando la propuesta modelista ini­
ciada por Suppes se extiende entre la comunidad metacientífica y es aceptada en sus as­
pectos más generales.
El nuevo procedimiento de axiomatización consiste en la introducción de lo que
Suppes llama un p red ica d o co n ju n tista : “axiomatizar una teoría es definir un predicado
conjuntista” (19706, p. 2/25). En esencia, un predicado tal es una manera específica de
definir una clase de modelos. En este caso, tal manera se caracteriza básicamente por en­
tender los modelos en el sentido técnico de la teoría de modelos, como sistemas o estruc­
turas constituidas por una serie de dominios básicos y relaciones y funciones construidos
sobre ellos. El recurso formal que se utiliza para definir la clase de modelos es entonces el
lenguaje semiformal de la teoría intuitiva de conjuntos, completado con todos los recur­
sos matemáticos necesarios propios de la teoría que se está axiomatizando; por ejemplo,
para la mecánica clásica se usan en la axiomatización conceptos del análisis. El lema de
Suppes es: el instrumento para axiomatizar las teorías científicas no es la metamatemática
sino la matemática.
En esta propuesta hay que distinguir dos contribuciones, ambas importantes pero
diferentes. Una es la propuesta de caracterizar una teoría definiendo una clase de mode­
los. Otra es la precisión de la noción de modelo en términos de secuencias de entidades
conjuntistas de cierto tipo y la estrategia vinculada de determinar los modelos mediante el
lenguaje conjuntista adecuadamente enriquecido. La primera es más general que la segun­
da, se puede concordar con Suppes en el enfoque modelista general pero discrepar en el
desarrollo específico del mismo; de hecho eso es lo que hacen algunos miembros de la fa­
milia semántica. Eso no quiere decir que la segunda contribución no sea importante. Para
Suppes, y para los que le siguen también en esto, la técnica conjuntista es mucho más
dúctil y manejable que la clásica, permitiendo reconstruir efectivamente teorías interesan­
tes de la ciencia real. En la perspectiva clásica, el recurso formal para la axiomatización
es exclusivamente la lógica de primer orden, por lo que, si observamos estrictamente tal
constricción, la axiomatización de una teoría física matematizada contiene como parte la
axiomatización de toda la matemática que presupone, algo que distaba mucho de estar
realizado, incluso de ser prácticamente realizable. Por ello, los ejemplos de axiomatiza-
ciones que se manejan casi siempre en la Concepción Heredada son maquetas muy sim­
ples y poco interesantes, que no se corresponden con teorías científicas usadas realmente
por los científicos.
ANÁLISIS SINCRÓNICO DE TEORIAS HI 335

Un predicado teórico conjuntista es un predicado del tipo “x es un sistem a___


syss^ípOO” donde tp especifica:

a) Las entidades que componen x, esto es, que x es una estructura o secuencia de
conjuntos y relaciones y funciones sobre ellos.
b) (i) Los tipos lógicos de las entidades componentes de x, esto es, si se trata de do­
minios de objetos, de relaciones o de funciones; (ii) su constitución relativa, esto es, los
dominios y contradominios de relaciones y funciones; y (iii) sus propiedades matemáticas
más generales, como que ciertos conjuntos son finitos, o infinitos numerables, o que cier­
ta función es continua, etc. Los axiomas mediante los que se hacen estas caracterizaciones
son meras tipificaciones, son por tanto axiomas sui g en eris , o como diremos después,
axiom as im propios. Los axiomas impropios no imponen constricciones efectivas a las es­
tructuras, simplemente nos dicen de qué tipo de entidades están constituidas, qué propie­
dades matemáticas tienen y cuáles son las relaciones lógicas de constitución entre ellas.
c ) Condiciones restrictivas no puramente constitutivas o lógicas. Esto es, se trata
de axiomas en sentido propio que tienen un efecto constrictivo. A las estructuras que sa­
tisfacen las condiciones defínicionales de b ) se les impone áhóra como condiciones adi­
cionales las leyes, en sentido tradicional, de la teoría. Son efectivamente restrictivas por­
que las cumplirán sólo algunas de las estructuras especificadas en b), otras no. Muchas
veces tendrán la forma de relaciones entre varias de las entidades; por ejemplo, si en la
estructura hay dos operaciones, uno de estos axiomas propios puede exigir que una sea
distributiva respecto de la otra. Pero a veces pueden afectar a un solo componente; por
ejemplo, se puede exigir que cierta operación sea asociativa.

Para fijar las ideas, reproducimos como ejemplo la definición del predicado “x es
un sistema de mecánica de partículas” (cf. Suppes, 1957, cap. 12, parcialmente modifica­
do en Adams, 1959; la presente es una versión mixta, con algunas simplificaciones nota-
cionales que suponen algunas deficiencias técnicas, sobre todo en (8), pero es suficiente
para los actuales fines ilustrativos).

D efinición 10.1:

x es un sistem a de m ecá n ica (new toniana) de p a rtícu la s syss*/existen P, T, s, m , f


talesque;
(1) x = <P, T> j , m ,J>
(2) P es un conjunto finito no vacío.
(3) T es un intervalo de números reales.
(4) s es una función de P x T en el conjunto de vectores tridimensionales (tríos
ordenados) de números reales, y es dos veces diferenciable sobre T.
(5) m es una función de P en el conjunto de números reales tal que para todo p e
P: m (p ) > 0.
(6) / es una función de P x T x N en el conjunto de vectores tridimensionales
(tríos ordenados) de números reales.
336 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

( N e s e l c o n ju n to - a y u d a d e n ú m e r o s n a tu r a le s , q u e m a r c a c o n u n ín d ic e la /
p a r a c a d a p y /; p o d r í a m o s e s c r i b i r / ( / ? , 0 ’ e n l u g a r d e ‘fip , t, i ) ’ ).
(7) Para todo p e P y t e T: m{p) ■(P¡dt2[s(p, r)] = 'LieNfip , U 0-
(8) Para todo p e P, q e P y t e T:
(i) f i p , t j í¡) = - f i q , t j p)
(ii) s(p, t ) ® f ( p , t, i<¡) = -s(q ,t ) ® fiq , t , j p).
(Aclaración notacional: indicamos mediante V que la /q u e tiene como uno de sus
argumentos dicho índice “se debe a así //> ,? /) ’ denota el valor de/sobre p en t
“debido a q '\ e.e., la fuerza que ejerce q sobre p \ ‘®’ denota el producto vectorial.)

(1) presenta (el número de) los constituyentes de las estructuras. (2)-(6) son los axiomas
impropios, meras tipificaciones lógico-matemáticas de las entidades que constituyen la
estructura. La idea es que P es un conjunto específico de partículas: en una estructura x
determinada ese conjunto contiene sólo la Tierra y la Luna; en otra, el Sol y los plane­
tas; en otra, la Tierra y un péndulo; en otra la Tierra y dos objetos en una polea; etc. T es
un conjunto de instantes temporales, s es la función posición, que asigna a cada partícu­
la del sistema un determinado vector-posición en cada instante; es dos veces diferencia-
ble respecto del tiempo, su primera derivada es la velocidad y su segunda derivada es la
aceleración, m es la función masa, que asigna a cada partícula un número real positivo,
su masa (que es independiente del tiem po)./es la función fuerza, que asigna a cada par­
tícula en cada instante una serie de vectores-fuerza, las fuerzas actuantes sobre la partí­
cula en ese instante; en vez de tener varias funciones, tenemos una única función que
tiene como argumentos, además de partículas e instantes, ciertos índices que distinguen
los diferentes vectores-fuerza actuantes sobre p en í; así, f( p , t, i) = <x]y x2, -x3> y f i p , tyj )
= <yj, y i, y3> (i ^ j ) son los valores de dos fuerzas diferentes actuantes sobre la partícula
p en el instante í. (7) y (8) son los axiomas propios, expresan las leyes propiamente di­
chas de esta teoría. (7) expresa el segundo principio de Newton: la suma (vectorial) de
las fuerzas actuantes sobre una partícula en un instante es igual a la variación de canti­
dad de movimiento, o como se suele decir, al producto de la masa de la partícula por su
vector-aceleración en ese instante. (8) expresa/con ciertas deficiencias técnicas) el prin­
cipio de acción y reacción: las fuerzas que se ejercen mutuamente dos partículas son de
igual módulo y dirección y de sentidos contrarios.
Este es un ejemplo típico de la axiomatización suppesiana de una teoría mediante
la definición de un predicado conjuntista. Debe quedar claro que lo que se hace es, como
habíamos anunciado, definir cierta clase de modelos. Las estructuras que satisfacen
(l)-(8) son, p o r d efin ició n , sistemas mecánicos newtonianos. Presentar la mecánica new-
toniana es presentar (definir) esa clase de modelos. Debe quedar claro también que esos
modelos están sometidos a, son caracterizados a través de, algunas condiciones efectiva­
mente restrictivas. Las condiciones (l)-(6), meras tipificaciones, determinan simplemente
el tipo lógico-matemático de las entidades que constituyen los sistemas. Las entidades de
ese tipo lógico, que satisfacen (l)-(6), son, por decirlo así, candidatos a ser modelos de la
teoría; esto es, entidades de las que tiene sentido plantearse si se comportan del modo que
dice la teoría, si cumplen las leyes propiamente dichas. Si una estructura no tiene una fun­
ANÁLISIS SINCRÓNICO DE TEORÍAS III 337

ción que asigne a los elementos del dominio números reales, no tiene sentido preguntarse
si cumple o no el segundo principio de Newton, pues tal principio involucra funciones de
ese tipo. A las estructuras que satisfacen las tipificaciones las llama Suppes realizaciones
p o sib les (cf. 1960, pp. 287-289). Lo que debe quedar claro es que lo esencial de una teo­
ría no son (sólo) sus posibles realizaciones, sino (principalmente) sus realizaciones efecti­
vas o m odelos en sentido propio. La teoría no sólo contiene tipificaciones, contiene con­
diciones adicionales que son restrictivas en el sentido de que algunas de las realizaciones
posibles las cumplirán, pero otras no. No por tener el tipo de conjuntos y funciones que
especifican (l)-(6) toda estructura va a satisfacer (7)-(8); puede ser que tenga ese tipo de
entidades, pero que la suma de los vectores-fuerza para una partícula en un instante sim­
plemente no dé el mismo resultado que el producto de su masa por su aceleración, por
ejemplo que sea igual al producto de la masa por el cuadrado de la aceleración, o la raíz
cuadrada del producto de la masa por la aceleración, o cualquier otra cosa (como ejerci­
cio, el lector puede construir un ejemplo puramente numérico de sistema que cumpla
(l)-(6) pero no (7)). Las realizaciones efectivas o modelos de una teoría son aquellas rea­
lizaciones posibles que además satisfacen los axiomas propios; el conjunto de modelos
será por tanto en general un subconjunto propio del conjunto de realizaciones posibles.

3. Adams y las aplicaciones intencionales

En la sección anterior hemos presentado lo esencial de la nueva caracterización


que hace Suppes de las teorías científicas, debemos ver ahora brevemente la importante
modificación que introduce su discípulo E. Adams. La modificación de Adams está desti­
nada a subsanar lo que él considera una insuficiencia crucial de la versión original de
Suppes.
La insuficiencia que Adams atribuye a la propuesta de Suppes tiene que ver con
algo que hemos hecho al presentar el ejemplo y que Suppes mismo hace, y que sin em­
bargo no es claro que se pueda hacer desde sus presupuestos. Una vez presentado el pre­
dicado conjuntista, hemos indicado cuál era la interpretación p reten d id a de las entidades
componentes de los modelos, esto es, partículas físicas, sus masas, posiciones espaciales,
fuerzas incidentes, etc. La cuestión es, ¿quién dice eso?, ¿cómo dice eso la teoría? Puede
ocurrir que el predicado sea satisfecho por entidades que ontológicamente nada tengan
que ver con esas entidades pretendidas. Por ejemplo, que los ángeles, junto con su “canti­
dad de espíritu”, sus “afinidades” o lo que sea, satisfagan esos axiomas. O, por poner un
ejemplo menos absurdo, esos axiomas son satisfechos de hecho por estructuras puramente
matemáticas, esto es, estructuras cuyo conjunto P está constituido por números. En otras
palabras, entre los modelos efectivos, no meramente entre las realizaciones posibles, sino
entre las realizaciones efectivas que cumplen (7) y (8) además de (l)-(6), hay con seguri­
dad sistemas puramente matemáticos (y quizá “angélicos” u otros de parecida rareza), sis­
temas de los que no p rete n d e h a b la r la teoría. Parece claro que es esencial a una teoría
em pírica el que pretenda aplicarse sólo a algunos de sus modelos efectivos; en el ejemplo
visto no se pensaron los principios newtonianos para sistemas puramente matemáticos (o
338 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

angélicos). Pero si presentar una teoría consiste exclusivam ente en presentar una cíase de
modelos definidos mediante la introducción de un predicado conjuntista (con axiomas
impropios 3; propios), no se ve cómo se puede recoger ese hecho.
La cuestión en juego es, como el lector habrá adivinado, la de la interpretación
empírica. El predicado conjuntista que define los modelos es un mero formalismo mate­
mático abstracto carente de interpretación empírica, o mejor dicho compatible con inter­
pretaciones muy diferentes, tanto empíricas como no empíricas. El conjunto de modelos
que tal predicado determina incluye sistemas de la más variada constitución, tanto empíri­
cos como matemáticos. Efectivamente, estamos de nuevo ante el viejo problema de la co­
nexión del formalismo con la experiencia. Otro modo de presentar la objeción a Suppes
es mostrar que su caracterización, sin elementos adicionales, no permite distinguir las teo­
rías empíricas de las teorías matemáticas. Para Suppes eso no es un problema tan grave,
pues piensa que en realidad la diferencia entre unas y otras no es siempre tan clara como
se pretende, y que una ventaja de su enfoque es justamente que hace explícito ese hecho.
Naturalmente Suppes no pretende negar que a veces hay una diferencia. Reconoce que
hay casos en que es así y ofrece una vía para dar cuenta de ella. Sin embargo, Suppes no
piensa que esa diferencia, cuando se da, haya de reflejarse en la estructura manifiesta de
la teoría. La diferencia radica en que, en las teorías empíricas (matematizadas), la deter­
minación-medición de algunas de (o todas) sus magnitudes vincula dicha magnitud con
situaciones empíricas cualitativas que fundamentan la medición; por ejemplo, la función
masa está ligada a procedimientos de comparación cualitativa mediante una balanza de
brazos. Esas situaciones empíricas cualitativas sobre las que descansa en última instancia2
la medición son estudiadas por las llamadas teorías de la m edición (m etrización) fu n d a ­
m ental (para estas y otras nociones relativas a la medición, cf. cap. 6). La interpretación
empírica de una teoría se expresa entonces a través de los vínculos que guardan sus fun­
ciones métricas con las teorías de la medición fundamental. Por tanto, la interpretación
empírica no se manifiesta “inmediatamente” en la caracterización-axiomatización de una
teoría, sino sólo en la reconstrucción de sus vínculos interteóricos con las teorías de la
metrización fundamental.
Adams plantea esencialmente la misma objeción que hemos presentado, pero de un
modo que no se puede resolver apelando a la medición fundamental. La objeción de Adams
es que si caracterizamos las teorías, como hace Suppes, exclusivam ente mediante el conjun­
to de sus modelos o realizaciones efectivas, entonces no es posible hacer explícito el ele­
mento veritativo o propo sicio n a l de las teorías; esto es, no es posible hacer explícito el sen­
tido en que las teorías son verdaderas o falsas, o si se prefiere, correctas o incorrectas. El
conjunto de modelos caracteriza cierto m odo com o pueden ser las co sa s , el modo como

2. En última instancia porque, como vimos en el capítulo 6, algunas veces (la mayoría en realidad)
la medición de una magnitud para cierto objeto usa simplemente otros valores. Eso es la medición indirecta.
Pero, recuérdese, la medición indirecta no puede ser el único procedimiento de medición, pues los valores
previamente disponibles se han tenido que medir con anterioridad, y así sucesivamente. Así, en algún lugar
debe empezar la tarea, en algún momento asignamos números a las cosas sin usar números previamente dis­
ponibles. Esos son justamente los procedimientos de medición directa o fundamentales, sobre los que descan­
sa en últim a instancia toda medición, y a los que se refiere Suppes.
ANÁLISIS SINCRÓNICO DE TEORÍAS III 339

son las cosas según la teoría. Pero ¿de qué cosas trata? La teoría quiere decir “así son las
cosas”. Pero ¿de qué cosas dice ella que son asff: ¿planetas?, ¿péndulos?, ¿países?, ¿ánge­
les?, ¿simples números? El “así” está expresado por el conjunto de modelos. Pero si eso es
todo lo que tenemos, nos falta algo que exprese “las cosas” de las que se pretende que son
de ese modo. Sin eso no podemos expresar esa pretensión de la teoría. Como vimos, esta
pretensión es esencial a las teorías, pues éstas son ideadas para dar cuenta de parcelas espe­
cíficas de la realidad. Y esta pretensión contiene el elemento proposícional de las teorías,
pues se expresa mediante una afirmación susceptible de ser verdadera o falsa: verdadera si
esas cosas son efectivamente a s í (si están entre los modelos), falsa si no lo son.
Adams propone “abordar el concepto de verdad o corrección [...] a través de la
noción de in terp reta ció n p rete n d id a [ E n te n d e d ’] o m odelo p rete n d id o de la teoría,
[... que es] cualquier sistema del cual [...] se pretende que se ajusta a los axiomas. Hay
siempre en general un enorme número de sistemas que satisfacen los axiomas de la teoría,
pero en las teorías de la ciencia empírica, normalmente sólo unos pocos de ellos serán
aplicaciones o modelos pretendidos” (1959, p. 258). Son modelos pretendidos de la me­
cánica newtoniana, por ejemplo, el sistema formado por la Tierra y la Luna, o el consti­
tuido por el Sol con los planetas, o un plano inclinado, o un proyectil sobre la Tierra, etc.
La identificación o caracterización metateórica de una teoría debe incluir entonces, ade­
más del conjunto de modelos que satisfacen el predicado, un conjunto de aplicaciones, de
sistemas físicos específicos, de “partes concretas de la realidad”, de las que se pretende
que se comportan como la teoría dice, esto es, de las que se pretende que están entre los
modelos. Resumiendo: “Si la verdad y la falsedad han de ser definidas, hemos visto que
se deben tener en cuenta dos aspectos de una teoría: primero, el aspecto formal que co­
rresponde al predicado conjuntista definido mediante los axiomas, [...o mejor,] la exten­
sión de dicho predicado, el conjunto de los sistemas que satisfacen los axiomas; y segun­
do, el aspecto aplicativo, que corresponde al conjunto de modelos pretendidos. Formal­
mente, una teoría T se caracterizará como un par ordenado de conjuntos T = <C, /> tal
que C es el conjunto de todas las entidades que satisfacen los axiomas, e I es el conjun­
to de modelos pretendidos” (ibid.). Como se ve, una teoría no es estrictamente una enti­
dad de la que cabe predicar primariamente la verdad o la falsedad, pero en un sentido
lato, derivativo, sí que es adecuado, y esencial, decir que puede ser verdadera o falsa: “La
teoría es verdadera si y sólo si todos sus modelos pretendidos satisfacen sus axiomas, en
caso contrario es falsa. Si T - <C, />, entonces T es verdadera si y sólo si I está incluido
en C” (ib id ., pp. 259-260). “/ c C ” expresa pues sucintamente la aserción o hipótesis em­
pírica vinculada a la teoría, de la cual ésta hereda su valor veritativo.
Ésta es la modificación esencial con la que Adams contribuye al programa de
Suppes. En la versión de Adams, esta modificación presenta sin embargo algunas dificul­
tades. La más inmediata es que queda oscuro el modo en que se determinan las aplicacio­
nes pretendidas y, con ello, la forma en que se contrasta la aserción empírica. Por supues­
to que las aplicaciones no se “extraen” simplemente de entre los modelos del conjunto C,
pues entonces la aserción sería tautológica. Para que quede clara la naturaleza del proble­
ma es esencial distinguir dos sentidos de ‘determinar las aplicaciones’. En un primer sen­
tido significa “seleccionarlas”. La cuestión es entonces cómo se seleccionan los sistemas
340 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

empíricos, las partes concretas de la realidad a la que se pretende aplicar la teoría. El úni­
co modo de responder a esta cuestión es apelando a las intenciones de la comunidad de
científicos: / es el conjunto de sistemas empíricos x tales que la comunidad científica CC
p reten d e o intenta aplicar T a x. Por ejemplo, en las fases iniciales de la Mecánica Clási­
ca, los físicos pretendían que la teoría se aplicaba a cuerpos en caída libre, tiros parabóli­
cos, trayectorias de cuerpos celestes, y muchas otras cosas, entre ellas los rayos de luz; la
luz fue inicialmente una aplicación intencional de la mecánica (al menos de los partida­
rios de la teoría corpuscular, como el propio Newton), aplicación que terminó por excluir­
se del dominio de aplicaciones cuando se impuso la teoría ondulatoria rival. Simplemen­
te, qué sistemas específicos están en / depende exclusivamente de las pretensiones o in­
tenciones de los científicos (en un momento dado, cf. cap. 13).
En un segundo sentido, ‘determinar las aplicaciones’ significa, una vez selecciona­
das, “determinar sus parámetros”, típicamente en los casos de teorías cuantitativas, determi­
nar en cada aplicación los valores precisos de cada una de las magnitudes involucradas. Y
aquí es donde aparece el problema, pues, si en la determinación de las aplicaciones, en la
medición de los valores de las magnitudes del sistema-aplicación x del que se quiere con­
trastar si se ajusta o no a las leyes de Y, se usaran las leyes de T, estaríamos ante un expe­
diente autojustificativo. Esto es, si en la determinación de los hechos o base empírica de
aplicación se usaran las leyes de la teoría, la aserción se autojustificaría. El problema con la
caracterización de Adams es que no es lo suficientemente fina para abordar esta cuestión.
Nótese que según Adams la aserción empírica es de la forma / c C , y por tanto cada aplica­
ción concreta x es un sistema del mismo tipo lógico que los modelos actuales, tienen los
mismos componentes, las mismas funciones. Eso supone que determinar una aplicación se­
leccionada exige medir en dicho sistema los valores de todas las funciones de las que habla
la teoría. Como veremos más adelante, si eso fuese efectivamente así, estaríamos irremisi­
blemente condenados al problema de la autojustificación, pues algunas de las funciones
de las que habla la teoría no se pueden medir sin usar sus propias leyes. En la medida en
que las teorías no son localmente autojustificativas, en esa misma medida el análisis de
Adams es insatisfactorio, no puede ser que la contrastación de una teoría exija disponer en
los sistemas-aplicación de los valores para todas las magnitudes de que habla la teoría. Ve­
remos que una de las motivaciones por las que surge el estructuralismo en Sneed es preci­
samente caracterizar las aplicaciones pretendidas de un modo más adecuado que permita
elucidar el carácter no autojustificativo de la aserción empírica.
Antes de concluir con la escuela de Stanford, hay que señalar que el propio Sup-
pes se plantea en cierto momento la cuestión de la aplicación empírica de las teorías em­
píricas desde una perspectiva que guarda algo de semejanza con el espíritu de la propues­
ta de Adams. En un trabajo de 1960 publicado dos años más tarde, ‘Models of Data’, de­
fiende que lo que cuenta como datos para una teoría se presenta también en forma de mo­
delos, los m odelos de datos. La diferencia entre las teorías empíricas y matemáticas es
que en las primeras, y no en las segundas, los modelos de datos son de distinto tipo lógi­
co que los modelos teóricos. Aunque no es totalmente explícito en este punto, parece que
la diferencia de tipo lógico a que se refiere en el caso de teorías empíricas consiste en que
los modelos de datos son subestructuras de los modelos teóricos. A juzgar por el ejemplo
ANÁLISIS SINCRÓNICO DE TEORÍAS III 341

que presenta, de este modo parece que se debe interpretar su afirmación de que “en la teo­
ría [empírica] se usan nociones teóricas que no tienen un análogo directo observable en
los datos experimentales” (§ 1 ). En su ejemplo, la teoría del aprendizaje Estes-Suppes
(cf. Suppes y Estes, 1959), los modelos de la teoría están constituidos por ciertas entida­
des, algunas consideradas observables y otras no; los modelos de datos están constituidos
entonces por los constituyentes o b servables de los modelos teóricos, de modo que resul­
tan ser subestructuras de aquéllos. Los modelos de datos, además, son definidos por sus
propias teorías, y es a través de su conexión con estas teorías de datos como adquiere con­
tenido empírico la primera. “Lo que he intentado argüir es que se establece una jerarquía
completa de modelos entre los modelos de la teoría básica y la base experimental comple­
ta. Más aún, para cada nivel de la jerarquía hay una teoría por derecho propio. A la teoría
de cierto nivel le es dado su significado empírico al hacer conexiones formales con la teo­
ría de un nivel más bajo” (§3).
La propuesta de Suppes está sólo esbozada en este artículo, y no llegó a desarrollar­
la en trabajos posteriores (de hecho, posteriormente parece contradecirla parcialmente, pues
exige que los datos sean del mismo tipo lógico que los modelos teóricos, cf. Suppes 1989,
p. 264). En esa versión es muy imprecisa, está poco articulada con el resto de su programa
y contiene elementos problemáticos que no se tratan. Aunque puede encontrarse cierta se­
mejanza de espíritu con las ideas de Adams, sus modelos de datos no se corresponden
exactamente con las aplicaciones pretendidas de Adams. Aquéllos son observacionales y
plenamente determinables teóricamente (mediante otra teoría de bajo nivel); éstas se deter­
minan intencionalmente y no tienen por qué ser plenamente observacionales, de hecho no
lo pueden ser si deben tener el mismo tipo lógico que los modelos teóricos. Veremos que el
análisis satisfactorio de la base empírica incorpora elementos de ambos.4

4. La fam ilia sem anticista

Como indicamos, el enfoque semántico inaugurado por Suppes se mantiene en prin­


cipio circunscrito al ámbito de su grupo en Stanford, pero a finales de los años sesenta co­
mienza a expandirse y durante los setenta se va asentando poco a poco hasta convertirse en
dominante a partir de los ochenta. Veremos ahora brevemente los elementos específicos de
los representantes más destacados de este nuevo enfoque: van Fraassen, Suppe, Giere y la
Concepción Estructuralista (para la escuela polaca, cf. Przelecki, 1969, y Wójcicki, 1977 y
1979; para la escuela italiana, cf. Dalla Chiara y Toraldo di Francia, 1973 y 1976). Aunque
la implantación general se realiza bajo la influencia de los trabajos de Suppes, no todos los
miembros de la familia están directamente influidos por él o le siguen en los aspectos espe­
cíficos de su propuesta. Se trata más bien de que a la estela de la propuesta específica de
Suppes se desarrollan una serie de otras propuestas que en muchos casos comparten con
aquél sólo la orientación modelística. Comparten tan sólo una estrategia general y una pre­
ferencia por determinada forma, la modelística, de presentar y analizar los problemas, pero,
como también advertimos, no comparten tesis filosóficas sustantivas.
Casi todos los miembros de esta familia realizan contribuciones importantes en
342 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

varios ámbitos de la filosofía de la ciencia, y algunas de ellas se presentan en detalle en


otras partes de esta obra. En relación ai lema que ahora nos ocupa, la estructura de las teo­
rías, la concepción estructuralista es la que ha realizado un análisis más detallado de la es­
tructura fina de las teorías, ejemplificando tal análisis con numerosas reconstrucciones de
teorías específicas. Los otros miembros de la familia se limitan en este tema a presentar
los aspectos más generales de su propuesta semántica particular, sin desarrollar en detalle
la estructura fina de las teorías. Veremos aquí cuáles son esos aspectos más generales ca­
racterísticos de cada una de las propuestas y en la próxima sección presentaremos en de­
talle el análisis estructuralista.

4 .1 . V an F ra a ssen : e s p a c io s d e e s t a d o ; b a s e e m p ír ic a y o b s e r v a b il id a d

Van Fraassen coincide con Suppes en que el modo filosóficamente más ilumina­
dor de caracterizar una teoría es presentándola como definiendo una clase de modelos.
Discrepa de él, sin embargo, en la naturaleza matemática de estas entidades. Frente a los
modelos como estructuras conjuntistas de Suppes, van Fraassen opta por los modelos
como “puntos” o “trayectorias” en un esp a cio de esta d o s, idea cuya aplicación a las teo­
rías físicas atribuye a Beth. Beth (cf. 1960) propone un análisis semántico de las mecá­
nicas newtoniana y cuántica en términos de sistemas constituidos por estados goberna­
dos por las ecuaciones mecánicas fundamentales. Van Fraassen desarrolla y generaliza
esta idea a principios de los años setenta (cf. 1970 y 1972). Aunque los detalles son
complicados y no podemos verlos aquí, el núcleo de la idea es el siguiente (van Fraas­
sen advierte sobre las limitaciones para el caso de teorías físicas relativistas, pero no nos
detendremos en ello).
Un estado de un sistema está definido por los valores de ciertas magnitudes en
cierto momento (cf. cap. 5, §1.3). Por ejemplo, un estado de un gas queda definido por los
valores del volumen, la presión y la temperatura; se puede identificar por tanto con una
triada ordenada <v, p , t> de números reales, donde cada componente es, respectivamente,
el valor de la correspondiente magnitud. En mecánica, el estado de cada partícula en un
instante lo determina su posición q = {qx, qy, qz) y su momento p = (px, p y, p z) ‘, el estado se
puede identificar con el séxtuplo ordenado <qx, qy, qz, p x, p y, p z>. Los estados se identifi­
can por tanto en general con puntos en un determinado sistema de coordenadas, de tantas
dimensiones como componentes tengan los estados, tridimensional en el primer ejemplo,
hexadimensional en el segundo. A cada tipo de sistema le corresponde entonces un espa­
cio de estados, el conjunto de todas las posibles n-secuencias (n es la dimensión del espa­
cio) de valores; los estados posibles de los sistemas de ese tipo son pues los puntos de ese
espacio. Lo que hacen los postulados y leyes de una teoría es imponer constricciones so­
bre las relaciones entre estados, permitiendo ciertas transiciones (leyes de sucesión) o
coexistencias (leyes de coexistencia) entre estados y excluyendo otras (sobre las leyes de
sucesión y coexistencia, cf. cap. 5, §1.3). Las transiciones se identifican con determinadas
trayectorias en dicho espacio, y las coexistencias con regiones específicas del mismo. Las
leyes de una teoría permiten ciertas trayectorias y regiones y excluyen otras; de entre to­
ANÁLISIS SINCRÓNICO DE TEORÍAS III 343

das las trayectorias y regiones lógicam ente posibles, la teoría determina sólo algunas de
ellas, las Húm icamente posibles. Así, el conjunto completo de puntos del espacio es el
análogo al conjunto de realizaciones posibles de Suppes, y el subconjunto del mismo per­
mitido por las leyes es el análogo al conjunto de realizaciones efectivas de Suppes. En
ambos casos tenemos un espacio de modelos lógicam ente p o sib les en relación con el cual
las leyes de la teoría determinan el subespacio de modelos físic a m en te p o sib le s .
Como en Suppes, por tanto, la teoría define mediante las leyes una clase de mode­
los, pero ahora tales modelos son trayectorias o regiones permitidas en un espacio de es­
tados de determinada dimensión. Esta diferencia en la caracterización de los modelos no
tiene consecuencias filosóficas sustantivas. En concreto, la forma de antirrealismo que
van Fraassen defiende, su llamado em pirism o constru ctivo , no depende de las preferen­
cias sobre la forma de los modelos. El empirismo constructivo es una tesis epistemológica
acerca de qué creencias implica la aceptación de una teoría. En la defensa de esta tesis
epistemológica, van Fraassen desarrolla toda una variedad de tesis, de orientación general
también antirrealista, sobre muchas cuestiones filosóficas sustantivas, como la causalidad,
la explicación, las leyes, la modalidad o la observabilidad (cf. especialmente 1980 y
1989). No es éste el lugar de revisarlas, ni siquiera someramente. Nos limitaremos para
concluir a presentar la idea de base empírica sobre la que sostiene parte de su argumento
general.
“La parte ‘pura’ de la teoría define el tipo de sistemas a los cuales se aplica; las
aserciones empíricas tendrán la forma de que cierto sistema empírico dado pertenece a tal
clase” (1970, p. 311). En realidad la aserción no dice, como en Adams, exactamente que
los sistemas empíricos pertenecen a dicha clase, que son algunos de los modelos, sino sólo
que son “subsumibles”. La diferencia radica en que los sistemas a los que se aplica la teoría
son submodelos, subestructuras de los modelos determinados por las leyes consistentes en
quedamos con la parte observacional de los modelos: “ciertas partes de los modelos [son]
identificadas como subestructuras em píricas , y esos [son] los candidatos para la representa­
ción de los fenómenos observables con los cuales la ciencia se puede confrontar en nuestra
experiencia, [...] la adecuación empírica consiste en la subsumibilidad de esas partes en al­
gún modelo único del mundo permitido por la teoría” (1989, pp. 227-228). Lo que hace la
teoría es postular la existencia de ciertas entidades inobservables, “ocultas”, cuya (supues­
ta) interacción con las entidades observables produce (pretendidamente) los efectos obser­
vables, los fenómenos. Parte de lo que la teoría sostiene es que esas subestructuras empíri­
cas son subsumibles bajo uno de sus modelos, esto es, que se comportan del modo en que
lo harían si el mundo fuese uno de sus modelos, con sus entidades ocultas interaccionando
con las observacionales del modo específico indicado en las leyes. Ése es el contenido de la
aserción empírica y si dicha aserción es verdadera decimos que la teoría es em píricam ente
adecuada (que “salva los fenómenos”).
Van Fraassen insiste en que eso es sólo parte de lo que la teoría dice, porque quie­
re defender que la teoría dice también algo más, dice que el mundo contiene tales y cuales
entidades además de las observables: “Es claro que podemos discutir dos cuestiones sepa­
radas: ¿qué dice la teoría sobre cómo es el mundo? y ¿qué dice la teoría sobre cómo son
los fenómenos? Puesto que los fenómenos son la parte observable del mundo, y es contin­
344 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

gente que haya o no otras partes, se sigue que estas preguntas no son la misma” (1989,
p. 191). Lo que quiere defender es que la teoría m ism a, y no sólo su aserción empírica,
puede ser verdadera o falsa. Por eso insiste en que la teoría debe ser una entidad en cierto
sentido proposicional, con valor veritativo y susceptible de ser o no creída. Hay un senti­
do débil en que la teoría puede ser verdadera o falsa, a saber, que su aserción es verdadera
o falsa, que la p a rte o b servacional d el m undo es como dice la teoría. Pero hay un sentido
más fuerte en que la teoría puede ser verdadera o falsa, a saber, es verdadera si y sólo si el
m undo es como dice la teoría, esto es, si el m undo es uno de su s m o d elo s . En el primer
sentido prefiere hablar, más que de verdad de la teoría, de a decuación empírica', sólo en
el segundo sentido la teoría es propiamente verd a d era . Este doble sentido se aplica tam­
bién a las actitudes preposicionales que los sujetos epistémicos podemos tener hacia las
teorías. Podemos creer sólo que la teoría es empíricamente adecuada, que su aserción em­
pírica es verdadera; o podemos creer algo más, a saber, que la teoría misma, toda ella, es
verdadera.
En estos términos puede formular ahora van Fraassen su antirrealismo sucinta­
mente. En su opinión, el realismo no es una tesis ontológica sobre lo que hay, sino una te­
sis epistemológica sobre lo que estamos justificados en creer que hay. Su antirrealismo
sostiene que al aceptar una teoría estamos justificados sólo en creer en su adecuación em­
pírica, no en su verdad. Aceptar una teoría nos compromete sólo a creer que lo que afirma
de la parte observable del mundo es verdad, no a creer que lo que tam bién afirma acerca
de inobservables es verdad. A esta posición antirrealista hacia lo inobservable la denomi­
na van Fraassen em pirism o co n stru ctivo : “Uso el adjetivo ‘constructivo’ para indicar mi
concepción de que la actividad científica es una actividad de construcción y no de descu­
brimiento: construcción de modelos que deben ser adecuados a los fenómenos, y no des­
cubrimiento de la verdad acerca de lo inobservable” (1980, p. 5).
Este antirrealismo es en opinión de van Fraassen la conclusión ineludible de dos
premisas en su opinión irrechazables: a) la tesis empirista según la cual la justificación de
toda creencia empírica debe descansar en los fenómenos, en la experiencia, y b ) el hecho
lógico de que puede haber teorías diferentes incom patibles entre sí pero em píricam ente
equivalentes, con las mismas consecuencias contrastacionales (en esto consiste la infrade-
term inación de la teoría p o r la experiencia , sobre la que volveremos por extenso en el ca­
pítulo 12 dedicado al problema de la inducción). De b) se sigue que la creencia en una
teoría frente a otra incompatible empíricamente equivalente no está basada en la expe­
riencia y, por tanto, por a), no será una creencia justificada. En general, pues, sólo esta­
mos justificados en creer en la adecuación empírica, no en la verdad de una teoría, de
toda ella.
Aunque no podemos discutir aquí a fondo este argumento, debe notarse que para
que concluya lo que pretende van Fraassen ha de aceptarse una premisa implícita adicional.
De a) y b) se sigue que sólo estamos justificados en creer las afirmaciones que las teorías
hacen sobre entidades “dadas en la experiencia”, pero para concluir que sólo estamos justi­
ficados en creer las afirmaciones que las teorías hacen sobre entidades observables, hace
falta la premisa adicional según la cual c) la p a rte em pírica de las teorías , su base de con-
trastación, es siem pre o b serva cio n a l El reto todavía pendiente es ofrecer una noción preci­
ANÁLISIS SINCRÓNICO DE TEORÍAS III 345

sa y plausible de observabilidad que sustente c). Van Fraassen defiende un concepto antro-
pocéntrico de observable. Afirma que, en tanto que organismos biológicos, somos cierto
tipo de mecanismos de medición o detección, que como tales tenemos ciertas limitaciones
inherentes y “son estas limitaciones a las cuales refiere el ‘able’ de ‘observable’” (1980,
p. 17). Por ser antropocéntrico, este concepto no puede tener relevancia ontológica, para sa-
ber lo que hay, pero sí epistemológica, para saber qué estamos justificados a creer que hay.
Reconoce además que el concepto es hasta cierto punto vago. Por ejemplo, sostiene que las
lunas de Júpiter son observables, pues los astronautas serían capaces de verlas directamente
si se acercaran a ellas, pero que las partículas en una cámara de niebla no lo son, pues el
juicio sobre su presencia incluye inferencias teóricas; pero entonces, ¿qué decir de la obser­
vación con microscopio electrónico?, ¿y de una estrella lejana que quizá ya ha desapareci­
do? Pero antropocentrismo y vaguedad no son los problemas principales, pues son asumí-
bles por sus tesis. Recuérdese que su tesis antirrealista es epistémica, es una tesis acerca de
lo que los humanos estamos justificados en creer que hay, y por eso no es objetable que su
antirrealismo esté relativizado a nuestras capacidades epistémicas, esto es, que dependa de
una noción antropomórfica de ‘observable’.
El problema principal es si se puede sostener que los sistemas empíricos que ejer­
cen de datos en las teorías están constituidos por entidades observables en su sentido de
‘observable ’. El mismo reconoce que “la teoría no se confronta con datos brutos sino con
modelos de datos, y la construcción de estos datos es un proceso sofisticado y creativo”
(1989, p. 229). De nuevo, como ocurría con la Concepción Heredada, incluso si en térmi­
nos globales nuestro conocimiento se origina en situaciones observables en dicho sentido,
hace falta un argumento adicional para establecer que la base empírica de cada teoría tie­
ne esas características. Más bien parece que no siempre es así; en realidad casi nunca es
así, o nunca si hablamos de teorías científicas mínimamente desarrolladas. Por seguir con
su propio ejemplo: reconoce que las partículas no son observables en una cámara de nie­
bla, que lo observable son los rastros en la niebla; afirma que los modelos de datos que
ejercen de base empírica son partes, subestructuras, de los modelos de la teoría; pero,
simplemente, sucede que los modelos de la mecánica cuántica no incluyen entre sus enti­
dades cosas como rastros en la niebla.
Si c) no es cierto, entonces para que su argumento concluya lo que pretende hay
que reinterpretar a) de modo que se refiera a la observación: la justificación de toda
creencia descansa en la “observación directa”. Pero el problema ahora es con ‘descansa’.
Si es “descansa inmediatamente”, entonces su antirrealismo se aplica también a la base
empírica de contrastación cuando no sea directamente observable. Si es “descansa en últi­
ma instancia”, entonces hay que elaborar en detalle cuál es la relación entre la base empí­
rica y la observación y qué se considera “en última instancia” Esto es esencial, pues de­
pendiendo de qué aceptemos como “descansar en última instancia”, vuelven a abrirse
toda serie de estrategias a los realistas para recuperar la justificación de la creencia en las
entidades “teóricas” postuladas por la teoría para dar cuenta de los modelos de datos de
experiencia. En definitiva, el antirrealismo de van Fraassen parece, sin especificaciones
adicionales, inestable: o se aplica también a la base de contrastación (cuando ésta no sea
directamente observable), o no tiene por qué aplicarse a las entidades teóricas.
346 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

4,2. S uppe: sistemas relaciónales; fenómenos, datos y teorías

Suppe inicia su propio enfoque semántico en su tesis doctoral (cf. 1967) dedicada
al significado y uso de los modelos en la ciencia, influido por los trabajos de von Neu-
mann y Birkhoff sobre fundamentación de la mecánica cuántica y por los de Suppes sobre
modelos de datos. En dos trabajos clásicos sobre la Concepción Heredada, prácticamente
ignorada en su tesis, contrasta los aspectos centrales de dicho enfoque con la concepción
axiomática clásica (cf. 1972 y 1974), y durante finales de los años setenta y en los ochen­
ta desarrolla su concepción aplicándola a los principales temas de la filosofía de la ciencia
(cf. 1989).
Suppe sigue a Suppes en la aproximación modeloteórica general pero, como van
Fraassen, influido en su caso por los trabajos de von Neumann y Birkhoff, prefiere ca­
racterizar los modelos mediante estados en un espacio de estados, no al modo conjuntis-
ta de Suppes. El instrumental matemático es prácticamente coincidente con el de van
Fraassen y no abundaremos en él. Una teoría se analiza ahora como un sistem a rela cio -
n a l (cf. 1989 p. 84), consistente en a ) un dominio que contiene todos los estados lógica­
mente posibles de los sistemas de que trata la teoría (e.e. el espacio de estados entero) y
b) una serie de relaciones entre los estados, determinadas por los postulados o leyes de
la teoría, que especifican las trayectorias y regiones físicamente posibles. El sistema re-
lacional contiene lo que Suppe denomina sistem a s fís ic o s ca u sa lm en te p o s ib le s , que son
los que hacen de modelos teóricos. Una teoría, entonces, determina, a través de alguna
de sus formulaciones, una clase de tales sistemas, una clase de modelos. Para su identi­
dad no es esencial la particular formulación sino la clase de modelos.
Mediante la determinación de los sistemas físicos causalmente posibles, la teoría
pretende dar cuenta de cierto ámbito de la experiencia, lo que Suppe llama el a lcance p r e ­
tendido {‘'intended sco p e ’). Este ámbito de aplicación está constituido por sistemas físicos
que ejercen de “datos duros” (‘ “h a r á ” d a ta ') para la teoría. Pero los datos no son en nin­
gún sentido relevante “observables”: “Las teorías tienen como su principal objeto los in­
formes de datos duros, no informes de observación directa. [...] La necesidad de una dico­
tomía observacional/teórico desaparece. La reemplaza la distinción entre datos duros
aproblemáticos sobre sistemas físicos y condiciones de entorno y los más problemáticos
asertos teóricos acerca de ellos” (1989, pp. 69, 71). Los datos son relativam ente aproble­
máticos en dos sentidos: primero, porque son aproblemáticos relativam ente a una teoría,
aquella teoría para la que son datos; segundo, porque, incluso para la teoría en cuestión,
no son totalm ente aproblemáticos, en caso de contrastación negativa pueden ser proble-
matizados, esto es, revisados. Ello es posible porque los sistemas físicos que presentan los
datos son réplicas altamente abstractas e idealizadas de los fenómenos. En la réplica se
seleccionan sólo los parámetros del sistema relevantes para la teoría y se abstraen los de­
más, y los que se seleccionan se idealizan. Por ejemplo (ibid., p. 65), en la determinación
del sistema-dato en un caso de caída libre en mecánica se prescinde de parámetros como
el color, etc., y otros relevantes como la velocidad se seleccionan en condiciones ideales,
como ausencia de rozamiento, masa puntual, etc. La determinación de los datos es pues
un complejo proceso de elaboración a partir de los fenómenos, que involucra un gran nú­
ANÁLISIS SINCRÓNICO DE TEORÍAS III 347

mero de supuestos teóricos en la selección de los parámetros, su medición, la idealiza­


ción, la determinación de las condiciones de entorno, etc. En ciertas circunstancias puede
ser más adecuado revisar este proceso que los postulados teóricos. Quizá se piense que
esta caracterización de los datos, o btenidos a p a r tir de los fe n ó m e n o s , abre la puerta tra­
sera a la distinción que se ha abandonado, pues aunque los datos no serían observables,
los fenómenos “de los que se extraen” sí lo serían. La distinción volvería a ser fundamen­
tal, sólo que un peldaño más abajo. Pero según Suppe no es así. Los fenómenos están
constituidos por particulares que poseen ciertas propiedades y que están en ciertas rela­
ciones, pero “estos particulares, sus propiedades y relaciones no necesitan ser observa­
bles” (ibid., p. 93).
Así caracterizada, una teoría es em p írica m en te verdadera si los datos coinciden
con los modelos de la teoría, si los sistemas físicos del alcance pretendido coinciden con
los sistem as fís ic o s causa lm en te p o sib le s determinados por la teoría, esto es, si en los sis­
temas de datos los valores de los atributos son los determinados por la teoría (quizá con
ciertas idealizaciones). En realidad esa es una condición sólo necesaria, pues Suppe añade
otra condición “antinominalista”, que aquí sólo podemos presentar imprecisamente y sin
comentario: los parámetros de los sistemas de datos corresponden a clases n aturales
(cf. ibid., p. 98; sobre este concepto, cf. su p ra , cap. 5, §2). Suppe coincide con van
Fraassen en que la aceptación de la teoría no supone aceptar su verdad, la verdad de toda
ella. Pero no coincide con aquél en sus motivos. Esta diferencia es la que le permite de­
fender, contra van Fraassen, lo que califica de cuasi-realism o. Las teorías, afirma, no dan
descripciones literales de cómo funciona el mundo real, sólo pretenden describir cómo
fu n c io n a ría el mundo si los parámetros seleccionados fu e s e n independientes de los deses­
timados. “Las teorías proporcionan descripciones contrafácticas de cómo sería el mundo
si los parámetros desestimados no influyesen en los fenómenos que la teoría pretende des­
cribir. Pero típicamente los parámetros desestimados influyen al menos a veces en los fe­
nómenos, y por tanto las caracterizaciones ofrecidas por las teorías no son literalmente
verdaderas, sino como máximo contrafácticamente verdaderas, de los fenómenos de su al­
cance. Ésta es la postura cuasi-realista que he defendido” (ibid., pp. 348-349).

4 .3 . G ie r e : m odelos e h ip ó t e s is t e ó r ic a s

Giere desarrolla su propia versión de la concepción semántica en el marco de un


programa metacientífico más amplio de análisis de los diversos elementos de la ciencia
desde una perspectiva co g n itiva (cf. especialmente 1988; también 1979, su libro de texto
clásico sobre la argumentación científica, con nueva edición muy revisada en 1991). Des­
de esta perspectiva, propone considerar las teorías como medios para definir modelos abs­
tractos de los que se postula su aplicación a ciertos sistemas reales. “Mi sugerencia prefe­
rida es que entendamos una teoría como compuesta de dos elementos; (1) una población
de modelos, y (2) varias hipótesis conectando esos modelos con sistemas en el mundo
real” (1988, p. 85).
Los modelos ahora no se caracterizan como entidades conjuntistas, ni mediante
348 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

espacios de estado, ni de ninguna otra forma específica. No se les atribuye una naturaleza
matemática determinada. La noción de m odelo teórico es aquí extremadamente amplia,
son entidades abstractas definidas mediante ciertos recursos expresivos, generalmente,
pero no necesariamente, lingüísticos (p.ej. se pueden usar grafos o croquis). A veces los
modelos pueden ser “modelos a escala” físicamente construidos, como en el caso del mo­
delo de doble hélice de Watson y Crick para el ADN. Pero en general no son así y, lo que
es más importante, en tanto que m odelos teóricos no tienen por qué ser (no cuentan
como) entidades físicas. “Un modelo teórico es parte de un mundo imaginado. No existe
en ningún lugar excepto en las mentes de los científicos o como sujetos abstractos de las
descripciones verbales que los científicos escriben” (1991, p. 26). Por ejemplo, si antes de
ir a una fiesta nos “imaginamos” quién viene con quién, estamos determinando, defi­
niendo, una entidad abstracta que es un modelo de (algunos aspectos de) la fiesta; otro
ejemplo, el preferido por Giere, son los mapas. “Un modelo es por tanto, como en es­
tos ejemplos, una entidad abstracta y estructurada que representa algo distinto. Los postu­
lados, leyes y ecuaciones que aparecen en los textos científicos d efinen estas entidades.
La ecuación “m dVdí 2 = - kx" define lo que es un oscilador armónico simple; la ecuación
lím á2s/dt2 - - (m g!l)x” define un tipo de oscilador armónico simple, el péndulo sin fric­
ción. Osciladores, péndulos, son por tanto modelos definidos mediante esas ecuaciones, y
en tanto que tales son “entidades socialm ente construidas [y] no tienen realidad más allá
de la atribuida a ellas por la comunidad de físicos” (1988, p. 78).
Una vez definidos los modelos teóricos, la teoría formula ciertas hipótesis teóri­
cas. Una hipótesis teórica es un enunciado o proposición que afirma cierto tipo de rela­
ción entre un modelo y un sistema real determinado (o una clase de sistemas tales). Giere
enfatiza que a diferencia de los modelos, las hipótesis teóricas sí son entidades lingüísti­
cas (preposicionales), verdaderas o falsas. La relación que se afirma en la hipótesis teóri­
ca no es la de identidad, no se afirma que cierto sistema es el modelo; nótese que los sis­
temas son entidades físicas y los modelos no lo son, son entidades abstractas. La relación
afirmada en la hipótesis es la de sim ilitu d o sem eja n za . Pero toda relación de semejanza
debe ser cualificada para ser mínimamente precisa. Debe relativizarse a determinados a s­
p ecto s y, en ellos, a cierto grado. La forma general de la hipótesis teórica es pues la si­
guiente: “Tal sistema real identificable es similar al modelo designado en los aspectos y
grados indicados” (ib id ., p. 81). Es esencial notar que no todos los aspectos del sistema
real se desean reflejar en el modelo. En el caso del modelo para nuestra fiesta, no nos in­
teresa quizá el color de las ropas, o incluso la hora de llegada. Lo mismo ocurre en la
ciencia, p.ej. en la mecánica no nos interesa el color de los objetos, o incluso a veces tam­
poco la forma ni el tamaño. Así, las hipótesis contenidas en los textos científicos formula­
das en términos identificatorios expresan en realidad afirmaciones de similaridad. Cuando
los físicos dicen “la Tierra y la Luna constituyen un sistema gravitacional newtoniano de
dos partículas”, lo que están afirmando es: “las posiciones y velocidades de la Tierra y la
Luna en el sistema Tierra-Luna se aproximan mucho a las de un modelo newtoniano de
dos partículas con fuerza central cuadrático-inversa”.
Giere desea enfatizar que, en su perspectiva, los enunciados contenidos en la for­
mulación de la teoría no están en conexión directa con el mundo real, sino que se conec­
ANÁLISIS SINCRÓNICO DE TEORÍAS III 349

tan indirectamente con el mundo a través de los modelos. Los enunciados definen los mo­
delos, y los modelos están directamente conectados con el mundo físico a través de la re­
lación de similaridad. Esta relación de sim ilaridad-en-ciertos-respectos-relevan-
tes-y-hasta-cierto-grado es expresada por la hipótesis teórica, que sí es una entidad lin­
güística. La relación puede darse o no darse; si se da la hipótesis, es verdadera, si no, es
falsa. Podría pensarse que la abstracción, aproximación e idealización de la relación de si­
milaridad se pueden reducir, hasta eventualmente eliminarse, mediante la definición de
modelos más completos y precisos. Al aumentar los respectos relevantes, disminuye la
idealización y se afina la aproximación. Por ejemplo, se puede definir un modelo para el
oscilador armónico que incluya la fricción; este modelo incluye un nuevo aspecto para la
relación de semejanza, es por tanto menos idealizado y puede aumentarse el grado de se­
mejanza o aproximación a los valores del sistema real. Pero eso sólo reduce o estrecha
la semejanza, por lo general no es posible convertirla en correspondencia exacta, en co­
rrespondencia entre el sistema y el modelo en todos los aspectos y con una precisión
completa.
Una consecuencia de este enfoque es, en opinión de Giere, que las teorías científi­
cas son entidades que no están bien definidas. El motivo es que no está bien determinado,
al menos no formalmente, cuáles son los modelos vinculados a una teoría específica, por
ejemplo, qué cuenta propiamente como modelo newtoniano. En su opinión, todo lo que se
puede decir es que los modelos de la mecánica comparten “un parecido de familia”. Se­
gún Giere, este parecido es innegable, pero no consiste (sólo) en algo estructuralmente
identificable en los modelos. Los modelos por sí solos no muestran en qué consiste dicho
parecido. La única determinación posible es en términos sociológicos: “Nada en la estruc­
tura de los modelos mismos puede determinar que el parecido es suficiente para pertene­
cer a la familia. Esta cuestión es decidida exclusivamente por los juicios de los miembros
de la comunidad científica en un momento. Eso no quiere decir que haya un parecido ob­
jetivo susceptible de ser juzgado correcta o incorrectamente. Lo que quiere decir es que el
conjunto de los juicios de los científicos d eterm ina si el parecido es suficiente. Este es un
aspecto en el que las teorías son no sólo construidas, sino además socialmente construi­
das” (ibid., p. 86 ).
Giere defiende sobre estas bases cierto tipo de “realismo”, que él denomina rea lis­
m o constructivista, que tan sólo podemos enunciar aquí superficialmente. La ciencia tiene
un aspecto esencialmente constructivo, la definición de los modelos, y modelos diferentes
pueden ser representaciones alternativas de un mismo sistema físico. Hay modelos mejo­
res que otros, pero eso no se puede especificar apelando exclusivamente al mundo. Nada
en el mundo mismo fija los aspectos a representar, ni cuán buena es la representación. La
especificación debe apelar necesariamente a intereses humanos, y no sólo epistémicos o
científicos, sino también a intereses prácticos de diverso tipo. Eso supone una cierta dosis
de relativismo, pero no es un relativismo radical: podemos circular por Nueva York, me­
jor o peor, con dos mapas de Nueva York diferentes, pero no con uno de San Francisco.
Este relativismo es compatible en su opinión con cierto realismo, en el sentido de que los
modelos representan “hechos del mundo”. Pero éste es un sentido muy impreciso asumi­
óle por los antirrealistas. Precisarlo requiere al menos dos cosas. Primero, caracterizar
350 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

más finamente los sistemas físicos “del mundo” de los que se predica su similaridad con
los modelos, y lo que dice Giere al respecto sobre los datos es muy poco (cf. 1991,
pp. 29-30). Segundo, imponer constricciones claras a la similaridad predicada que permi­
tan, p.ej., decir por qué cierto mapa no es un mapa de Nueva York; ¿acaso un mapa de
San Francisco no es similar a Nueva York en a lgunos respectos? Si las únicas constric­
ciones posibles apelan esencialmente a intereses o prácticas humanas, entonces difícil­
mente se puede calificar esta posición de realista.

4.4. S need y la c o n c e p c ió n e s t r u c t u r a l is t a

La concepción estructuralista aúna y desarrolla de un modo específico dos tradi­


ciones anteriores. De un lado, el programa Suppes-Adams de análisis y reconstrucción
de teorías mediante el instrumental modeloteórico de la teoría informal de conjuntos.
De otro, los trabajos de los historicistas, en especial de Kuhn y Lakatos, donde se anali­
zan las teorías como entidades estructuralmente complejas y susceptibles de evolución,
con un “núcleo” central inmutable y un “entorno” complementario cambiante. Ambos
elementos se encuentran ya en The L o g ica l S tru ctu re o f M a th e m a tic a l P h y sics (1971).
Uno de los principales problemas de los historicistas es la vaguedad de sus nociones
centrales, que consideraban casi siempre ineliminable. En esta obra, Sneed ofrece ya
una primera precisión formal, todavía muy tosca, de esas ideas aplicando el aparato con-
juntista de Suppes-Adams. La propuesta de Sneed la recoge Stegmüller (cf. 1973 y
1979), dando lugar a toda una serie de trabajos que desarrollan las diversas partes del
programa y lo aplican a la reconstrucción de un considerable número de teorías científi­
cas. Estos trabajos culminan parcialmente a mediados de los años ochenta con la publi­
cación de A n A rc h ite c to n ic f o r S cience, de Balzer, Moulines y Sneed, su m m a del pro­
grama que contiene sus principales elementos y algunas reconstrucciones de teorías. El
programa estructuralista continúa su desarrollo en los años ochenta y noventa, tanto ex­
tendiéndose a nuevos ámbitos y problemas metacientíficos como aplicándose a la re­
construcción de nuevas teorías (Balzer y Moulines (eds.) 1996 y 1998 recogen, respecti­
vamente, los principales resultados en ambas tareas).
La concepción estructuralista es, dentro de la familia semántica, la que ofrece un
análisis más detallado de la estructura fina de las teorías. En la próxima sección vamos a
ver los principales elementos de dicho análisis con cierto detalle. Para concluir ésta avan­
zaremos tan sólo sus rasgos generales.

a) Se rechaza la distinción “teórico/observacional” y se sustituye por otra, “teó-


rico/no teórico”, relativizada a cada teoría.
b ) En términos de esa nueva distinción se caracteriza la base empírica y el domi­
nio de aplicaciones pretendidas. Los datos están cargados de teoría pero no de la teoría
para la que son datos.
c) Con esta nueva caracterización se da una formulación de la aserción empírica
que claramente excluye la interpretación “autojustificativa” de la misma.
ANÁLISIS SINCRÓNICO DE TEORÍAS III 351

d) Se identifican como nuevos elementos en la determinación de los modelos,


además de las tradicionales leyes, otros menos manifiestos pero igualmente esenciales,
las ligaduras o restricciones cruzadas.
e) Se identifican los vínculos entre los modelos de diversas teorías.
j ) Se caracteriza la estructura sincrónica de una teoría como una red con diver­
sos componentes, unos más esenciales y permanentes y otros más específicos y cambian­
tes. La evolución de una teoría consiste en la sucesión de tales redes.
g ) Se analizan en términos modelísticos las tradicionales relaciones interteóricas
de reducción y equivalencia.

5. La concepción estructuralista de las teorías

Una teoría tiene, como en la versión de Adams del programa de Suppes, una par­
te fo r m a l y otra aplicativa. Pero ambas partes se articulan a su vez, como en Kuhn y La-
katos, en diversos niveles de especificidad. Esta idea de los diversos niveles de especifici­
dad se expresa mediante la noción de red teó rica , que describe en toda su riqueza la
estructura sincrónica de las teorías, su imagen “congelada” en un momento dado de su
evolución. Las redes están formadas por diversos elementos estratificados según su espe­
cificidad. Cada uno de estos elementos tiene una parte formal y otra aplicativa. La parte
formal global de la teoría-red queda expresada por el conjunto de las partes formales de
los elementos constituyentes; su parte aplicativa global por el conjunto de las partes apli­
cad vas de sus constituyentes. A estos elementos constituyentes se les denomina elem en­
tos teóricos. La parte formal de los elementos teóricos se denomina núcleo y su parte
aplicativa, dom inio de aplica cio n es p reten d id a s (o in tencionales).

5.1. El n ú c l e o K

El núcleo, al que denotamos mediante la letra lK \ expresa la parte formal de la


teoría, las tradicionales leyes. Como en la familia semántica en general, las leyes no se
expresan en términos lingüísticos sino modelísticos, entendiendo los modelos, siguiendo
aquí a Suppes, como estructuras conjuntistas definidas mediante la introducción de cierto
predicado. El núcleo K contiene entonces una serie de modelos, las estructuras que satis­
facen los axiomas del predicado. Sin embargo, a diferencia de Suppes y Adams, para el
estructuralismo no es adecuado identificar el núcleo con un único conjunto de modelos.
Es conveniente que la expresión modelística de la parte formal de la teoría recoja y haga
explícitos los diversos elementos distintivos; algunos de ellos ya están implícitos en la ca­
racterización de Suppes, otros sin embargo son nuevos. Para referirnos a ellos vamos a re­
currir al ejemplo de Suppes de la mecánica de partículas presentado en la sección 2. Hay
algunas diferencias técnicas y de matiz entre esa versión y la estándar en el estructuralis­
mo, pero a los efectos actuales se pueden obviar. Tenga pues el lector de nuevo presente a
partir de ahora aquella definición de los modelos de la mecánica.
352 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

M odelos p o ten cia les y m o d elo s actuales

Ya vimos entonces que algunos de los axiomas del predicado conjuntista, en ese
caso los axiomas (l)-( 6 ), son meras caracterizaciones o tipificaciones de los modelos.
Esos axiomas “impropios”, so lo s , definen efectivamente entidades o modelos, pero sólo
el tipo lógico-matemático de los mismos, por lo que toda estructura de ese tipo será mo­
delo de ellos, sin im p o rta r q u é p a se d esp u és d e su sta n tivo o específico a sus co n stitu yen­
tes. Los axiomas (7) y (8 ) no son así, imponen constricciones efectivas adicionales no
meramente lógicas, expresan las leyes en sentido propio de las teorías. Eso significa que
de todas las estructuras que satisfacen (l)-( 6 ), sólo algunas satisfacen además (7) y (8 ).
Llamaremos m o d elo s p o ten cia les (de la teoría en cuestión), y denotaremos su conjunto
mediante lM p \ a las estructuras que satisfacen los axiomas impropios o tipificaciones, y
m o d elo s actu a les (de la teoría en cuestión), y denotaremos su conjunto mediante ‘M \ a
las estructuras que satisfacen ad em á s los axiomas propios que expresan constricciones no
meramente lógicas. Los modelos potenciales son p o ten cia les porque p u ed en ser modelos
efectivos de la teoría, porque son las entidades de las que tiene sentido preguntarse si sa­
tisfacen o no las leyes propiamente dichas. Aquellos modelos potenciales que, además de
las tipificaciones, satisfacen las leyes propiamente dichas son los modelos actuales o
efectivos; es inmediato, por tanto, que M c M p.

D efin ició n 10.2:

x e Mp(MC) syss^/x satisface (l)-( 6 ) de Def. 10.1.

D efinición 10.3:

x € M ( MC) syssje/X e Mp(MC) y x satisface (7)-(8) de Def. 10.1.

Es conveniente expresar esta diferencia incluyendo en el núcleo am bos conjuntos


de modelos. En primer lugar, porque la diferencia expresa un hecho importante, a saber,
la diferencia entre la parte meramente conceptualizadora de la teoría, M p, y la parte efec­
tivamente restrictiva, M. Pero además, porque los modelos actuales no constituyen la úni­
ca constricción efectiva de la teoría. Hay otros elementos de la teoría, menos manifiestos,
pero igualmente restrictivos, cuya expresión requiere también hacer referencia a los mo­
delos potenciales. Es importante pues tener singularizados los modelos potenciales, el
aparato conceptual de la teoría, con relación a los cuales se expresan diversos tipos de
restricciones teóricas efectivas. De momento vamos a presentar una, en el último apartado
veremos otra.

C ondiciones de ligadura

Las restricciones a que nos referimos son lo que el estructuralismo denomina liga­
duras o restricciones cruzadas (‘constraints ’). La idea es que las leyes usuales no son las
ANÁLISIS SINCRÓNICO DE TEORÍAS III 353

únicas que imponen condiciones adicionales efectivas a los modelos potenciales. Si consi­
deramos modelos sueltos, sí, pero si tenemos en cuenta varios modelos a la vez, no. Por
ejemplo, según la mecánica clásica no puede ser que una partícula p tenga una masa en un
modelo x y otra masa diferente en otro modelo y (por supuesto que la mecánica clásica per­
mite los cambios de masa, por ejemplo “si se quita un trozo” a un objeto, pero se considera
siempre que eso corresponde a la generación de otra partícula); por ejemplo, si cierto cohe­
te está en el dominio de dos sistemas, uno el sistema Tierra-cohete y el otro el sistema Lu­
na-cohete, en ambos modelos ha de tener la misma masa. Ésta no es la única constricción
intermodélica. La teoría tampoco permite que si un modelo x contiene una partícula p\
(p.ej. conductor-más-coche), que es la combinación de dos partículas p 2 (conductor solo) y
p 3 (coche solo), haya modelos que asignen a p 2 y p 3 masas cuya suma no coincida con la
asignada a p t en a. La primera condición expresa simplemente que la masa de una partícu­
la es constante, y la segunda que la masa es aditiva, esto es, la masa de un compuesto es la
suma de las masas de los componentes. Este tipo de condiciones interm odélicas son las que
permiten “transportar la información” de unos modelos a otros. Si tengo la masa del cohete
en el modelo que forma con la Tierra, puedo calcular ciertos valores dinámicos de la Luna
gracias a que exporto la información sobre la masa del cohete al modelo que forma con la
Luna (cf. cap. 6 , §6 sobre la trascendencia de estos hechos para la medición indirecta).
Debe quedar claro que no hay manera de expresar este tipo de constricciones me­
diante los axiomas usuales, pues éstos se aplican a modelos sueltos. La condición que defi­
ne la ligadura de identidad para la masa es la siguiente; “para toda partícula p , y modelos
potenciales a, y (que tengan a p en su dominio): m x(p) - my(p)’\ Esta condición no es satis­
fecha o insatisfecha por modelos potenciales sueltos sino por grupos de ellos: si un conjun­
to tiene dos modelos con una partícula común a ambos dominios y en cada uno la función
m asigna a esa partícula valores diferentes, no satisface la condición; si todos los modelos
del conjunto asignan a las partículas comunes de sus dominios la misma masa, sí que la sa­
tisface. El efecto que tiene esta condición, por tanto, no es determinar un conjunto de mo­
delos, sino un conjunto de conjuntos de modelos; esto es, agrupa los modelos en grupos,
grupos tales que, en cada uno, sus modelos asignan a una misma partícula una misma
masa; cada grupo se caracteriza porque en él los modelos asignan a cada partícula determi­
nada masa. Una condición que es satisfecha o no por modelos sueltos define un conjunto de
modelos, el conjunto de los modelos que la satisfacen; éste es el caso de los axiomas
(7)-(8). Una condición que es satisfecha o no por conjuntos de modelos, define un conjunto
de conjuntos de modelos, el conjunto de los conjuntos de modelos que la satisface. Éste es
el caso de la ligadura de identidad para la masa. La condición define pues un conjunto de
conjuntos de modelos potenciales, al que denotaremos mediante ‘C=,„\

D efinición 10.4:

C =,„(MC) = l!cf {X c M p{M C ) / Va,y e X V p e Px rA P y : mx(p) - m y(p )}.

Debe estar claro que, mientras que M(MC) c M p{ MC), C=„,(MC) c= Pot(A/p(MC)). Aná­
logamente procede la condición de aditividad, que define otro conjunto de conjuntos de
354 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

modelos. Ahora en cada uno de esos grupos la masa de una partícula compuesta es la
suma de la masa de sus componentes, en cualesquiera modelos del grupo en que estén el
compuesto o los componentes (‘o’ denota aquí la composición de partículas).

D efinición 10.5:

C 0fJJ(MC) = w {X c M p{ MC) ¡ \ / x , y , z e X V p e PXV q e Py V r e P z (r = p ° q


-> m ¿ r) = m x(p) + m y(q))}.

Estas dos ligaduras cuentan por tanto como constricciones efectivas adicionales de la teo­
ría, que, a diferencia de las leyes usuales, no operan a nivel de modelos aislados sino de
grupos de modelos, por eso se califican de restricciones cruzadas. Como en nuestro ejem­
plo, puede haber varias ligaduras en una misma teoría, y lo que interesa es tener identifi­
cado el efecto combinado de todas ellas. A este efecto combinado o suma de las ligaduras
se la denomina ligadura g lo b a l y se denota mediante ‘GC’. Puesto que cada li- gadura es
determinado subconjunto {{xi, y u zu •■•}> {-*2, ? 2, ...}......} de Pot(M/?), la ligadura global
se identifica con su intersección conjuntista, pues los elementos de dicha intersección sa­
tisfarán a la vez todas las condiciones de ligadura.

D efinición 10.6:

GC(MC) = deI C=,„(MC) n G,„(MC)

Así, en general, si C i,..., C„ son las n ligaduras de una teoría (C, c Pot(Mp)), entonces GC
= Ci n ... n C„. GC se incorpora pues como un nuevo componente del núcleo K, junto
con M p y M .

T -teoricida d y m odelos p a rcia les

Falta un último elemento para que el núcleo contenga todo lo que es relevante de
“la parte formal” de la teoría (último provisionalmente, pues como hemos anunciado en el
último apartado haremos referencia a otro). Este elemento tiene que ver con la recurrente
cuestión de la teoricidad. El estructuralismo rechaza la distinción “teórico/observacional”
por ambigua. Esta distinción esconde en realidad dos: “observable/inobservable” de un
lado, y “no teórico/teórico” de otro. Ambas distinciones no coinciden intensionalmente ni
extensionalmente. La primera distinción no tiene relevancia alguna para el análisis local
de la estructura de las teorías (aunque por supuesto es relevante para la cuestión general
de cómo se relaciona el conjunto de las teorías con la observación). Para el análisis lo­
cal de la estructura de las teorías la distinción relevante es la segunda, pero en este caso
no se trata ya de una distinción absoluta, sino que está relativizada a las teorías. Un tér­
mino, o un concepto, o una entidad, no es teórico o no teórico sin más, sino relativam ente
a una teoría dada. Por eso no se debe hablar tanto de teoricidad cuanto de T-teoricidad,
teoricidad relativamente a una teoría T. La idea que hay detrás es, expresada en términos
ANÁLISIS SINCRÓNICO DE TEORÍAS III 355

modeloteóricos, similar a la distinción que vimos en el último Hempel entre vocabulario


antecedente y vocabulario propio (aunque formulada ya con anterioridad en la obra fun­
dacional del estructuralismo, Sneed, 1971). La idea es que un concepto es T-teórico si es
un concepto p ro p io de la teoría T, “introducido” por ella, y es T- no teórico si es un con­
cepto disponible previamente a T. La cuestión es precisar esta intuición.
La formulación precisa del criterio de T-teoricidad usa de la noción técnica de
p ro ced im ien to de d eterm in a ció n , que no podemos presentar aquí en detalle. Bastará
de momento con la siguiente caracterización informal. Como vimos en el capítulo 4, los
conceptos se aplican o no a las cosas, o si son cuantitativos, asignan valores a ciertas co­
sas. Determinar un concepto es determinar si se aplica o no a un objeto particular dado, o
si es cuantitativo, determinar el valor de la magnitud para el objeto. Los modos para pro­
ceder a ello son los procedimientos de determinación de los conceptos. Puedo determinar
la distancia entre la Tierra y la Luna haciendo ciertos cálculos a partir del período de rota­
ción y las masas correspondientes. Puedo determinarlo también mediante ciertos procedi­
mientos óptico-geométricos. Puedo determinar la masa de un objeto mediante una balan­
za de brazos. También mediante una balanza de muelle. O viendo cuánto se desplaza otra
masa tras chocar con ella a cierta velocidad. Todos ellos son procedimientos de determi­
nación, unos de la distancia, otros de la masa, etc. Pues bien, si un concepto es T-no teóri­
co, si es “anterior” a T, entonces tendrá al menos algunos procedimientos de determina­
ción independientes de T\ en cambio si es T - teórico, si es propio de T, su de- terminación
depende siem pre de T. Un procedimiento de determinación se considera dependiente de la
teoría T si presupone la aplicabilidad de T, la validez de sus leyes, esto es, si usa o presu­
pone modelos actuales de T. La idea es que un concepto es T-teórico si no se puede deter­
minar sin presuponer la aplicabilidad de T, si todo procedimiento para su determinación
la presupone; y es T-no teórico si tiene algún procedimiento de determinación T-indepen-
diente, si es posible determinarlo sin suponer la aplicación de la teoría, por más que tam­
bién tenga otros 7-dependientes.
En el caso de la mecánica que venimos usando como ejemplo, la posición es
MC-no teórica. Es cierto que, como ilustra el caso de la distancia Tierra-Luna, se puede de­
terminar por procedimientos que usan las leyes de la mecánica, como el efecto gravitacio-
nal, pero también se puede determinar sin usar leyes mecánicas, por procedimientos ópti­
co-geométricos. Lo mismo ocurre con el tiempo o duración. Sin embargo no ocurre así con
la masa: todos los procedimientos de determinación de esta magnitud presuponen la aplica­
bilidad de la mecánica, usan modelos mecánicos. Ello es obvio de los procedimientos de
medición indirectos (mediante dinamómetro, o a través de la alteración en la trayectoria
de otro cuerpo, etc.). Pero también lo es respecto de la medición directa mediante balanza,
pues a menos que se considere que la balanza satisface ciertas leyes mecánicas no se puede
considerar que lo que se mide es la m asa de la que habla la m ecánica (cf. cap. 6 , §7). Fal­
taría más, se dirá, la masa es un concepto mecánico. Pues bien, eso es justamente lo que
queríamos, precisar el sentido exacto en que lo es, en que es un concepto “propio de” o “in­
troducido por” la mecánica. En eso consiste la distinción ‘T-teórico/T-no teórico”. En el
caso de la mecánica clásica de partículas, espacio y tiem po son MC-no teóricos, conceptos
cinemáticos previos, m asa y fu e rza son conceptos MC-teóricos, los conceptos propiamente
356 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

mecánicos, dinámicos. Es probable que para todo concepto T-no teórico haya otra teoría V
respecto de la cual el concepto sea ^'-teórico, pero eso es una hipótesis metaempírica que
se debe confirmar.
La noción de T’-teoricidad permite precisar el último componente del núcleo. Hemos
visto que los modelos potenciales expresan el aparato conceptual de la teoría. Es conve­
niente ahora distinguir en el núcleo entre el aparato conceptual global de la teoría y el apa­
rato conceptual específico de ella. Esto es, distinguir los modelos que usan todo el aparato
conceptual de la teoría de aquellos que usan sólo conceptos previamente disponibles, en esa
diferencia radica la contribución conceptual específica de la teoría (además de para estas
consideraciones generales, la necesidad de distinguir entre ambos tipos de modelos se hará
patente cuando discutamos la base empírica). La determinación de esos modelos que no
contienen el aparato específico de la teoría es sencilla una vez se dispone de la noción de
r-teoricidad presentada, pues tales modelos contienen como constituyentes exclusivamente
las entidades correspondientes a los conceptos f-no teóricos; esto es, estos modelos se ob­
tienen a partir de los modelos potenciales “recortando” de ellos las entidades ^-teóricas. A
estos modelos se les denomina m odelos (potenciales) parciales, y se denota su conjunto
mediante íM p p \ Así, en general, se puede definir um. fu n c ió n recorte r que genera los mo­
delos parciales a partir de los potenciales. Si los modelos potenciales de T son estructuras
del tipo x = <D¡, ..., D k, R u ..., Rn, R m> y R„+u .... Rm son T-teóricos, entonces r(x) =
< D i,..., D k, ..., R\, ..., R,„>. El conjunto M pp de los modelos parciales es entonces simple­
mente el conjunto de los modelos potenciales una vez que hemos recortado de ellos las fun­
ciones r-teóricas: M pp - dej{y / 3 x e M p : y - r(x)} o, abreviadamente, M pp - def r [Mp],
donde ‘r[...]’ denota la función recorte aplicada a conjuntos de modelos (recuérdese, cf.
Apéndice, que r[X] es el recorrido de r restringido a X , en este caso el conjunto formado
por los modelos de X una vez recortados). En nuestro ejemplo, los modelos parciales de la
mecánica son entidades del tipo <P, T, s>, que no contienen parámetros MC-teóricos, con­
tienen sólo parámetros cinemáticos; mientras que los modelos potenciales <P , T, s , m , f>
incluyen además los parámetros dinámicos, los propiamente mecánico-teóricos.

D efinición 10.7:

M pp{ MC) = <tef{< P , T , s > / 3 m , f : <P , T, s , m ,f> e M p{ MC)}.

Con ello concluimos la presentación del núcleo, la parte formal de los elementos
teóricos. El núcleo K se expresa mediante la tupia K = <Mp, M p p , M, GC>, donde M p es
el conjunto de modelos potenciales, M pp el de los modelos parciales {M pp = t[M p ]), M el
de los modelos actuales (M c= M p) y G C la ligadura global (G C c Pot(Mp)).

5 .2 . A p l ic a c io n e s in t e n c io n a l e s

El núcleo K es el componente formal de la teoría, pero no el único. Como hemos


visto en general en las concepciones semánticas, las teorías em píricas pretenden que las
ANÁLISIS SINCRÓNICO DE TEORÍAS III 357

constricciones de K lo son de ciertas p a rtes de la realidad fís ic a , los sistemas empíricos a


los que se pretende aplicar el núcleo. Estos sistemas empíricos se denominan en el estruc-
turalismo, como en Adams, a plicaciones p reten d id a s o intencionales (‘in ten d ed applica-
tio n st), y se denota su conjunto mediante T . En nuestro ejemplo de la mecánica clásica,
son aplicaciones pretendidas cosas como el sistema Tierra-Luna, el sistema Solar, un tra­
pecista en su balancín, dos bolas de billar chocando, una balanza, un esquiador deslizán­
dose por una pendiente, un niño saltando en una colchoneta elástica, un satélite de comu­
nicaciones en órbita, etc.
La caracterización estructurad sta de los dominios de aplicaciones contiene sin em­
bargo elementos específicos, especialmente los dos siguientes. En primer lugar, las apli­
caciones pretendidas de una teoría T se individualizan y describen mediante el vocabula­
rio previo a T, esto es, mediante el aparato conceptual T-no teórico. Así, en los ejemplos
mecánicos mencionados, la descripción de las aplicaciones incluye exclusivamente valo­
res de las magnitudes p o sició n y tiem p o , es decir, son descripciones de los sistemas en
términos puramente cinemáticos que presentan sus trayectorias espaciales a lo largo del
tiempo. Por tanto, las aplicaciones pretendidas que conforman la base empírica de la teo­
ría, los “datos” de la teoría, ciertamente están cargados de teoría, pero no de la teoría para
la que son datos sino, en línea con las observaciones de Lakatos, de otra previa o antece­
dente. Los datos de la mecánica, a los que se pretende aplicar y sobre los que se contrasta,
están cinem áticam ente cargados, pero no dinám ica m en te cargados. Esto es esencial para
dar cuenta del carácter no autojustificativo de la aserción empírica mediante la que se
contrasta la teoría. Formalmente, ello se traduce en que cada aplicación pretendida es un
determinado sistema que contiene exclusivamente entidades T- no teóricas. Cada aplica­
ción pretendida es entonces un determinado m odelo p a rcia l y el conjunto I de todas ellas
es por tanto cierto subconjunto de M pp: I c M pp.
El segundo hecho a destacar (parcialmente apuntado por Adams y, dentro de los
historicistas, por Kuhn) es que la selección de las aplicaciones, la determinación de /,
contiene elementos pragmáticos ineliminables, pues tal determinación es esencialmente
intencional y p a ra d ig m á tica . La determinación es intencional porque lo que hace de un
sistema específico que sea una aplicación pretendida es que sea un objeto intencional de
los usuarios de la teoría, que la comunidad científica p rete n d a que las constriccio­
nes-leyes se aplican a tal sistema (cf. más arriba §3). Y es paradigmática porque el con­
junto / no se presenta “listando” todos y cada uno de los sistemas físicos que son aplica­
ciones pretendidas, sino “paradigmáticamente”. No sólo es una aplicación pretendida de
la mecánica un cierto esquiador deslizándose por una pendiente determinada en cierto
momento específico, sino cualquier esquiador en cualquier pendiente en cualquier mo­
mento; y, por supuesto no sólo los esquiadores, también los ciclistas, y los niños bajando
por las barandillas, etc. Para determinar el dominio I no hemos de listar todos y cada uno
de los sistemas cinemáticos particulares de plano inclinado, sino algunos paradigmáticos
y añadir: “y cosas como ésas”; o, alternativamente si se prefiere, referirse de modo gene­
ral y relativamente impreciso a “todos los sistemas en que un objeto desciende por una
superficie inclinada”. Y lo mismo con los objetos vibrantes, con las órbitas estacionarias,
con los objetos chocando y separándose después, con los objetos chocando y siguiendo
358 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

unidos después, etc. Esto sugiere que quizá sería mejor caracterizar al dominio de aplica­
ciones I, no simplemente como un conjunto de aplicaciones sueltas (/ c M pp), sino como
un conjunto de conjuntos de aplicaciones (/ c Pot{M pp)) que tiene por elementos conjun­
tos que son g ru p o s de a plicaciones de un m ism o tipo. Pero aquí no vamos a introducir
esta complicación (para un estudio detenido de la misma, cf. Moulines, 1982, cap. 2.4) y
seguiremos considerando la versión más sencilla según la cual los elementos de / son di­
rectamente las aplicaciones individualmente consideradas.

5.3. L as t e o r ía s c o m o e l e m e n t o s t e ó r ic o s . C o n t e n id o y a s e r c ió n e m p ír ic a

E lem entos teóricos

Ahora podemos presentar ya la noción estructuralista mínima (y provisional) de


teoría, la noción de elem ento teó rico . Un elemento teórico, una teoría en este sentido mí­
nimo, está constituido por ( 1 ) una parte formal que expresa los recursos conceptuales a
diferentes niveles y las constricciones-leyes que según la teoría rigen su ámbito de estu­
dio, y (2 ) una parte aplicad va que especifica en términos preteóricos los sistemas físicos a
los que la teoría pretende aplicarse, de los que pretende que son regidos por sus constric­
ciones-leyes. Haciendo uso del aparato previamente introducido, un elemento teórico T se
identifica entonces con el par formado por el núcleo K , la parte formal, y el dominio de
aplicaciones /, la parte aplicativa: T = <Kt />.
Esta es la noción más simple de teoría, y, como veremos, resulta parcialmente ina­
decuada por su “rigidez”, pero ya es suficientemente rica y útil para.expresar de modo
preciso la naturaleza de la aserción empírica de una teoría. Para ello es conveniente pre­
sentar primero la noción de contenido de una teoría.

C ontenido teórico y contenido em pírico

Hemos visto que el núcleo K expresa la parte matemático-formal de la teoría. Es


en ella donde se presentan las condiciones que, según la teoría, rigen las “partes de la rea­
lidad” de que ella trata. Estas condiciones consisten básicamente en las leyes propiamente
dichas de un lado, y las condiciones de ligadura de otro, que en el núcleo se correspon­
den, respectivamente, con los conjuntos M y GC. Sin embargo, la teoría, al aplicarse, no
pretende que estas condiciones rigen aisladamente o separadas, sino que las aplicaciones
satisfacen todas las restricciones a la vez, tanto las leyes como las ligaduras. Es conve­
niente entonces “juntar” ambos tipos de condiciones, presentar su efecto restrictivo con­
junto. Esto se expresa mediante la noción de contenido teórico, a la que nos referiremos
mediante ‘C o n El contenido teórico, esto es, el efecto combinado de leyes y ligaduras,
queda representado mediante la apropiada intersección conjuntista de los conjuntos M y
GC. Como M es un conjunto {jq, x 2, x 3>..., x 9, ..., x¡5, ...} de determinados modelos poten­
ciales (M c M p) y G C es un conjunto {{ x u x 2, x5, ...}, {x4, x7, x9, ...}, ..., {..., x 15, ...}} de
conjuntos de modelos potenciales (G C c Pot (Mp)), la intersección apropiada correspon­
ANÁLISIS SINCRÓNICO DE TEORÍAS III 359

diente a la combinación de ambos tipos de condiciones no es la de G C con M , sino la de


G C con Pot(M), esto es: Con, = í k .f Pot(M) n G C . Es inmediato que Con, c Pot(Mp), el
contenido teórico de 7, es un conjunto de conjuntos de modelos potenciales, el conjunto
cuyos elementos son conjuntos tales que: ( 1 ) satisfacen las ligaduras; y (2 ) están forma­
dos por modelos que satisfacen las leyes de la teoría, los axiomas propios del predicado
conjuntista.
La noción central para expresar la aserción empírica es la de contenido em pírico,
que se deriva de la de contenido teó rico . El contenido empírico es el “contenido contras-
tacional”; en la versión tradicional, las consecuencias empíricas de la teoría. En nuestros
actuales términos, las consecuencias empíricas del contenido teórico, el efecto a nivel em­
pírico, esto es, 7-no teórico, de las condiciones restrictivas de la parte formal de la teoría.
El contenido empírico recoge entonces los (conjuntos de) modelos p a rcia les que resultan
de recortar los componentes 7-teóricos de los modelos potenciales que satisfacen las res­
tricciones. O de otro modo, los modelos parciales que es posible aumentar con compo­
nentes 7-teóricos de forma que se cumplan las restricciones (y si las restricciones son
efectivamente tales, no todo modelo parcial es aumentable de esta forma). Así, si denota­
mos mediante *C o n ’ el conjunto que expresa el contenido empírico, dicho conjunto es el
resultado de recortar los componentes 7-teóricos en los modelos que aparecen en Con,,
abreviadamente: C on = r [[Con,]] (r(...) se aplica a modelos sueltos, r[...] se aplica a con­
juntos de modelos, r[[...]] es la función recorte aplicada a conjuntos de conjuntos de mo­
delos, como Con,).

A serción em pírica

Ahora podemos expresar de modo preciso la naturaleza que, según el estructura-


lismo, tiene la aserción empírica de una teoría. La teoría pretende que ciertos sistemas fí­
sicos, 7-no teóricamente descritos, satisfacen las condiciones impuestas por la teoría en el
sentido siguiente: ésos son los datos de experiencia que se deberían obtener si la realidad
operase como la teoría dice. Esta pretensión se expresa en la aserción em pírica de la teo­
ría. Por todo lo anterior debe ser claro que la forma lógica que corresponde a la aserción
es “/ e Con”, esto es, el dominio de aplicaciones pretendidas / es uno de los conjuntos de
modelos parciales, 7-no teóricos, que las constricciones del núcleo K determinan a nivel
empírico. Ésta es la versión modeloteórica precisa de la idea intuitiva de que las aplica­
ciones pretendidas satisfacen individualmente las leyes y, además, satisfacen colectiva­
mente las condiciones de ligadura. Mejor dicho, no que “ellas mismas” satisfacen esas
condiciones, pues ellas son estructuras 7-no teóricas y tales condiciones involucran esen­
cialmente constituyentes 7-teóricos de los modelos. La aserción afirma que ciertos siste­
mas empíricos concretos, descritos 7-no teóricamente, tienen el comportamiento que las
restricciones legales determinan a nivel 7-no teórico. Tomemos un sistema empírico que
se comporta de cierto modo según ciertos parámetros T-no teó rico s . Que la aserción sea
cierta significa que ése es justamente el modo en que le corresponde comportarse si están
presentes en él los parámetros 7-teóricos que la teoría postula y éstos se relacionan con
los 7-no teóricos de la forma que establecen las leyes. Es decir, los sistemas de / son mo-
360 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

délos parciales que pueden ampliarse con funciones f-teóricas de modo que se obtengan
modelos que satisfacen aisladamente las leyes y conjuntamente las ligaduras. En este sen-
tido, la aserción afirma que la experiencia es subsum ible o encaja en la teoría.
Aplicada al ejemplo de la mecánica, la aserción entendida en estos términos ex­
presa de modo sucinto lo siguiente: los sistemas físicos particulares intencionalmente se­
leccionados (planos, péndulos, muelles, poleas, órbitas, etc.) son tales que sus valores ci­
nemáticos (posiciones, velocidad y aceleración en ciertos instantes) coinciden con los que
deberían tener si en los sistemas estuvieran además presentes ciertos parámetros dinámi­
cos (masas, fuerzas) interactuando con los cinemáticos del modo especificado en la mecá­
nica, esto es, a) del modo que especifican el segundo principio de Newton y la ley de ac­
ción y reacción, y b) manteniendo la misma masa para las partículas que aparecen en
diversas aplicaciones y respetando la aditividad de las masas cuando una partícula esté
compuesta de otras (sean cuales sean las aplicaciones en que aparezcan).
Es importante darse cuenta de que, aunque la experiencia o los datos están “carga­
dos de teoría”, eso no tiene consecuencias autojustificativas para la aserción. Se seleccio­
nan intencionalmente ciertos sistemas físicos. Primero, se hacen ciertos cálculos supo­
niendo que en los sistemas está actuando todo lo que postula la teoría y del modo como
ella establece. Segundo, e independientem ente, se determinan en los sistemas los valores
de ciertas magnitudes cuya medición no presupone la aplicación o validez de la teoría.
Por último, se comprueba si esos valores coinciden con los calculados. No hay autojusti-
ficación en absoluto (al menos en sentido local). La aserción puede ser perfectamente fal­
sa, lo es si los valores simplemente no coinciden.
Esta caracterización de la aserción es parcialmente insatisfactoria por excesiva­
mente rigurosa. Pretende que los valores coincidan exactamente, en cuyo caso toda aser­
ción resulta falsa, pues siempre hay errores de aproximación. Ésta es en realidad una
versión exacta o idealizada de la aserción, versión que no se corresponde con las preten­
siones reales en la actividad científica. Los científicos nunca pretenden la coincidencia
plena, sino el acuerdo aproximado con los datos dentro de ciertos límites. Para reflejar
este hecho el estructuradsmo ofrece una versión modificada de la aserción empírica que
recoge los aspectos aproximativos indicados. No vamos a presentarla aquí (cf. p.ej. Mou-
lines, 1982, cap. 2.7), para la idea central basta con la versión idealizada.

5 .4 . E s p e c ia l iz a c ió n . L a s t e o r ía s c o m o r e d e s t e ó r ic a s

Los elementos teóricos expresan la estructura sincrónica de las teorías sólo par­
cialmente, pues hay un aspecto estructuralmente relevante a nivel sincrónico que ellos no
recogen. Se trata de un aspecto que, como vimos, enfatizaban especialmente Kuhn y La­
icatos con la idea de que las teorías contienen partes esenciales o inamovibles donde des­
cansa su identidad y partes más accidentales que pueden perderse o modificarse permane­
ciendo, en un sentido diacrónico relevante, la misma teoría. Para capturar y formular en
términos precisos esta idea, el estructuralismo ha desarrollado el concepto de red teórica,
que expresa la naturaleza sincrónica de las teorías en toda su riqueza estructural, y que el
ANÁLISIS SINCRÓNICO DE TEORÍAS III 361

p r o p i o K u h n ha. r e c o n o c i d o q u e e s u n a b u e n a p r e c i s i ó n s e m i f o r m a l d e s u s m a t r i c e s d i s c i ­
p lin a r e s en c ie r to m o m e n to d e su e v o lu c ió n (cf. K u h n , 1 9 7 5 ).

E specialización

Una red teórica es un conjunto de elementos teóricos que guardan cierta relación
entre sí. La idea es que el conjunto represente la estructura (sincrónica) de una teoría en
sus diferentes estratos, esto es, en sus diversos n iveles de especificidad. Tal conjunto, par­
tiendo de elementos muy generales, se va concretando progresivamente en direcciones di­
versas cada vez más restrictivas y específicas, las “ramas” de la teoría-red. La relación
que se ha de dar entre los elementos teóricos para considerar el conjunto una red ha de ser
de “concreción” o “especificación” o, como se dice en terminología estructural, una rela­
ción de especialización. Podemos ilustrar esta situación con el ejemplo de la mecánica
que hemos venido manejando. Volvamos a la definición de los modelos de la mecáni­
ca tal como vimos que la presentaba Suppes. Suppes exige que los modelos actuales de la
mecánica satisfagan tanto el axioma (7), el segundo principio de Newton, como el (8), el
principio de acción y reacción. Desde un punto de vista histórico eso es correcto, si por
mecánica entendemos mecánica n ew to n ia n a , esto es, la que concibió y en la que creía
Newton. Pero desde un punto de vista estructural, la estrategia es inadecuada. El segundo
principio y la ley de acción y reacción no están al mismo nivel, y es importante que este
hecho se refleje en la estructura de la teoría. En contra de lo que creía Newton, no todo
sistema que se ajusta a su segundo principio satisface además esa ley de acción y reac­
ción. Hay sistemas mecánicos que satisfacen el segundo principio y que sin embargo son
“no newtonianos”, en el sentido de que incumplen dicha ley, por ejemplo sistemas que in­
cluyen partículas moviéndose en un campo electromagnético (aunque este hecho queda
algo oscurecido en la versión, como advertimos, técnicamente imperfecta que dimos de la
ley). Así, mientras todo sistema mecánico satisface (7), no todos ellos satisfacen (8), sólo
lo hacen algunos de ellos. Los modelos actuales que satisfacen (8) además de (7) son una
especialización de los que sólo satisfacen (7). Los modelos actuales más generales de la
mecánica son los que satisfacen (7). A partir de ahí se pueden abrir varias líneas de espe­
cialización. Algunos satisfarán además (8). Otros no satisfarán (8) pero satisfarán otro u
otros principios específicos, etc. Y esto puede pasar también en niveles inferiores. Por
ejemplo, no todos los sistemas de acción y reacción satisfacen otros principios adiciona­
les. Unos satisfarán el principio de las fuerzas cuadrático-inversas de la distancia, otros el
principio de oscilación armónica, etc. A partir del segundo principio, general, la mecánica
clásica se va especializando en diversas direcciones específicas imponiendo progresiva­
mente condiciones adicionales en diversas direcciones con la intención de dar cuenta de
aplicaciones específicas.
Éste es el panorama que pretende recoger y expresar la noción estructuralista de red
teórica. El primer paso es definir de modo preciso la relación de especialización. Un ele­
mento T es una especialización de otro T si la parte formal (las constricciones) de V es
una concreción de la de T y está destinada a dar cuenta de una parte de las aplicaciones pre­
tendidas de T. En términos modeloteóricos, ello significa lo siguiente: (1) los modelos de­
362 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

terminados por las constricciones (leyes y ligaduras) del núcleo K' son parte de los determi­
nados por K , esto es, los correspondientes conjuntos M y G C de K' están incluidos respec­
tivamente en M y G C de K (pues se van imponiendo condiciones adicionales), mientras que
la parte conceptualizadora de los elementos teóricos, los conjuntos M p y M p p , queda igual;
y (2) las aplicaciones de /' son algunas de las de /. La definición es pues la siguiente, donde
T ' a V abrevia T ' es una especialización de T : T ’ a T syssí/e/(l) M p = M p , M p p - M pp ,
M e M, G C c G C y (2) / 'c I. Como puede verse, la relación de especialización es reflexi­
va, antisimétrica y transitiva, esto es, de orden parcial (no estricto).

R edes teóricas

Con la noción de especialización disponible podemos precisar la noción de red


teó rica . Una red teórica N es simplemente un conjunto de elementos teóricos (parcial­
mente) ordenado por una relación de especialización: N = <{7j}, cr> es una red teórica
sysSd^(l) {T;} es un conjunto no vacío de elementos teóricos y (2) a es una relación de
especialización sobre (7)}. A cada red le corresponde un conjunto I N de aplicaciones pre­
tendidas, la unión de los dominios /, de los elementos T¡ que la constituyen.
Mediante el concepto de red teórica se captura la estructura de una teoría en un
m om ento dado en toda su complejidad; este concepto expresa adecuadamente la naturale­
za de las teorías desde un punto de vista sincrónico o estático. Sin embargo, el concepto
es en cierto sentido demasiado débil, pues, al no exigir a a condiciones adicionales, se
acepta (como en todo orden parcial) la posibilidad de que haya órdenes “extraños”, con
partes desconectadas entre sí, esto es, de que partes de una teoría estén totalmente aisla­
das de otras. El estructuralismo, que adopta por lo general una postura lo más liberal posi­
ble, considera que ello no es conceptualm ente insatisfactorio. Se reconoce que en las teo­
rías conocidas no ocurre de hecho tal cosa, pero se considera que se trata de una cuestión
(m eta)em pírica que no hay que prejuzgar a p rio ri. Aunque en parte es una cuestión abier­
ta, se opta en general por limitarse a la versión débil y definir después un tipo de re­
des-teorías, las co n ecta d a s , constatando como cuestión de hecho que las teorías conoci­
das son de ese tipo. Una red conectada es una red “no degenerada”, sin partes aisladas.
Para ello no es necesario exigir que a sea conexa en el sentido lógico usual, esto es que
cualesquiera dos elementos diferentes estén relacionados; eso daría lugar a un orden li­
neal, identificando, contra lo que se pretende, las redes conectadas con redes de una sola
línea de especialización. Hay que exigir algo más débil, que sea una “malla”, que siempre
haya un camino que conecte dos elementos cualesquiera. Formalmente ello se garantiza si
podemos “circular-vía-a” entre cualesquiera dos elementos de la red: N — <{7)}, a> es
una red teórica conectada syss^/para todo T, T ' e {Tj} hay 7 j ,..., Tn e {T¡} tales que (T a
7j o 7j a T) y (7j a T2 o T2 a 7j) y ... y (7),, a Tn o Tn a TLi) y (T a Tn o T„ a V ) .
Un tipo especialmente interesante de redes (conectadas) son aquellas que presen­
tan un único elemento superior, del cual “emana todo”. Estas redes (que tienen forma de
pulpo o de árbol invertido) se caracterizan formalmente por tener algún elemento teórico
del que todos son especializaciones (es inmediato que si tiene alguno, tiene sólo uno). El
estructuralismo llama arbóreas a tales redes: N = <{7)}, a> es una red teórica arbórea
ANÁLISIS SINCRÓNICO DE TEORÍAS III 363

syss^hay T & {7, } tai que para todo V e {7)} V a T. Las teorías arbóreas son especial­
mente interesantes pues en ellas, por así decir, la “esencia” está concentrada en un único
elemento teórico básico. El siguiente gráfico ilustra esta situación.

Las redes arbóreas reflejan parcialmente la imagen de la ciencia que se desprende


de los análisis de Kuhn y Lakatos, parcialmente porque faltan por ver los aspectos diacró-
nicos, el tipo de evolución de las redes que constituye la ciencia normal kuhniana. Resu­
mamos cuáles son los principales elementos estructurales sincrónicos descubiertos por los
historicistas que son recogidos en la noción estructuralista de red teórica. Las teorías tie­
nen, en los elementos teóricos de la red, un componente formal, el núcleo K , y otro apli-
cativo, el dominio I de aplicaciones pretendidas. Una parte del núcleo, M p p , conceptuali-
za la experiencia, los hechos, esto es, / c M pp. Otra parte explica lo así conceptuadzado,
explicación que introduce aparato conceptual nuevo propio de la teoría (Mp): las leyes
M ( c M p) y ligaduras G C ( c Pot(Mp)) intentan “subsumir” las aplicaciones, pretensión
expresada por la aserción empírica de la teoría. Así, los hechos a explicar están cargados
de teoría, pero no de la parte de la teoría que pretende explicarlos. El núcleo, que en sí
mismo es puramente formal, se carga entonces de contenido empírico al aplicar-
se-a-las-aplicaciones. Además, todo esto no ocurre de modo “rígido”, como en un bloque
indiferenciado. Las redes tienen partes esenciales (si son arbóreas, concentradas en un
elemento teórico básico) cuyo componente formal es por lo general muy débil, muy poco
o nada restrictivo en s í m ism o (sin especializarlo), y partes accidentales que desarrollan
mediante a la parte esencial especializándola en diversas direcciones, tanto en su compo­
nente formal, imponiendo restricciones más fuertes, como en el aplicativo.

5.5. V
ÍNC
U LO
SIN
TER
TEÓ
RIC
OSYH
OLO
NES

Concluiremos señalando brevemente un último componente de la concepción es­


tructuralista de las teorías que hemos obviado hasta aquí para simplificar la exposición.
Este componente pretende dar cuenta de un hecho usual y esencial de la ciencia, a saber,
364 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

que las teorías no son entidades aisladas sino que mantienen estrechas relaciones entre sí.
Algunas de esas relaciones se expresan mediante “leyes mixtas” o “leyes puente”, me­
diante postulados que involucran conceptos de diversas teorías. Las teorías mantienen
pues vínculos interteóricos. En principio los vínculos pueden relacionar varias teorías a la
vez, pero lo usual parece ser que relacionen dos teorías; en todo caso nos limitaremos
aquí a este caso, el más sencillo, para evitar complicaciones de una presentación generali­
zada a cualquier número de teorías. Un ejemplo típico de vínculo interteórico binario lo
constituye el que se da entre la hidrodinámica y la termodinámica expresado en la ecua­
ción “P^dE/dV” que relaciona presión, volumen y energía, siendo la presión una magni­
tud específicamente dinámica y la energía una magnitud específicamente termodinámica.
Los vínculos interteóricos tienen, como las leyes propias de la teoría, efectos
restrictivos sobre los modelos, pero a diferencia de ellas no son satisfechas o insatisfe­
chas por modelos potenciales de una única teoría sino por p a r e s (en el caso de los
vínculos binarios) de modelos potenciales de teorías diferentes. Las leyes propias deter­
minan un subconjunto de modelos potenciales, aquellos que las satisfacen (e.e. los mo­
delos actuales). Los vínculos interteóricos no determinan d irecta m en te un subconjunto
de modelos potenciales de una teoría. Si M p y M p r son respectivamente los conjuntos de
modelos potenciales de dos teorías T y T ', entonces el producto cartesiano M p x M p'
contiene todos los pares posibles de modelos de ambas. Pues bien, dado un determinado
principio puente entre T y T , sólo algunos de esos pares satisfarán dicho principio, por
lo que se puede considerar que el principio en cuestión determina o define cierto sub­
conjunto L de M p x M p \ el conjunto de pares de modelos que lo satisfacen. Por tanto,
los principios puente determinan p rim a ria m e n te conjuntos de pares de modelos. Pero
eso supone una restricción efectiva adicional para cada una de las teorías, tiene como
efecto la determinación de cierto subconjunto de modelos potenciales en cada una de las
teorías: para T ese conjunto es el de los primeros miembros de los pares de L, para V es
el de los segundos miembros de los pares. Denotemos mediante * L / al conjunto de mo­
delos potenciales de T determinado-en-E por el principio puente L (y análogamente con
T '). Pues bien, si el principio es efectivamente restrictivo, Lr será un subconjunto propio
de M p. Como T puede tener varios vínculos interteóricos L¡ con diversas teorías, cada
uno de ellos determina de este modo indirecto un cierto subconjunto L¡T de modelos, que
representa el efecto constrictivo del vínculo en la teoría T. El efecto combinado o con­
junto de todos los vínculos se recoge entonces en la intersección de todos esos conjun­
tos, el víncu lo g lo b a l que se denota mediante lG L \ y que es la intersección de todos los
vínculos L ¡t para T.
Una caracterización completa del núcleo K que exprese todas las condiciones que
la teoría impone a los modelos debe incluir también este tipo de constricciones derivadas
de las leyes puente. Así, hay que completar la anterior caracterización provisional del nú­
cleo con este nuevo elemento: K = <M p , M pp, M , G C , GL>; el contenido teórico es en­
tonces Con, = Pot(Af) n G C n Pot(GL). Nótese que si no se incluyesen en la caracteriza­
ción de las teorías este tipo de leyes-restricciones empíricas no aparecerían en la recons­
trucción de ninguna teoría y por tanto “desaparecerían” en una eventual reconstrucción
total de la ciencia resultante de reconstruir todas y cada una de las teorías. El motivo es
ANÁLISIS SINCRÓNICO DE TEORÍAS III 365

que estas leyes empíricas no se formulan con el vocabulario exclusivo de una única teoría,
involucran conceptos de diferentes teorías, y por ello no aparecen como axiomas propios
que determinan los modelos actuales. Pero no por ello son menos constrictivos empírica­
mente, son tan parte de lo que la teoría afirma de la experiencia como los axiomas pro­
pios de cada teoría y por tanto deben hacerse manifiestos en la reconstrucción de cada
teoría. Nótese que no sería una buena estrategia alternativa “ampliar” por este motivo los
conceptos propios de la teoría incluyendo cualquier concepto con el que se vinculen me­
diante leyes “los originales”. Eso permitiría recoger las leyes-puente como axiomas pro­
pios pero al precio de unificar inaceptablemente diferentes teorías. Si la energía debiera
incluirse como magnitud propia de la hidrodinámica por su relación con la presión me­
diante la ley mencionada, entonces también debería incluirse la entropía, dadas las leyes
que la conectan con la energía. Pero eso tendría la consecuencia inaceptable de convertir
la hidrodinámica y la termodinámica en una misma teoría. Y no sólo a ellas, sino que
convertiría en la misma teoría gran número de teorías físicas (dadas las conexiones de hi­
drodinámica y termodinámica con otras), o quizá todas las teorías físicas o, si por distin­
tos caminos se conectan con otras disciplinas, todas las teorías empíricas.
Es obvio que no todas las teorías dentro de una disciplina, o de toda la ciencia, son
la misma teoría. Por tanto, considerar los vínculos interteóricos exactamente del mismo
modo que los axiomas propios de las teorías es inaceptable. Lo adecuado es reconstruir­
los, e incluirlos en la caracterización de las teorías, como lo que son, a saber, leyes puente
que vinculan teorías diferentes. Su existencia genera cierto tipo de “unidad”, pero no pue­
de convertir teorías diferentes en la misma teoría. Esas unidades que generan no son teo­
rías individuales sino grupos de teorías interconectadas, o lo que el estructuralismo deno­
mina bolones ( “to ta lid a d es") teóricos. Estas macro-unidades científicas pueden englobar
partes de una disciplina, o incluso de disciplinas diferentes, y son fundamentales para elu­
cidar algunas cuestiones relativas a la estructura global de la ciencia. El examen de estas
cuestiones, sin embargo, sobrepasa los límites de este libro (para un estudio detallado,
cf. Balzer, Moulines y Sneed, 1987, cap. VIII).

6. Consideraciones finales
Con este capítulo concluimos el análisis de la estructura sincrónica de las teorías.
La reconstrucción o análisis de una teoría debe poner de manifiesto todos los aspectos
que sean relevantes para elucidar su naturaleza. Independientemente del formalismo que
se prefiera usar para ello, la revisión que hemos hecho permite establecer al m enos los si­
guientes elementos relevantes para la dimensión sincrónica de las teorías.12

1. Las teorías tienen una parte formal, las leyes, y otra aplicad va, los sistemas fí­
sicos concretos a los que se pretende aplicar las leyes. Tal pretensión es expresada por la
aserción empírica de la teoría.
2. Es más adecuado identificar las teorías a través de sus modelos que a través
de sus enunciados. Para dar cuenta de algunas intuiciones hemos de referimos siquiera
366 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

implícitamente a los modelos, y lo preferible es presentar el análisis metateórico, así


como las cuestiones vinculadas al mismo, directamente en términos de modelos.
3. El aparato conceptual con el que se describen y determinan los modelos de
datos es sólo parte del usado por la teoría. La determinación de los modelos de datos no
puede depender de conceptos cuya aplicación presuponga la validez de la teoría. Los con-
ceptos mediante los que se determinan los datos son pues previos, anteriores o no-teóricos
en relación a la teoría para la que son datos. Los conceptos mediante los que la teoría ex­
plica o subsume esos datos son los conceptos propios o teóricos en relación a la teoría. La
distinción “teórico/no-teórico” es relativa a cada teoría.
4. La caracterización del componente formal debe hacer manifiesta la diferencia
entre aparato meramente conceptualizador y aparato propiamente constrictivo.
5. En cuanto al aparato conceptualizador, se debe hacer manifiesta la diferencia
entre los conceptos previos, T -no teóricos, y los conceptos propios, 7-teóricos.
6. En cuánto al aparato propiamente constrictivo, la reconstrucción debe hacer
manifiesta la diferencia entre: a) constricciones que se imponen a sistemas aislados e in­
volucran conceptos exclusivos de la teoría en cuestión (leyes propias); tí) constricciones
que sé imponen a sistemas aislados e involucran conceptos de diferentes teorías (leyes
puente); c) constricciones que se imponen a grupos de sistemas (condiciones de coheren­
cia o ligaduras).
7. La parte aplicativa, los sistemas de datos, seleccionada intencional y paradig­
máticamente y determinada T-no teóricamente, contribuye esencialmente a la determina­
ción del significado empírico de los términos teóricos.
8. Todo lo anterior se debe considerar conformando una estructura dúctil, con
unas partes más genéricas y esenciales que constituyen el núcleo firme de la teoría, y
otras partes más específicas y accidentales que pueden ir modificándose como resultado
de la contrastación de la aserción empírica. En qué sentido se pueden producir estas mo­
dificaciones lo examinaremos en detalle en el capítulo 13.
C a pít u l o 11

RELACIONES INTERTEÓRICAS

Las teorías de las ciencias empíricas en general (a diferencia, quizá, de algunas


teorías de la matemática pura y de las teorías metafísicas) no son “mónadas” conceptuales
y metodológicas; es decir, ni desde el punto de vista de su armazón conceptual, ni toman­
do en cuenta el modo como funcionan, como se aplican y ponen a prueba, pueden ellas
existir de manera completamente aislada unas de otras. En el capítulo anterior hemos vis­
to ya un modo en que las teorías empíricas están conectadas unas con otras, a través de
los vínculos interteóricos o leyes p u en te. En este capítulo examinaremos otros tipos de re­
laciones interteóricas de naturaleza más global, en especial la teo riza ció n , la reducción y
la equivalencia. Después de una introducción a la noción general de relación interteórica,
examinaremos cada una de estas relaciones y concluiremos con un apéndice dedicado al
reduccionismo entre ciencias especiales y ciencia básica.1

1. Concepto general de relación interteórica


Cada teoría de las diversas disciplinas científicas se halla en relaciones más o me­
nos estrechas y de diversa índole con otras teorías, con frecuencia de la misma disciplina,
pero a veces también de disciplinas bastante distintas. No se puede entender y aplicar una
teoría mecánica, pongamos por caso, sin tomar en consideración su relación con la geo­
metría física; las relaciones de la termodinámica con la química son esenciales a ambas
disciplinas; no sabremos realmente qué dice la genética sobre los seres vivos si no toma­
mos en cuenta conceptos esenciales de la taxonomía, etc. Es muy dudoso que, en el esta­
do actual de la ciencia empírica, exista una sola teoría, por elemental que sea, que no con­
lleve relaciones significativas empírica y conceptualmente con otras varias teorías. En
muchos casos, estas relaciones son incluso absolutamente esenciales a la teoría en cues­
tión en el sentido de que no podemos identificar esa teoría o determinar plenamente de
qué trata si desconocemos algunas de sus relaciones con otras teorías. Por ejemplo, la re­
lación de la mecánica con la geometría física es esencial para la primera (aunque no para
368 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

la segunda): no comprenderemos lo esencial de una teoría mecánica si no aprehende­


mos la vinculación de algunos de sus conceptos básicos con conceptos provenientes de la
geometría.
En otros casos, aunque sería quizá exagerado afirmar que la identificación de una
teoría dada presupone su relación con otras teorías, sin embargo, las relaciones interteóri­
cas resultan esenciales a la hora de someter a prueba empírica la teoría en cuestión. Pro­
bablemente no haya una sola teoría empírica cuya contrastación con la experiencia no re­
quiera del concurso de otras teorías, aunque sólo sea por el hecho de que los instrumentos
utilizados para poner a prueba esa teoría vienen controlados por las leyes de otras teorías.
Así, por ejemplo, cuando ponemos a prueba las predicciones experimentales de la termo­
dinámica mediante un termómetro, presuponemos implícitamente que éste funciona
correctamente, y ello quiere decir que funciona de acuerdo a leyes mecánicas, hidrodiná­
micas, electrostáticas, etc.
La constatación de que nunca podemos poner a prueba una teoría empírica aisla­
damente, sin tomar en cuenta que forma parte de toda una familia de teorías coadyuvan­
tes, la hizo ya Pierre Duhem a principios del siglo xx. Este autor formuló esta tesis sólo
para las teorías de la física y dudaba de que fuera aplicable a otras disciplinas (a la fisiolo­
gía, por ejemplo). Sin embargo, hoy día sabemos ya lo bastante acerca de la estructura de
otras disciplinas, además, de la física como para que nos atrevamos a suponer el mismo
efecto en todas las ciencias empíricas: ninguna teoría empírica puede ser contrastada sin
tomar en consideración sus relaciones interteóricas. Esta visión de la problemática de la
contrastación de teorías fue radicalizada posteriormente por W. V. Quine, quien postuló
que, en la contrastación de cada teoría particular, interviene una madeja inextricable y
prácticamente inabarcable de relaciones de esa teoría con la totalidad de la ciencia (inclu­
so las ciencias formales). A tal tesis se la suele caracterizar como h o lism o (m eto d o ló g ico )
(de la palabra griega h o lo s , que significa “totalidad”); también se la suele llamar “tesis
Duhem-Quine”, dando a entender que ambos autores, Duhem y Quine, defendieron prác­
ticamente el mismo punto de vista. Sin embargo, como acabamos de indicar, el “holismo”
de Duhem es mucho más moderado (y verosímil) que el holismo extremo de Quine. A
efectos de la discusión presente nos basta con dar por bien establecida la versión duhe-
miana del holismo: al contrastar una teoría con la experiencia siempre hay que tener en
cuenta al menos a lgunas de sus relaciones con a lgunas otras teorías.
Así, pues, tanto respecto a la cuestión de la identidad de teorías empíricas como
respecto a su contrastación, sus relaciones mutuas juegan un papel de primer orden. Por
ello es que el estudio de las relaciones interteóricas representa un capítulo muy importan­
te de la filosofía de la ciencia, un capítulo largo tiempo negligido, pero que en las últimas
décadas ha pasado cada vez más al primer plano de la discusión. El estudio de las relacio­
nes interteóricas resulta imprescindible para comprender los aspectos más globales de la
ciencia, tanto en una perspectiva sincrónica como en una diacrónica. Aquí podemos tratar
sólo de los tipos más importantes y discutidos de relaciones interteóricas, y lo hare­
mos sólo desde un punto de vista sincrónico; algunos aspectos de relevancia diacrónica
de las relaciones interteóricas entrarán en juego en el último capítulo.
Otra restricción en el examen que asumiremos es la siguiente. Si consideramos un
RELACIONES INTERTEORICAS 369

grupo de n teorías, 7), ..., T„ (con n > 2), que constatamos relacionadas entre sí, podría
ocurrir que hubiera una relación n-ádica R (T if ..., T„) que no se pudiera descomponer en
relaciones parciales entre pares de teorías del grupo. Sin embargo, numerosos análisis de
ejemplos reales de relaciones interteóricas parecen indicar que la eventualidad menciona­
da es meramente una posibilidad lógica en la inmensa mayoría de casos, y que los tipos
realmente relevantes de relaciones interteóricas son (casi) siempre relaciones establecidas
sobre un par de teorías, es decir, relaciones diádicas. En cualquier caso, aquí restringire­
mos nuestra atención a las relaciones interteóricas diádicas. De éstas, a su vez, hay de ti­
pos diversos, según su forma lógica y su función metodológica. Muchos de esos tipos ni
siquiera han recibido una denominación especial en la literatura, y los dejaremos de lado.
Aquí nos limitaremos a examinar tres grandes tipos, que han sido objeto de amplias in­
vestigaciones, y que tienen también especial relevancia epistemológica: la teorización, la
reducción y la equivalencia.
La reconstrucción formal de los diversos tipos de relaciones interteóricas depen­
derá naturalmente, en parte, de la noción formal de teoría que se presuponga. Si se adopta
una concepción axiomática o enunciativa de las teorías como cálculos interpretados
(cf. capítulo 8), entonces está claro que los diversos tipos de relaciones interteóricas apa­
recerán como relaciones entre (sistemas de) enunciados o axiomas; en cambio, si adopta­
mos una concepción semántica de las teorías (cf. capítulo 10), y en especial si las defini­
mos como estructuras modeloteóricas (que es el punto de vista favorecido en este libro),
entonces las relaciones interteóricas también se verán como relaciones entre modelos o
conjuntos de modelos. En lo que sigue, y para el examen de cada uno de los tipos consi­
derados, primero adoptaremos la idea más clásica de las teorías como sistemas de enun­
ciados para pasar luego a la versión modeloteórica. En realidad, las dos formas de recons­
trucción no son incompatibles entre sí, sino que la primera puede servir a modo de suge­
rencia “elemental” para la segunda que, como veremos, permite un análisis más diferen­
ciado y complejo de las relaciones interteóricas.

2. Teorización

La teorización, vista como relación interteórica, se da entre dos teorías 7) y T0


cuando algunos de los conceptos que aparecen en las leyes de 7) vienen determinados en
la teoría 7L o sea, le son “provistos” a 7) por 7b; a tales conceptos podemos llamarlos
“conceptos T v-no-teóricos”, mientras que a los demás conceptos de 7), que no vienen de­
terminados por ninguna teoría independiente de 7), los llamamos “Ti-teóricos”.1 En tal
caso, cuando algunos de los conceptos de 7) vienen determinados por una teoría T0 inde­
pendiente de T i y otros, en cambio, no vienen determinados por ninguna teoría indepen­
diente de T\, decimos que 7) es una teorización de 7b o que 7b es una teoría subyacente a

1. La distinción entre conceptos T-teóricos y T-no-teóricos que establecemos aquí está inspirada en
las ideas básicas de la concepción estructural, expuestas en el capítulo 10 (§5). Sin embargo, en la forma en
que aquí la discutimos es independiente de dicha concepción.
370 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

T\. También podemos decir que 27 es una teoría m etodológicam ente p revia a 77, pues sin
ella algunos de los conceptos de 77 no quedarían determinados y por tanto no sabríamos
cómo aplicar 77 ni, en definitiva, de qué trata dicha teoría.
Así, por ejemplo, si no dispusiéramos de los conceptos cinemáticos de distancia,
tiempo, velocidad y aceleración (y de maneras de determinarlos de acuerdo a ciertos prin­
cipios cinemáticos y geométricos), no tendría sentido tratar de utilizar, aplicar o poner a
prueba una teoría mecánica. Por ello podemos decir que la mecánica es una teorización de
la cinemática. O bien, si no dispusiéramos del concepto de volumen, no podríamos ni si­
quiera entender de qué trata la termodinámica, por lo que hay que considerar esta última
como una teorización de la geometría física. Finalmente, está claro que la distinción entre
fenotipo y genotipo es esencial para cualquier teoría genética; pero la noción de fenotipo
viene determinada por los rasgos anatómicos y fisiológicos de los seres vivos, por lo que
la genética será una teorización de la anatomía y la fisiología.
En general, se suele suponer que, si 77 es una teorización de 77, es porque 77 está
más próxima a la experiencia inmediata del sujeto epistémico, puede servir como “base
empírica” para poner a prueba 77, la cual por lo general se considerará más “abstracta”,
más alejada de la experiencia. Algunos autores también contraponen el lenguaje en que
está formulada 77, considerado como “lenguaje observacional”, al lenguaje propio de 77,
considerado como “lenguaje teórico” (cf. cap. 8). Podemos aceptar este modo de hablar
siempre y cuando tengamos presente que se trata de una distinción relativa al par <77,
77> : 77 es “observacional” con respecto a f i , pero no tiene por qué serlo en un sentido
absoluto; es decir, 77 no tiene por qué considerarse una teoría basada únicamente en
“observaciones puras”, suponiendo que haya tal cosa. Basta simplemente que las deter­
minaciones de los conceptos en 77 hayan de presuponerse antes de pasar a utilizar 77.
Pero por supuesto que 77 puede ser, a su vez, teorización de otra teoría aún más “ele­
mental” 77, y por otro lado 77 puede servir de “base empírica” a otra teoría aún más
“abstracta” 77, etc.
La teorización puede ser total o p a r c ia l . Diremos que 77 es una “teorización total”
de 77 cuando 77 es la ú nica teoría de la cual 77 es teorización, o sea, 77 es la única teoría
que subyace a 77. Es plausible suponer que un ejemplo de teorización total lo constituye
la relación entre la mecánica y la cinemática, pues todos los conceptos no propios de la
mecánica que hay que presuponer para aplicar la mecánica provienen de la cinemática.
Sin embargo, la teorización total es más bien la excepción y no la regla. Por lo general, a
una misma teoría subyacen varias teorías distintas, o sea, 77 es teorización de 77, 77', 77”.......
Así, por ejemplo, la termodinámica es teorización de por lo menos tres teorías: la geometría
física (por el volumen), la hidrodinámica (por la presión) y la estequiometría (por el con­
cepto de mol).
Parece muy plausible suponer que la teorización es una relación asim étricas o sea,
que si 77 es teorización de 77, entonces no podrá ser 77 también teorización de 77. Sin em­
bargo, es importante notar que no hay ninguna razón a p rio ri o conceptual para que ello
sea así: en principio, podría ocurrir en algún caso que algunos conceptos de 77 presupu­
sieran 77, pero que ciertos conceptos de 77 presupusieran a su vez la determinación de
otros conceptos de 77. En tal caso no tendríamos un círculo lógico vicioso, pero sí lo que
RELACIONES INTERTEÓRICAS 371

podríamos denominar un “círculo metodológico vicioso”. Está claro que la praxis científi­
ca está constituida de tal modo que, en p rin cip io , tratará de evitarse una situación así. No
obstante, que realmente consiga evitarse siempre, es otra cuestión. Puede ocurrir que, en
la práctica del uso de teorías, se introduzcan inadvertidamente tales círculos. Ello puede
ocurrir especialmente cuando las “cadenas de teorizaciones” son relativamente largas. En
efecto, supongamos que tuviéramos una serie de teorías T0, T h ..., Tn. u T,„ tal que Tn sea
teorización de Tn. i, ..., T\ teorización de T0 y finalmente que T0 sea teorización de T„\ ad­
mitamos además que la relación de teorización es transitiva, o sea que, si r 3 es teorización
de T2 y T2 es teorización de T\, entonces también habrá que considerar T3 como teoriza­
ción de T\ (lo cual es un supuesto muy plausible); entonces tendríamos en el caso de esa
“cadena” de teorías que T„ es teorización de T0 y Ta es teorización de T„, precisamente el
círculo que tratábamos de evitar.
Es una cuestión todavía abierta la de si una situación como la descrita puede real­
mente darse en las ciencias empíricas, y qué consecuencias epistemológicas y metodoló­
gicas tendría ella; esta cuestión, como el lector habrá adivinado, está emparentada con las
tesis del holismo señaladas al principio, en particular en su forma extrema debida a Qui­
ne. Aquí no podemos detenernos a fondo en este problema y nos limitamos a apuntarlo
tan sólo. En general, supondremos que tales círculos no se dan, y que la constitución de la
mayoría de disciplinas (al menos desde el punto de vista sin cró n ico ) es tal que la teoriza­
ción es realmente una relación transitiva y asimétrica. Ello implica, a su vez, la existencia
de un orden jerárquico entre las teorías, desde las más “básicas”, que no son teorizaciones
de otras teorías, hasta las más “teóricas”, que revelan tener tras de sí largas cadenas de
teorizaciones. Esta es la alternativa fu n d a cio n ista . Según la alternativa opuesta, cohe ren ­
tista, no habría teorías básicas y globalmente considerado “todo estaría presupuesto en
todo”. Caben alternativas intermedias, con la presencia tanto de algunas teorías básicas
como de algunos círculos metodológicos. Aunque hemos supuesto que en general tales
círculos no se dan (fundacionismo), debe quedar claro que ello no es algo que se pueda
establecer a p rio ri , sino que se debe resolver (meta)empíricamente mediante un detallado
y exhaustivo trabajo de análisis y reconstrucción de conjuntos de teorías.
Hemos iniciado la discusión de la relación de teorización caracterizándola como la
relación que existe entre dos teorías T\ y T0 cuando algunos de los conceptos de T\ vienen
determinados por T0, mientras que otros conceptos de T { no vienen determinados por nin­
guna teoría independiente de 7, y son por tanto ‘Ti-teóricos”. Esta caracterización es más
o menos intuitiva pero por ello mismo también más o menos vaga. Conviene que nuestra
caracterización sea más precisa.
La noción clave aquí, que aún no hemos dilucidado formalmente, es la de d eter­
m inación. Hemos dicho que, cuando T\ es una teorización de T0, algunos conceptos de Ti
vienen determinados en T0 y otros no. Pero ¿qué quiere decir exactamente que los concep­
tos de una teoría son “determinados” en otra? Para elucidar esta cuestión haremos uso de
la concepción modeloteórica de las teorías tal como la hemos expuesto en el capítulo an­
terior, especialmente en su versión estructural. Antes, sin embargo, conviene introducir la
noción general de subestructura.
372 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

D efinición 1 7.7:

Sean dos estructuras * = <D ..... . D m R u R„> y y = <D’U ..., D 'p, R 'i ,..., R%>.
Diremos que y es una subestructura de x, ySx, si y sólo si:
(1 ) p < m a q < n
(2) Vi 3 j D'¡ c i D j { \ < i < p , \ < j < m )
(3) Vi 3 j R'¡ c: R j ( l < i< q, \ < j < n)

Intuitivamente: la estructura y es subestructura de x cuando todos los dominios


de y son subconjuntos (propios o impropios) de algunos dominios de x y m u ta tis m utan-
d is para las relaciones (y funciones) respectivas. La noción de subestructura es pues
simplemente una generalización de la noción elemental de subconjunto. Un caso extre­
mo de subestructura es naturalmente la identidad de dos estructuras; en el otro extremo
tenemos que el conjunto vacío es subestructura de cualquier estructura; un caso interme­
dio de subestructura es lo que en el capítulo anterior llamamos submodelo o “recorte”
de un sistema, esto es, el resultado de suprimir algunas de las relaciones del sistema ori­
ginal. Esta noción de su b estru ctu ra es pues extremadamente general (a veces se usa el
mismo término para otra noción más estrecha, a saber, como Def. 11.1 pero exigiendo
en ( 1 ) p = m y q — n).
Supongamos ahora que los modelos (potenciales) de la teoría Ti tienen la forma
x = <Di, ..., D m i? i,...»R„> (D¡ son los dominios básicos de T\ y Rj las relaciones construi­
das sobre ellos), análogamente supongamos que los modelos (potenciales) de la teoría T q
tienen la forma y - <D'¡, ..., D 'p, R \ , ..., /?%>, con p < m y q < n. Podemos definir ahora
exactamente qué significa que T\ sea teorización de T0. La idea básica es la siguiente:
cuando 7, se considera teorización de T0 es porque toda aplicación intencional x de T\ (es
decir, toda estructura que representa un “pedazo de realidad” al que se pretende aplicar
T\y cf. cap. 10, §5) tiene una subestructura y “determinada por T f en el sentido de que
cumple sus leyes, esto es, y es un m odelo actu a l de Tü (o parte de un modelo actual de 70).
Por otro lado, para que T\ sea una teorización genuina deberá haber un “excedente” de
conceptos no provistos por 70, es decir, todos los modelos (potenciales) de 7) contendrán
una subestructura “ajena” a los modelos de T0.

D efinición 11,2:

Ti es una teorización de T0 si y sólo si:


(1) Vx g l(T i) 3y,z (yS x a ySz a z e M(70))
(2) Vx g M p(T i) 3y (ySx a Vz(z e Mp(TÓ) -> -i ySz)).

En el caso en que en la condición (1) ocurra y = x, tendremos que cada aplicación inten­
cional “completa” de Ti se concibe como un modelo o parte de un modelo de una deter­
minada teoría subyacente, en cuyo caso sería superfluo buscar otras teorías subyacentes
para T u situación que se corresponde a lo que hemos descrito antes como teo riza ció n to ­
tal. Pero, por lo general, las aplicaciones intencionales de una teoría Ti estarán compues­
RELACIONES INTERTEÓRfCAS 373

tas de diversas subestructuras y, / , ... determinadas como modelos de diversas teorías


subyacentes T0, T o,...

3. Reducción
La reducción de una teoría a otra es probablemente el tipo de relación interteórica
que más se ha discutido en la filosofía de la ciencia. Ello se debe a que la relación de re­
ducción se ha conectado con cuestiones epistemológicas y metodológicas de largo alcan­
ce, como son las del realismo (epistemológico), la unidad de la ciencia, el progreso cientí­
fico, etc. En efecto, si todas las disciplinas científicas existentes pudieran reducirse a una
sola (por ejemplo, todas las ciencias sociales a la biología, la biología a la química, la quí­
mica a la física), y dentro de esa disciplina hubiera una sola teoría que redujera a todas las
demás (por ejemplo, la “gran teoría unificada” que persiguen los físicos de partículas),
entonces podríamos considerar el desarrollo científico como un “progreso” hacia una
“unidad” cada vez mayor, en la que todas las teorías quedarían al fin reducidas a una sola
que explicaría todos los fenómenos del universo y que se podría considerar “la verdadera
representación” de “la realidad” tal cual es; tal situación parecería una garantía de conoci­
miento definitivo (cf. más adelante la última sección).
Frente a este programa reduccionista se han planteando objeciones de diversa ín­
dole. Entre ellas, quizá las más frecuentes dentro de la filosofía de la ciencia provienen
de una perspectiva diacrónica: se señala que la repetida manifestación de revo lu cio nes
cien tífic a s , en tanto que rupturas dramáticas en el aparato conceptual y metodológico de
una disciplina, con la concomitante in c o n m en su ra b ilid a d de las teorías involucradas (cf.
cap. 13), dan al traste con la idea de reducir las teorías anteriores a las posteriores en
una revolución; al menos históricamente, según estos críticos, no resulta verosímil el
programa reduccionista para teorías diferentes (y aún menos, si cabe, para las diversas
disciplinas).
Aquí no podemos entrar a fondo en esta discusión. Baste hacer notar, no obstante,
que tanto las tesis reduccionistas como las antirreduccionistas han adolecido a menudo de
cierta falta de rigor conceptual, y que en realidad se puede objetar al reduccionismo radical
sin necesidad de apelar a “revoluciones” e “inconmensurabilidades”. Tan pronto como se
ofrece un concepto exacto y verosímil de reducción se comprueban dos cosas: a) que las
consecuencias epistemológicas y ontológicas de las reducciones, caso de existir, son mucho
menos importantes de lo que la discusión ha sugerido; y b) que hay muchos menos casos
genuinos de reducción de lo que parece y de lo que en obras de divulgación científica suele
sugerirse. Y para darse cuenta de ello no es necesario constatar ninguna “inconmensurabili­
dad”, sino que basta con percatarse de que, incluso en el caso de teorías que pertenecen a
una misma “familia” y que están vinculadas conceptualmente, reducir una teoría a otra es
mucho más arduo de lo que puede esperarse, es una empresa que pocas veces ha culminado
en un éxito total. Con otras palabras, incluso prescindiendo de la problemática de las revo­
luciones científicas y de la inconmensurabilidad, lo cierto es que se han sobrevalorado las
posibilidades de reducir unas teorías a otras.
374 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

A esta dificultad se añade el hecho (debido precisamente a la falta de rigor en el tra­


tamiento del problema) de que muchos supuestos ejemplos de reducciones no corresponden
en realidad al concepto de reducción exacta , que es la reducción propiamente dicha, sino a
lo sumo a lo que podemos llamar una reducción aproxim ativa . De hecho, la relación de
aproximación como relación interteórica, ya sea de carácter reductivo o no, es mucho más
importante y frecuente que la reducción exacta, y aunque en algunos casos la aproximación
revela ciertas semejanzas estructurales con la reducción, sería erróneo equiparar y aún más
identificar ambos conceptos. Muchos ejemplos que se han dado en la literatura científica o
filosófica de reducciones revelan ser, ante un examen más cuidadoso, solamente aproxima­
ciones: éste es el caso para la supuesta reducción de la teoría planetaria de Kepler a la teo­
ría de la gravitación de Newton, de la termodinámica a la mecánica estadística, de la mecá­
nica clásica a la relativista, de la genética mendeliana a la genética de poblaciones, etc. La
relación interteórica de aproximación es, sin embargo, de naturaleza esencialmente más
complicada que otras relaciones interteóricas, en especial la reducción, y su tratamiento re­
queriría de cierto nivel de tecnicismos que no podemos desarrollar en este libro.
No obstante las prevenciones que hemos formulado sobre la tendencia a sobreva­
lorar el tema de la reducción en la ciencia, no cabe duda de que se trata de un tipo impor­
tante de relación interteórica, que conviene precisar y para el cual hay ejemplos concretos
e interesantes. Casos claros de reducción (exacta) de teorías son: la reducción de la mecá­
nica (cartesiana) del choque a la mecánica (newtoniana) de partículas, de la mecánica del
sólido rígido a la mecánica de partículas, de la teoría de los gases ideales a la teoría ciné­
tica, de la electrostática a la electrodinámica y de la genética mendeliana a (cierta versión
de) la biología molecular; probablemente haya otros varios casos que aún no han sido re­
construidos con detalle. Estos casos paradigmáticos de reducciones y las intuiciones aso­
ciadas a ellos pueden guiamos a la hora de formular un concepto viable y bien fundado de
reducción, que además nos pudiera servir más adelante como base para tratar adecuada­
mente su “pariente próximo”, la aproximación reductiva, la cual sin duda reviste cierta
analogía con la reducción exacta.
La intuición básica de la reducción puede ser interpretada tanto en una perspectiva
diacrónica como en una sincrónica. Diacrónicamente, la teoría reducida T p rec e d e a la
teoría reductora T* en el sentido de que representa un estadio más “elemental”, más “sim­
ple”, de nuestro conocimiento de determinada parcela de la realidad. En cierto modo, T ha
de quedar “cubierta” por T* en el sentido de que los logros positivos de T estarán conteni­
dos también en los logros positivos de T*, aunque probablemente no a la inversa. Pode­
mos decir que, sobre el mismo dominio empírico, T* dice lo mismo que ya decía T, pero
lo dice mejor, y además dice otras cosas que nunca dijo T. Desde el punto de vista sincró­
nico, la teoría reducida T con frecuencia representa un modo más rápido y expedito, pero
también “más grosero” de resolver los mismos problemas que se plantean en la teoría re-
ductora T*. Es decir, la teoría reducida simplifica la formulación de los problemas y las
aplicaciones propuestas, haciéndolas más asequibles que su teoría reductora, aunque al
precio de negligir ciertas informaciones relevantes. Así, por ejemplo, podemos tratar del
choque de dos esferas macizas olvidándonos de cómo esas esferas están compuestas de
partículas unidas entre sí por ciertas fuerzas de cohesión; o podemos predecir el cambio
RELACIONES INTERTEÓRICAS 375

de volumen que sufrirá un gas al ser sometido a cierta presión sin preocuparnos del movi­
miento de las moléculas en el interior del gas. La cuestión que nos planteamos ahora es la
de cómo desarrollar un concepto general de reducción que responda a estos ejemplos y a
la idea intuitiva que ellos sugieren.
Hemos dicho que la teoría reductora se refiere en lo esencial al mismo campo de
la experiencia y que contiene la misma información, y más, que la que provee la teoría re­
ducida. Ello sugiere dos cosas. Por un lado, que ambas teorías estarán vinculadas semán­
ticamente, y por tanto que habrá una conexión entre los conceptos de ambas. Y por otro,
que las aseveraciones sobre el mundo que hace la teoría reductora son “más fuertes” que
las que hace la reducida, pero no incompatibles con ellas. Estos dos requisitos intuitivos
de la reducción han sido explicitados en la concepción axiomática de las teorías como las
dos condiciones fundamentales de toda reducción: la condición de conecta b ilid a d y la de
derivabilidad. Cuando en el capítulo 8 presentamos la noción de teoría axiomática ya di­
mos una primera idea de esta noción de reducción (sin tener entonces en cuenta los aspec­
tos empíricos). Recuérdese (cap. 8 , §1) que lo esencial consistía entonces en que una teo­
ría reduce a otra si se pueden definir los términos primitivos de la segunda mediante tér­
minos primitivos de la primera de modo que los axiomas de la segunda se deriven de los
axiomas de la primera más estas definiciones. Este es el núcleo de la idea clásica de re­
ducción (dos referencias básicas para la misma son Kemeny y Oppenheim, 1956, y Na-
gel, 1961, cap. 11).
El requisito de conectabilidad exige que, para disponer de una formulación explí­
cita de la reducción de T a T *t se establezcan ciertas “definiciones coordinadoras” entre
todos los conceptos básicos de T y al menos algunos conceptos básicos de T*. Estas defi­
niciones tendrán en general la forma de condicionales que afirman que, si cierto concepto
C de T se aplica a cierto dominio de objetos D, entonces necesariamente a este dominio D
se aplicará(n) también cierto o ciertos conceptos C f ,..., C* de T* “coordinados” con C.
El segundo requisito, el de derivabilidad, exige que las leyes de T sean todas deducibles
de las leyes básicas de T * junto con las definiciones coordinadoras (y eventualmente al­
gunos enunciados más particulares sobre condiciones iniciales). Tomemos el ejemplo de
la reducción de la mecánica del sólido rígido a la mecánica newtoniana de partículas.
En la primera, un concepto básico es el de sólido rígido y una ley básica es la de conser­
vación del momento angular. En la segunda, tenemos como concepto básico el de partícu­
la y las leyes básicas son el Segundo Principio de Newton y la ley de acción y reacción.
Pues bien, para reducir la primera teoría a la segunda hay que establecer primero una de­
finición coordinadora del concepto de sólido rígido en términos del concepto de partícula,
por la cual se define un sólido rígido como un conjunto de partículas que mantienen dis­
tancias constantes entre sí (y análogamente con las restantes nociones propias de la teoría
reducida); y luego hay que demostrar que, de las leyes de Newton, más la mencionada de­
finición coordinadora, se deduce la ley de la conservación del momento angular. Debe
notarse que aunque las definiciones coordinadoras son afirmaciones generales cargadas
(si la reducción es viable) de cierta n o m icid a d (“necesidad” en virtud de la naturaleza), no
se trata de leyes usuales; se trata más bien de relaciones de co nstitución (sobre esto,
cf. más adelante la última sección).
376 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

Este análisis de la noción de reducción apunta, en lo esencial, en la dirección co­


rrecta; sin embargo, cuando la queremos aplicar a casos concretos, nos percatamos de que
adolece aún de deficiencias, de que es demasiado simplista o idealizada. Ella enfrenta so­
bre todo dos problemas: (i) muchas veces es difícil o inverosímil establecer p a ra cada
uno de los conceptos básicos de 7 una definición coordinadora con conceptos de 7*;
(ii) la deducción de las leyes de 7 a partir de las de 7* muchas veces no puede llevarse a
cabo formalmente, ya sea porque nos faltan precisamente las definiciones coordinadoras
(o las que se han propuesto son intuitivamente inaceptables), o bien porque la derivación
requiere, además, de ciertos postulados o supuestos adicionales difíciles de formular o va­
riables según el tipo de aplicación.
Por ello, aun cuando podemos conservar la noción general de reducción estipulada
antes, es conveniente tomar un enfoque “más global”, que no adolezca de las dificultades
señaladas. De nuevo nos ayudará aquí la versión modeloteórica. Los requisitos fundamen­
tales serán ahora, dicho de manera intuitiva, los siguientes. Primero, en vez de estipular una
coordinación para cada uno de los conceptos de 7 tomado singularmente, requeriremos
simplemente una “correspondencia global” entre el marco conceptual de 7 y el de T*\ ella
será formalmente una relación entre M p(T) y M p(T*). Ahora bien, tal correlación no sólo
deberá existir a nivel de los modelos potenciales respectivos, sino también a nivel de las
aplicaciones 7(7) e 7(7*), o sea, de las porciones del mundo empírico a las que pretenden
aplicarse ambas teorías; toda aplicación intencional de 7 deberá tener su correlato en 7*,
pero no necesarimente a la inversa (en general, 7* tendrá un mayor campo de aplicación
que 7). La correlación entre 7(7) e 7(7*), formalmente hablando, no será exactamente la
misma relación que la que se da entre M p(T) y M p(T *)t pues recuérdese que las aplicacio­
nes intencionales son modelos parciales, esto es, subestructuras resultantes de “recortar” de
los modelos potenciales sus constituyentes 7-teóricos; sin embargo, es una relación “deri­
vada” de la primera, en el sentido de que es esta misma restringida a las subestructuras en
cuestión. Finalmente, el requisito de derivabilidad de las leyes adoptará en esta interpreta­
ción modeloteórica la siguiente forma. Aunque no podamos decir, en sentido estricto, que
las leyes de 7 se deducen de las de 7*, no obstante podremos postular una condición intuiti­
vamente análoga: siempre que una aplicación cumpla las leyes de 7*, es decir, sea extensi-
ble a un modelo actual de 7*, y adem ás cumpla ciertas condiciones específicas, es decir,
sea extensible a un modelo actual de una especialización de 7*, llamémosla 7?, entonces
en 7 el correlato de esa aplicación cumplirá las leyes de la teoría reducida 7, o sea, será ex­
tensible a un modelo actual de 7. Podemos ahora sintetizar estos requisitos en la siguiente
definición; en ella, denotamos añadiendo el subíndice V a la relación que cualquier rela­
ción entre modelos potenciales genera a nivel empírico (7-noteórico): si p es una relación
entre modelos potenciales, p c es el resultado de recortar los constituyentes 7-teóricos de los
modelos potenciales de los pares de p , esto es, pc = r [ p ] . La idea que hay detrás es que en
la reducción no se usa “toda” la teoría reductora sino sólo parte de ella, determinada espe­
cialización (en la definición que sigue, y para simplificar la notación, no usaremos la no­
ción de red teórica sino la de elemento teórico y consideraremos que la teoría reductora-es
un elemento teórico que tiene especializaciones; recuérdese que la relación a es la relación
de especialización entre elementos teóricos, cf. cap. 10, §5).
RELACIONES INTERTEÓRICAS 377

D efinición 11.3:

Sean M p(T ), M (T ), /(T), respectivamente, los conjuntos de modelos potenciales,


modelos actuales y aplicaciones intencionales de T, y análogamente Mp(T*)>
M ( T *), I(T *) respecto de T*.
T es reducible a 7** si y sólo si existe una relación p tal que:
(1) p c M p{T) x M p{T*).
(2) I{T) c Dom pe y pc[/(7)] c /(7*).
(3) Vy, y* ( < y , y*> e pc A y * e !(T *) —> o P A y * e r[M (r*')]) —> y
6 r[M (T ) ] )).

La primera condición establece simplemente que ambas teorías están “globalmente corre­
lacionadas” a nivel de sus marcos conceptuales. La segunda condición establece que la
relación pc generada por p a nivel no-teórico (empírico) conecta también globalmente las
aplicaciones, con la especificación adicional de que toda aplicación intencional de T de­
berá tener un correlato en T* (aunque no necesariamente a la inversa). La tercera condi­
ción dice, de cada par de aplicaciones correlacionadas, que si la “aplicación reductora”
cumple ciertas leyes especiales de la teoría reductora (más, por supuesto, las leyes funda­
mentales de la misma), entonces la “aplicación reducida” cumplirá necesariamente las le­
yes fundamentales de la teoría reducida. En este sentido, dichas leyes se “derivan” de las
primeras: que cierta aplicación es subsumible bajo la teoría reductora implica que su co­
rrelato es subsumible bajo la teoría reducida; esto es, que la reducida se aplique con éxito
“se deriva” de que la reductora se aplica con éxito. Por otro lado, debe notarse que la con­
dición (3) no exige que la especialización Pf de T* sea siempre la misma para cada par de
aplicaciones correlacionadas; en algunos casos puede que sea así, pero en otros la espe­
cialización escogida puede que varíe según ciertos tipos de aplicaciones intencionales
consideradas en una y otra teoría.4

4. Equivalencia

La relación de equivalencia entre teorías también ha jugado un papel considerable


en discusiones epistemológicas generales, aunque quizá no de manera tan controvertida
como en el caso de la reducción. La significación de la equivalencia en términos genera­
les estriba en que, cuando ella se da, dos teorías que a primera vista parecen muy distin­
tas por sus conceptos y leyes, resulta, no obstante, que “hablan de lo mismo” o que apor­
tan la misma información sobre la misma porción de realidad. De ahí puede inferirse fá­
cilmente la conclusión epistemológica general de que no tiene por qué haber univocidad
en el tratamiento teórico adecuado de la misma parcela de nuestra experiencia. Diversas
teorías pueden ser igualmente aptas para explicar el mundo que nos rodea, ninguna de
ellas es la verdadera en un sentido absoluto. Así, por ejemplo, podemos desarrollar una
teoría de las relaciones espaciales en la que partimos del concepto básico de “punto geo­
métrico” y definimos las líneas como sucesiones infinitas de puntos; o bien, alternativa-
378 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

mente, podemos partir del concepto de “línea recta” como concepto básico y definir los
“puntos” como las intersecciones de líneas rectas. Si escogemos bien los axiomas de una
y otra teoría, la que trata primordialmente de puntos y la que trata primordialmente de lí­
neas, constataremos que, aunque aparentemente las dos teorías hablan de cosas distintas,
ambas establecen exactamente las mismas relaciones espaciales entre los objetos que po­
demos comprobar en nuestra experiencia cotidiana, y en este sentido “hablan de lo mis­
mo”. En otro campo, el del movimiento de los cuerpos, constatamos que la teoría mecáni­
ca de Newton y la teoría mecánica de Lagrange, aunque construidas sobre conceptos y
principios distintos, conducen a los mismos resultados empíricos sobre el movimiento de
los cuerpos en general; por ello es frecuente leer en los libros de texto de física que la me­
cánica newtoniana y la mecánica lagrangiana son dos “formulaciones equivalentes” de la
mecánica clásica.
Al tratar el tema de la equivalencia de teorías y sus consecuencias epistemológi­
cas conviene, sin embargo, distinguir dos tipos generales de equivalencia que muchas
veces se confunden: la que podemos llamar eq u iva len cia fu e r te , o equivalencia “en sen­
tido estricto”, y la que llamaremos eq u iva len cia em p írica , que es más débil. En el
primer caso, aunque conceptos y leyes de una y otra teoría sean distintos, hay una co­
rrespondencia plena y biunívoca entre ambas teorías, de modo que todo lo que puede
decirse en la primera teoría puede traducirse sin pérdida de información a la segunda, y
viceversa. Es decir, hay una correspondencia exacta entre ambas teorías tanto a nivel
conceptual como a nivel del contenido de sus afirmaciones respectivas. El ejemplo de la
correlación entre una “geometría de puntos” y una “geometría de líneas” es de esta na­
turaleza.
En el caso de la equivalencia empírica, más débil, ese paralelismo sólo se da a ni­
vel de los datos empíricos que cubren ambas teorías: todo dato predicho por una teoría es
también predicho por la otra, y a la inversa. Y, sin embargo, puede que no haya una corre­
lación plena ni entre los conceptos ni entre las leyes de ambas teorías, de modo que no
pueden derivarse las leyes de una teoría a partir de las de la otra, ni a la inversa. En tales
casos pueden existir serias divergencias teóricas entre ambas teorías, las cuales, no obs­
tante, no se traducen en divergencias en el campo de lo que podemos experimentar: las
teorías dicen “más” de lo que dice la experiencia que ellas cubren. Es en este caso en el
que piensa Quine cuando insiste en la Tesis de la Indeterminación de la Teoría por la
Experiencia: el mismo dominio de datos experimentales es igualmente compatible con
dos o más teorías, las cuales, sin embargo, son incompatibles entre sí a nivel teórico (de
ello nos ocuparemos por extenso cuando estudiemos en el próximo capítulo el problema
de la inducción; recuérdese también el argumento de van Fraassen que examinamos en el
capítulo 1 0 ).
Si bien la equivalencia/«eríe o estricta aparece con bastante frecuencia no sólo en
geometría, sino en la mayoría de las ramas de la matemática pura, es dudoso que ella jue­
gue un gran papel en las ciencias empíricas propiamente dichas (excepto en casos trivia­
les como el de dos teorías físicas que se distinguen solamente por un cambio de nota­
ción). Se ha solido señalar el ejemplo, ya mencionado, de la relación entre la mecánica de
Newton y la de Lagrange como caso de equivalencia fuerte en la física; sin embargo, un
RELACIONES INTERTEÓRICAS 379

análisis formal detenido de este ejemplo, como el que se ha realizado dentro de la concep­
ción esLructuralista, muestra que la equivalencia fuerte es válida sólo si se hacen ciertos
supuestos (generalmente implícitos) acerca de la estructura global de ambas teorías que
están lejos de haber sido confirmados (cf. Balzer, Moulines y Sneed, 1987, cap. VI, §5.1).
La cuestión de la equivalencia “Newton-Lagrange” sigue, en realidad, abierta. Con más
razón aún puede decirse ello de otros ejemplos que suelen aducirse en la física, como la
supuesta equivalencia entre la mecánica de Newton y la de Hamilton, o entre la mecánica
ondulatoria y la mecánica de matrices en la física cuántica; lo más probable es que éstos
sean sólo casos de equivalencia empírica.
Dada la importancia de la distinción entre equivalencia fuerte y equivalencia em­
pírica, conviene establecerla de la manera más rigurosa posible, pues ello también puede
facilitar el examen de ejemplos concretos. Utilicemos de nuevo para ello nuestro aparato
modeloteórico habitual.
Hemos dicho, de manera intuitiva, que en el caso de la equivalencia fuerte todo lo
que puede decirse en una teoría halla su correlato exacto en la otra, y a la inversa; o
sea que hay un paralelismo estricto tanto a nivel del aparato conceptual como de las leyes
y sus aplicaciones. En nuestros términos modeloteóricos ello significa una correlación
tanto a nivel de los modelos potenciales y aplicaciones intencionales como a nivel de los
modelos actuales. Y tomando en cuenta la noción de reducción que hemos explicado más
arriba es plausible entonces interpretar la equivalencia entre dos teorías como reducción
“de doble vía”: una teoría es equivalente a otra cuando la primera es reducible a la segun­
da y la segunda lo es a la primera. Llegamos así a la siguiente definición.

D efinición 1 L 4 \

T\ es equivalente en sentido fu e r te a T2 si y sólo si 7) es reducible a T2 y T2 es re­


ducible a T\ (en el sentido de la Def. 11,3).

La elucidación de la equivalencia meramente empírica no es tan inmediata y re­


quiere de una decisión previa acerca de qué se debe entender por “igualdad de datos em­
píricos”. En el espíritu de muchos autores está la idea de apelar a situaciones observacio-
nales neutrales; sin embargo, en diversas ocasiones en esta obra hemos señalado el carác­
ter problemático de la idea de una “observación pura”, y hemos constatado la necesidad
de separar en principio las nociones de o b serva b ilid a d y em p iricid a d y admitir sólo una
“empiricidad” relativa a cada teoría. Dentro de nuestro marco modeloteórico, esa noción
viene fijada por el dominio de las aplicaciones intencionales de cada teoría. De acuerdo a
esta interpretación, la equivalencia empírica entre dos teorías consistirá entonces en una
equivalencia meramente al nivel de las aplicaciones intencionales: una correlación entre
los dominios de aplicaciones intencionales de ambas teorías de tal naturaleza que, siem­
pre que una aplicación intencional de una teoría sea extensible a un modelo actual de la
misma (o sea, cumpla las leyes de esa teoría), entonces su correlato en la otra teoría cum­
plirá lo mismo, y recíprocamente. He aquí la especificación formal de esta idea (para sim­
380 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

plificar, no hacemos mención en ella de las restricciones cruzadas o condiciones de liga­


dura, cf. cap. 10, §5).

D efinición 11.5:

Ti es em pírica m en te equivalente a T2 si y sólo si existe una relación £ tal que:


(1) e c / ( r , ) x 7(72).
(2) Vy,, y 2 ( < y u y i> e £ -Hji € r[Af(ri)] y2e r[M(r2)])).
Nótese que, en esta definición de equivalencia empírica, no se especifica nada
acerca de cómo estén correlacionados los modelos potenciales de ambas teorías, si es que
lo están de alguna manera; tampoco se dice nada acerca de los modelos actuales; en parti­
cular, no se infiere de ella que si un modelo actual ;ci de T\ tuviera un correlato x 2 en T2,
este último sería necesariamente también un modelo actual de T2.

5. Apéndice: C iencia especial y ciencia básica; reducción,


m últiple realizabilidad y superveniencia (*)

En esta última sección vamos a retomar el problema de la relación entre las cien­
cias especiales y la ciencia básica. Aunque en la literatura se plantea el problema sobre
todo en relación a la psicología y la neurociencia (problema mente-cerebro), concep­
tualmente el problema es general. Se trata de precisar la supuesta “relación de depen­
dencia” entre diversos pares de disciplinas científicas; por ejemplo, psicología/neurolo-
gía, lingüística/psico-sociología, biología/química, o química/física; en realidad plan­
tear esta cuestión para disciplinas enteras es inapropiado, lo adecuado sería hablar de la
relación de dependencia entre teorías concretas de estos pares de disciplinas. La cues­
tión es pues determinar hasta qué punto las explicaciones de (teorías de) las ciencias es­
peciales “descansan” en explicaciones de (teorías de) ciencias más básicas, hasta llegar
eventualmente, mediante una cadena de sucesivas dependencias explicativas, a una su­
puesta ciencia básica (¿microfísica?). Hicimos algunas consideraciones preliminares so­
bre esta cuestión en el capítulo 5, cuando examinamos la noción de ley no estricta o ley
ceteris p a rib u s (§4), y también al comienzo de la sección 3 de este capítulo, al presentar
la idea de reducción. Vamos a examinar ahora las diferentes posiciones al respecto con
un poco más de detalle.
Aunque algunos aspectos de este problema se pueden tratar más satisfactoriamen­
te desde una perspectiva modeloteórica global, vamos a limitarnos ahora a la perspectiva
axiomática “enunciativa” clásica, pues así es como se presenta y discute en la literatura y
los aspectos a que nos vamos a ceñir en este apéndice pueden abordarse de modo intere­
sante ya en términos tradicionales.
Recordemos que en la perspectiva axiomática clásica las relaciones de depen­
dencia o reducción se contemplan, no de forma global, sino de forma local, térmi­
no-a-término (concepto-a-concepto, propiedad-a-propiedad). Se trata de ver hasta qué
RELACIONES INTERTEÓRICAS 381

punto un recurso conceptual de una teoría es “dependiente en su función explicativa” de


otros recursos conceptuales de otras teorías “más básicas”. O en términos de propiedades,
hasta qué punto unas propiedades “macro” dependen de, o se reducen a, propiedades “mi­
cro”. La intuición, p.ej. en el caso de la psicología, es que puesto que los psiquismos, las
mentes, están alojados en los cerebros y éstos están compuestos de neuronas, las propie­
dades psíquicas dependen de algún modo de propiedades neurológicas; o puesto que las
sustancias químicas están formadas por partículas físicas, las propiedades químicas de­
penden de algún modo (son el resultado) de propiedades físicas; y análogamente en los
restantes casos. A las primeras las vamos a considerar teorías m a cro , y a las segundas
teorías m icro. Antes de abordar directamente este problema vamos a presentar dos distin­
ciones importantes en relación al mismo.

5 .1 . D ist in c io n e s p r e v ia s : t é r m in o s g e n e r a l e s , c o n c e p t o s e x p r e s a d o s
y e n t id a d e s d e n o t a d a s ; a c a e c im ie n t o - e je m p l a r y a c a e c im ie n t o - t ip o

Expresada en términos lingüísticos, la cuestión que vamos a tratar consiste en de­


terminar cuál es la relación entre los conceptos expresados, y las propiedades denotadas,
por los predicados de las teorías macro y los predicados de las teorías micro. La primera
distinción tiene que ver con los diferentes niveles que se hallan involucrados en las diver­
sas alternativas, el lingüístico, el conceptual o semántico, y el ontológico.
En lo que sigue, distinguiremos cuidadosamente entre: a) los términos generales
o predicados, como ‘agua’, ‘rojo’, ‘sentir dolor’, o tí) los conceptos (significados o
contenidos conceptuales) expresados por los términos generales, como el concepto de
agua, el de ro jo , el de sen tir dolor, o el de m o lécula fo r m a d a p o r dos átom os de h id ró g e­
no y uno de oxígeno', y c) las entidades, sustancias o propiedades, denotadas por los tér­
minos generales, como la sustancia agua, la propiedad de ser rojo, la de sentir dolor, etc.
(a diferencia del resto de la obra, en este apéndice no usaremos cursivas para las mayús­
culas que refieren a propiedades porque las cursivas se reservan para los conceptos).
Puesto que a veces se usa ‘significado’ de modo ambiguo, para referirse unas veces al
concepto expresado y otras a la entidad denotada, en general tenderemos a no usar dicho
término y hablar directamente de los conceptos expresados o las entidades denotadas; en
la medida en que lo usemos, lo usaremos, salvo advertencia en contrario, con el primer
sentido. Insistimos en que esta distinción es fundamental, pues se puede defender que
aunque los significados conceptuales de dos predicados de dos ciencias son diferentes,
ambos denotan la misma entidad.
La segunda distinción, en términos de la cual se suelen presentar las diferentes al­
ternativas en la literatura, es entre acaecim ientos tipo ( ‘typ e ’) y acaecim ientos ejem p lar
C to kerí). Recordemos (cf. cap. 5, §3) que los acaecimientos son determinada especie de
entidades particulares. Un objeto particular es cualquier entidad espacial y/o temporal­
mente localizada (p.ej. el auto de Adela, esta pantalla de ordenador, el cuerpo calloso del
cerebro de Quine, la imagen de la estatua de Colón en el córtex de Pedro ayer a las 14,30,
etc.); los acaecimientos particulares (tanto los p ro ceso s como los estados) son cualquier
382 FUNDAMENTOS DE FILOSOFÍA DE L.A CIENCIA

cosa que ocurre o sucede en cierto lugar durante cierto intervalo temporal (p.ej. la batalla
de Waterloo, el último partido de fútbol Barcelona-Madrid, la salida de Juan de la carrete­
ra ayer en la Costa Brava, etc.)- Tanto objetos como acaecimientos son entidades particu­
lares que pueden tener diversas propiedades. Un mismo objeto particular puede tener mu­
chas propiedades diferentes (p.ej. esto que está aquí abajo tiene la propiedad de ser una si­
lla, pero también las de ser azul, ser cómoda, estar aquí debajo, o ser mencionado en este
libro); también un mismo acaecimiento particular puede tener diversas propiedades (p.ej.
eso que ocurrió el martes sobre la estatua de Colón de Barcelona tiene la propiedad de ser
la caída de un rayo, pero también las de ocurrir de día, asustar a Rosa, producir un cor­
tocircuito en el funicular, ocurrir sobre la estatua de Colón, o ser mencionado en este
escrito).
Cada particular concreto (objeto o acaecimiento) es un caso o ejem p la r (‘tokerC )
de las propiedades que ejemplifica. Dos ejemplares son del mismo tipo C ty p e ’) si com­
parten determinada propiedad. El auto de José y el de Adela son dos ejemplares diferen­
tes de un mismo tipo (de objeto), Opel Corsa; la enfermedad de Rosa y la de Pedro son
ejemplares diferentes de un mismo tipo (de proceso), infección gripal; la disfunción de
María y la de Fernando son ejemplares diferentes de un mismo tipo (de estado), amne­
sia; los estados mentales de Enrique y Eugenia en la Nochevieja de 1996 son ejemplares
de un mismo tipo, creencia de que en el Año Nuevo de 1997 lloverá. Dos particulares
son o no del mismo tipo dependiendo de las propiedades que se tomen en consideración.
Si consideramos cierta propiedad, el vehículo de José y el de Adela son del mismo tipo,
un automóvil Opel Corsa, y de diferente tipo que el de Eduardo, un Seat Ibiza. Si consi­
deramos otra propiedad, los tres son del mismo tipo, a saber, “vehículo a motor ligero
de cuatro ruedas", y de diferente tipo, por ejemplo, que la motocicleta de Luis. Y aún,
según otra propiedad, los coches de Adela, Eduardo y José y la motocicleta de Luis son
del mismo tipo “vehículo terrestre a motor”, y de diferente tipo que la bicicleta de Pedro
o el barco de vela de Ana. Etcétera. Y lo mismo ocurre con los acaecimientos. Según se
considere cierta propiedad, lo que le pasó a Juan ayer en la Costa Brava y lo que le pasó
en Nochevieja a Rosa son acaecimientos del mismo tipo, accidentes de auto, y de dife­
rente tipo a lo que le ha pasado esta mañana a Luis, un accidente de tren. Pero si consi­
deramos otra propiedad más abstracta o general, los tres acaecimientos son del mismo
tipo, accidentes, y de diferente tipo que lo acaecido en Año Nuevo a Marta, recibir un
premio de lotería. Etcétera.
Así pues, hablar de tipos de objetos o acaecimientos no es en el fondo sino otro
modo de hablar de determinada propiedad que ejemplifican. Esta distinción es impor­
tante para no confundir cuestiones diferentes. La pregunta acerca de si la creencia de
Enrique de que lloverá en el Año Nuevo de 1997 es o no la misma entidad que el acae­
cimiento cerebral de tener las neuronas H en el estado 23, es ambigua. Una cosa es si
son el mismo acaecimiento token y otra si son el mismo acaecimiento type, esto es, el
mismo tipo de acaecimiento: sí la propiedad de ser tal creencia es la misma propiedad
que la de tener tales neuronas en tal estado. Como veremos, puede defenderse que son el
mismo acaecí miento-ejemplar pero diferentes acaecimientos-tipo, es decir, que es un
único acaecimiento particular que tiene dos propiedades d iferen tes (análogamente a
RELACIONES INTERTEÓRICAS 383

como eso que ocurrió sobre la estatua de Colón tiene propiedades diferentes). En lo que
sigue será esencial tener presente esta distinción.

5 .2 . I d e n t id a d conceptual. R e d u c c io n is m o s e m á n t ic o

El grado máximo de dependencia entre una ciencia especial y una ciencia básica,
o mejor entre predicados de la primera y de la segunda, es el reduccionismo semántico:
los dos predicados significan lo mismo, son sinónimos, expresan el mismo concepto. O,
si se prefiere, uno da el significado del otro: el concepto expresado por el predicado ‘E’
de la ciencia especial se reduce a, se identifica con, el concepto expresado por determina­
do predicado ‘B’ de la ciencia básica. Se trata pues de una identidad entre los conceptos
expresados o significados por ambos predicados.
Ejemplos independientes de la relación entre ciencias especiales y ciencia básica
provienen de los casos usuales de sinonimia en los que una expresión explícita el signifi­
cado conceptual de otra. Por ejemplo, ‘soltero’ y ‘varón adulto no casado’; o más intere­
sante, ‘agua’ y (supongamos) ‘sustancia inodora e insípida, que en estado líquido es (sin
impurezas) incolora y que (en diversas disoluciones) conforma los lagos, ríos y mares;
que en estado sólido constituye las nieves, hielos, etc.’. Así, aunque las expresiones lin­
güísticas ‘agua’ y ‘sustancia incolora, [etc.]’ son expresiones lingüísticas diferentes, los
conceptos a g u a y su sta n cia incolora, [etc .) son el mismo concepto, análogamente a como
las diferentes expresiones ‘silla’ y ‘chair’ expresan el mismo concepto silla (aunque en
este caso una no “da” el significado de la otra).
Ésta es la tesis que defendía el conductism o lógico sobre la relación entre lo men­
tal y lo conductual. Según los conductistas lógicos (cf. p.ej. Hempel, 1949; Ryle, 1949 y
Wittgenstein, 1958), los predicados mentales expresan conceptos conductuales disposi-
cionales. Por ejemplo, ‘tener sensación de dolor’ y ‘tener la disposición a chillar en tales
circunstancias, a retorcerse en tales otras, a [etc.]’ tienen el mismo significado conceptual;
el concepto sen sa ció n de d o lo r y el concepto ten er la d isposición a ch illa r s i .... a reto r­
cerse si... [etc.] son el mismo concepto, en el mismo sentido en que agua y sustancia in o ­
dora, insípida [etc.] son el mismo concepto. Y análogamente, por ejemplo, con los predi­
cados ‘creer que va a llover la próxima hora’ y (p.ej.) ‘tener la disposición a tomar un pa­
raguas si se desea salir de casa, a recoger la ropa si no se quiere que se moje, a [etc.]’. Si
el conductismo lógico fuese correcto, esto sucedería con todo predicado mentalista.
El modo de evaluar una hipótesis sobre una identidad conceptual específica es de­
terminando si es o no conceptualm ente p o sib le que se ejemplifique una propiedad sin que
se ejemplifique otra. Si ‘E* expresa el mismo contenido conceptual que ‘B \ entonces una
situación en la que un particular tenga la propiedad E y no tenga la propiedad B es con­
ceptualmente imposible. Alternativamente: si tal situación es conceptualmente posible
(incluso aunque no sea nómicamente posible), entonces los conceptos expresados por am­
bos predicados no pueden ser el mismo (sobre posibilidad conceptual y nómica, cf. cap.
5, §1). Ésta es la estrategia que usó Putnam para “refutar” el conductismo lógico. Putnam
(cf. 1963) diseñó un experimento mental que a su juicio presenta una situación perfecta­
384 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

mente concebible (aunque quizá biológicamente imposible) en la que unos sujetos (su-
per-super-espartanos, los denomina) tienen dolor pero no tienen ninguna disposición a la
conducta, no ya gestual sino ni siquiera verbal.
El conductismo lógico radical tiene otros problemas, como los derivados del ho-
lismo de lo mental, que no vamos a comentar aquí. Tras su, por lo general reconocido,
fracaso, algunos filósofos de la psicología han propuesto otra alternativa también reduc­
cionista conceptual pero mucho más plausible. Se trata del fu n c io n a lism o a nalítico, se­
gún el cual los predicados mentalistas significan conceptos funcionales, donde un concep­
to funcional es un concepto que establece las relaciones de causa-efecto, el rol ca u sa l , de
los estados de un sistema computacional (cf. p.ej. Putnam, 1967; Fodor, 1968 y Lewis,
1972; para una buena exposición, García-Carpintero, 1995).

5.3. I d e n t id a d d e t ip o s o p r o p ie d a d e s . R e d u c c io n is m o o n t o l ó g ic o

El reduccionismo semántico, incluso si se da en algunas ocasiones (por ejemplo,


entre predicados mentalistas y funcionalistas, si los funcionalistas analíticos tienen ra­
zón), es demasiado fuerte para dar cuenta de todas las situaciones en que consideramos
intuitivamente que unas explicaciones dependen de otras. Es obvio que si los conceptos
expresados son los mismos, las propiedades denotadas también lo serán. Pero muchas ve­
ces ocurre lo segundo sin lo primero, los predicados denotan la misma propiedad aunque
signifiquen conceptos diferentes. Este tipo de situación en la que términos lingüísticos
que expresan contenidos conceptuales diferentes denotan o refieren una misma entidad
son conocidas de antiguo y tematizadas en semántica al menos desde Frege. La distinción
fregeana entre el sentido y la referencia de una expresión pretende justamente dar cuenta
de ella; esto es lo que sucede con las descripciones ‘la mujer de Edipo’ y ‘la madre de
Edipo’, puesto que ambas nombran a Yocasta, o en el ejemplo preferido de Frege, entre
‘la estrella de la mañana’ y ‘la estrella de la tarde’, que nombran a Venus.
Pues bien, algo análogo sucede con algunos predicados o términos generales. Los
casos interesantes, a nuestros actuales efectos, son aquellos en los que (contrariamente a
lo que sucede con las diferentes descripciones para Venus o Yocasta) uno de los predica­
dos se puede considerar más básico o más fundamental que el otro. Esto es lo que sucede,
por ejemplo, con ‘agua’ y ‘H 20 \ o con ‘temperatura’ y ‘energía cinética media’. Hemos
visto que ‘agua’ no significa conceptualmente lo mismo que lH 20 \ ‘agua’ no expresa el
concepto su sta n cia constituida p o r m oléculas fo rm a d a s p o r dos á to m o s de hid ró g en o y
uno de oxígeno. Si significara dicho concepto, todo usuario competente del predicado
‘agua’ debería poseer dicho concepto, lo que no es el caso; dicho término se ha usado
competentemente durante siglos antes del descubrimiento de la química molecular, antes
de disponer del concepto de m olécula, y todavía hoy muchos de los usuarios competen­
tes de dicho término no tienen ni idea de química. Y lo mismo sucede con ‘temperatura’,
un predicado del lenguaje ordinario, y también de una teoría científica sencilla, la termo­
dinámica fenomenológica, y ‘energía cinética media’, un predicado de la mecánica esta­
dística. Aunque ‘temperatura’ y ‘energía cinética media’ significan conceptos diferentes
RELACIONES INTERTEÓRiCAS 385

(el primero se usaba correctamente antes de saber nada de mecánica, y menos de mecáni­
ca estadística) de hecho denotan la misma magnitud física (algo que ignoran la mayoría
de los usuarios competentes del primer predicado). La temperatura es la energía cinética
media, como el agua es H 20. En este sentido una propiedad se reduce a, d epende de, o
descansa en otra; no son sólo los mismos fenómenos-ejemplar, sino los mismos fenóme­
nos-tipo. Por tanto, no hay en realidad dos propiedades diferentes tales que una descanse
en otra. Sólo hay diferentes conceptos, la propiedad es la misma.
El reduccionismo ontológico, la identidad de propiedades, es la posibilidad más
fuerte después del reduccionismo semántico. El modo más radical de explicar cómo es
que fenómenos que describimos m ediante a p aratos conceptuales diferen tes son tales que
uno descansa en otro, consiste en que no haya en realidad d o s tipos de fenómenos sino
sólo uno. Esta es la tesis que defienden en filosofía de la psicología los llamados teóricos
de la identidad p sico fisica (cf. p.ej. Feigl, 1958 y Smart, 1959). Según estos autores, aun­
que el concepto sen tir d o lo r no es el mismo concepto que ten er las fib r a s H a ctiva d a s , la
propiedad de sentir dolor es de hecho la propiedad cerebral de tener las fibras H activa­
das, en exactamente el mismo sentido en que ser de agua es la misma propiedad que ser
de H20 , o “tener mayor temperatura que” es la misma propiedad (relacional) que “tener
mayor energía cinética que”. Los predicados mentalistas son nombres diferentes, que ex­
presan conceptos diferentes, para las propiedades cerebrales.

5 .4 . M ú l t ip l e r e a l iz a b il id a d

Las hipótesis sobre identidades ontológicas son hipótesis empíricas y se deben


evaluar por tanto empíricamente, investigando si de hecho el predicado ‘E ’ denota efecti­
vamente la misma propiedad o sustancia que el predicado ‘B \ En muchos casos es senci­
llo ver que no es así, que el reduccionismo ontológico es todavía una hipótesis demasiado
fuerte. El ejemplo más sencillo lo ofrecen las propiedades disposicionales, como las de­
notadas por los predicados ‘elástico’, ‘soluble’, ‘frágil’ o ‘rojo’. Estos predicados expre­
san un concepto según el cual un objeto tiene la propiedad en cuestión si en determinadas
circunstancias reacciona de cierto modo (cf. cap. 8 , §4). Así, por ejemplo, un objeto es
frágil si en caso de que se aplicara sobre él determinada presión tangencial el objeto se
quebraría; o una superficie es roja si en caso de que incidiera sobre ella luz blanca la su­
perficie absorbería tales frecuencias del espectro. Pues bien, las propiedades disposiciona­
les descansan en propiedades físicas. Si un objeto es frágil lo es en virtud de ser microfí-
sicamente como es; si una superficie es roja lo es en virtu d de ser microfísicamente como
es. Se dice entonces que las propiedades disposicionales macro se realizan mediante pro­
piedades físicas micro. Lo característico de estos casos es que ahora no podemos explicar
esta dependencia entre propiedades macro y propiedades micro del modo más sencillo, a
saber, mediante la identidad de propiedades, pues claramente cada p ro p ied a d disposicio-
n a l no se p u ed e id en tifica r con una única p ro p ied a d m icrofísica. Las propiedades dispo­
sicionales se realizan mediante propiedades microfísicas, pero simplemente ocurre que la
propiedad microfísica que realiza la propiedad disposicional no es la misma en todos los
386 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

casos. En cada caso particular de objeto frágil, la fragilidad “se debe” a cierta propiedad
microfísica del objeto, pero en diferentes objetos la propiedad realizadora es diferente. En
unos objetos, por ejemplo los de yeso, la fragilidad se realiza mediante una propiedad fí­
sica; en otros, por ejemplo los de vidrio, se realiza mediante otra diferente. El yeso y el
vidrio son ambos frágiles y sin embargo microfísicamente no tienen nada en común (sal­
vo, claro está, que ambos “realizan” la fragilidad). Lo mismo sucede con el resto de las
propiedades disposicionales. Por ejemplo, una determinada tela y una determinada super­
ficie plástica pueden ser ambas rojas, pero microfísicamente no tienen nada en común; la
propiedad microfísica que realiza la rojez es diferente en cada caso.
A esta característica, ejemplificada típicamente por las propiedades disposiciona­
les, se la suele denominar m últiple realizabilidad. Una propiedad macro es múltiplemente
realizable si: á) el que cada objeto particular la tenga depende de que el objeto tenga de­
terminada propiedad micro, pero b) en diferentes objetos particulares la propiedad corres­
ponde a diferentes propiedades micro. En tal caso, no sólo el concepto expresado por el
predicado macro es diferente al expresado por predicados micro, sino que ni siquiera se
puede identifica r la propiedad macro con una propiedad micro determinada. Cuando las
propiedades macro son múltiplemente realizables no es posible explicar la dependencia
entre propiedades macro y propiedades micro reduciendo o identificando las primeras
con las segundas. En estos casos la identidad de tipos-propiedades, el reduccionismo on-
tológico, no es una explicación viable. Se puede pretender quizá que la propiedad macro
es idéntica, no a una propiedad micro “atómica” sino a una propiedad micro “disyuntiva”.
Así, si la propiedad macro E se realiza múltiplemente mediante las propiedades atómicas
micro B l, B 2 ,..., Brc se podría identificar quizá la propiedad E con la “propiedad disyun­
tiva” B l-o-B2-...-o-Bn. Sin embargo esta estrategia del reduccionista requiere aceptar que
cualquier disyunción (en general combinación) de propiedades es también una propiedad,
lo cual en opinión de muchos requiere a su vez una metafísica de las propiedades inacep­
table. Es muy implausible que cualquier predicado molecular denote una propiedad, al
menos una propiedad n a tu ra l , que es de lo que aquí se trata. Una vez más surge aquí la
cuestión de la diferencia entre propiedades “naturales” y “no naturales” en la que no va­
mos a detenernos aquí (cf. cap. 5, §2 y §6 , y cap. 7, §5 y §6 ).
Según muchos críticos de la teoría de la identidad psicofísica, esta teoría está
condenada al fracaso precisamente porque con las propiedades mentales pasa lo mismo
que con las disposicionales, a saber, que aunque se realizan mediante propiedades neu-
ro-bio-físicas, son también múltiplemente realizables y por tanto no se puede id en tificar
cada propiedad mental con una propiedad neuro-bio-física (de hecho, para muchos, las
propiedades mentales son un tipo de propiedades disposicionales, a saber, propiedades
funcionales). No sólo atribuimos algunas propiedades mentales básicas (p.ej. percepción
de formas) a seres que no tienen una morfología nerviosa como la nuestra (p.ej. pulpos),
sino que, limitándonos a los humanos, ocurre que un mismo proceso mental, especial­
mente en capacidades complejas, puede realizarse mediante procesos cerebrales de dife­
rente tipo; por ejemplo, cuando una zona del cerebro ha resultado dañada, una zona veci­
na morfológicamente diferente asume la función de la dañada (en esto consiste parte de la
denominada p la stic id a d del cerebro).
RELACIONES INTERTEÓRICAS 387

5 .5 . D u a l is m o d e p r o p ie d a d e s c o n id e n t id a d d e e je m p l a r e s y s u p e r v e n ie n c ia

Cuando las propiedades macro se realizan múltiplemente mediante propiedades


micro, no podemos explicar la dependencia de las primeras respecto de las segundas ape­
lando a la identidad de tipos, a que simplemente las propiedades son idénticas. Y sin em­
bargo hay que elucidar esa dependencia de algún modo, pues en un sentido preanalítico
intuitivo unas “descansan” en otras (claramente en casos como las disposicionales y quizá
también en otros casos). La dificultad reside en que en estos casos las propiedades micro
realizadoras son efectivamente otras, esto es, diferentes a las propiedades macro que
realizan.
Así pues, cuando hay múltiple realizabilidad la identidad de tipos es inviable. Se
pensará que todavía queda la identidad de ejemplares, pero la identidad de ejemplares p o r
s í sola es demasiado poco, no puede dar cuenta de la dependencia entre los dos niveles.
Pensemos en el acaecimiento en que se vio envuelto Juan ayer en la Costa Brava. Tene­
mos un mismo acaecimiento-ejemplar con diversas propiedades, por ejemplo, la propie­
dad de ser un accidente y la propiedad de ocurrir en primavera. Ambas propiedades son
propiedades diferentes d e l m ism o acaecimiento particular. Y no pensamos que haya una
dependencia entre ambas propiedades, no pensamos que el que haya sido un ejemplar del
tipo “accidente” depende de que haya sido un ejemplar del tipo “ocurrido en primavera”,
o viceversa. Sin embargo, en muchos casos, como los que involucran propiedades dispo­
sicionales, sí consideramos que hay tal dependencia. Aceptamos que un mismo objeto
particular tiene diversas propiedades, la propiedad de ser frágil y la propiedad de tener tal
y cual estructura microfísica, pero no nos basta con eso, pues creemos además que el que
dicho objeto particular tenga la primera propiedad d epende de que tiene la segunda.
Aceptamos que un mismo acaecimiento-ejemplar tiene diversas propiedades, la propiedad
de ser una sensación de dolor y la propiedad de activarse las fibras H, pero no nos basta
con eso pues creemos además que el que dicho acaecimiento particular tenga la primera
propiedad d epende de que tiene la segunda. Debe quedar claro que si lo único que tene­
mos es identidad de ejemplares dicha dependencia queda inexplicada.
Para dar cuenta de estos casos se recurre a la noción de su p erven ien cia , un tipo de
dependencia más débil que la identidad de tipos (aunque la incluye como caso extremo).
La idea es la siguiente. Lo que distingue a los casos en que no hay dependencia (como el
del accidente) de aquellos en que sí la hay (como el de la fragilidad) es, por decirlo tauto­
lógicamente, que en el primero la ejemplificación de una propiedad no depende de la
ejemplificación por el mismo particular de otra propiedad. Es decir: el particular puede
tener una propiedad y no tener la otra. El suceso de la Costa Brava p o d ría haber sido un
accidente sin haber ocurrido en primavera. Que un acaecimiento particular ejemplifique
la propiedad de ser un accidente no depende de que se ejemplifique la de ocurrir en pri­
mavera. Eso no es así en los otros casos. Que un particular tenga la propiedad de ser frágil
depende de que tenga determinada propiedad microfísica en el siguiente sentido: no
puede ser que tenga ésta y no tenga aquélla. En general, pues, una propiedad macro E de­
pende de (descansa en, se realiza mediante) una propiedad micro B si no es (físicam ente)
p o sib le que un particular x ejemplifique B y no ejemplifique E. Nótese que la conversa
388 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

puede no ser cierta, y de hecho no lo es, debido a la múltiple realizabilidad pues E puede
realizarse mediante otras propiedades micro B', B", ..., por lo que x puede ser E sin ser B
(la conversa sólo es cierta cuando vale la identidad de tipos).
Ésta es la idea de dependencia que intenta expresar la noción de superveniencia.
Una propiedad A superviene en otra B si no puede ser que un particular ejemplifique B y
no ejemplifique A. En realidad la relación de superveniencia se suele caracterizar, no para
propiedades sueltas, sino para grupos de propiedades. Así, por ejemplo, decimos que las
propiedades cromáticas supervienen sobre propiedades microfísicas si no puede ser que
dos particulares tengan las mismas propiedades microfísicas y no tengan la misma propie­
dad cromática; o que las propiedades mentales supervienen sobre propiedades bio-físicas si
no puede ser que dos sujetos estén en el mismo tipo de estado bio-físico (el m ism o en serio,
e.e. compartiendo todas las propiedades bio-físicas) y estén en diferente estado mental. En
general, las propiedades de la clase O supervienen sobre propiedades de la clase ¥ si y sólo
si dos particulares (objetos o acaecimientos) que tienen las mismas propiedades ¥ tienen
también las mismas propiedades O. En este sentido “lo O” descansa, depende o se realiza
en “lo Y ”. Esta idea general se puede precisar de diferentes modos, pero no vamos a dete­
nemos aquí en ellos (cf. Kim 1984 y 1987 y Savellos y Yal^in [eds.] 1995).
Para muchos autores, la “identidad de ejemplares con múltiple realizabilidad (e.e.
sin identidad de tipos) más superveniencia” es la situación más común en las ciencias es­
peciales. Las propiedades de las que se ocupan las ciencias especiales supervienen sobre
propiedades microfísicas, éste es el grano de verdad que hay en el fisic a lism o . Pero por lo
general la superveniencia no es identidad de tipos, las propiedades macro son múltiple­
mente realizables; la pretensión contraria es el grano de falsedad que hay en el fisicalismo
reduccionista. En algunos casos la superveniencia puede derivarse de la identidad, quizá
por ejemplo algunas propiedades químicas básicas son idénticas a propiedades físicas
complejas. Pero a determinado nivel eso es muy implausible. Propiedades biológicas mí­
nimamente “elevadas” son múltiplemente realizables, no se pueden identificar con una
única propiedad bioquímica. Y lo mismo sucede, como hemos visto, con las propiedades
mentales respecto de las propiedades neurológicas. Debe notarse que ésta es una tesis em­
pírica, compatible con tesis conceptuales complementarias. Así, por ejemplo, en psicolo­
gía se puede defender como tesis conceptual cierto reduccionismo semántico, como hacen
los funcionalistas analíticos, según el cual los predicados mentalistas expresan conceptos
funcionales-computacionales, y a la vez defender como tesis empírica que los predicados
mentalistas denotan propiedades (funcionales) que supervienen sobre, y se realizan múlti­
plemente en propiedades neurológicas.
Además, para algunos de estos autores, como Fodor (cf. para lo que sigue Fodor,
1974), esta situación de las ciencias especiales explicaría el carácter no estricto de las le­
yes de las ciencias especiales, esto es, que sus leyes sean leyes ceteris p a r ib u s , que tengan
excepciones (sobre estas nociones, cf. cap. 5, §4), aun cuando las leyes de la ciencia bási­
ca no las tengan. La existencia de excepciones se derivaría de que alguna de las propieda­
des micro que realizan la propiedad del antecedente de la ley macro podría no estar cau­
salmente conectada con alguna propiedad de las que realizan la propiedad del consecuen­
te de dicha ley. La situación se recoge en el siguiente gráfico.
RELACIONES INTERTEÓRICAS 389

cp
CIENCIA ESPECIAL E<x) --------------------------► E*(y)

CIENCIA BÁSICA B1(x) B2(x)„. Bn(x)... Bm(x)... B*1(y) B*2(y)... B*p(y)„.

Esta situación ilumina, según Fodor, un hecho aparentemente paradójico, a saber,


que las leyes de las ciencias especiales tengan excepciones a pesar de que descansan so­
bre leyes de la ciencia básica que no tienen excepciones. Si la situación de dependencia
es la mostrada por el gráfico, entonces podemos explicar las excepciones de la ley espe­
cial aun en los casos en que todas las leyes de la ciencia sobre la que descansa sean estric­
tas. Las excepciones corresponderían a los casos en que la propiedad macro (E) del acae­
cimiento-tipo antecedente de la ley especial se realiza mediante alguna propiedad micro
(p.ej. Bn) que no está nómicamente conectada mediante una ley básica con ninguna pro­
piedad micro que realiza la propiedad macro (E*) del acaecimiento-tipo consecuente (de
todas formas, el propio Fodor ha cuestionado la viabilidad de esta explicación cuando se
trata de propiedades funcionales, cf. Fodor, 1991).
Para concluir con la noción de superveniencia conviene enfatizar que esta noción
por sí sola simplemente elucida qué entendemos por dependencia, pero (salvo en el caso
extremo de que la superveniencia se derive de la identidad) no explica metafísicamente a
qué se debe tal dependencia. ¿Cómo es que unas propiedades supervienen sobre otras en
los casos en que no hay identidad?, ¿qué vínculo metafísico hay entre ambas propiedades
del que se deriva la superveniencia? Una posibilidad es tomar la relación de supervenien­
cia como un primitivo metafísico bruto, algo que muchos se niegan a aceptar. Los recelos
hacia esta posición hacen que algunos terminen cuestionando la legitimidad de las propie­
dades macro y sostengan que hay conceptos macro pero no p ro p ied a d es macro; los predi­
cados macro serían términos como ‘jade’ o ‘cáncer’, que no denotan una única propiedad,
son términos ambiguos que en cada ocasión denotan alguna de entre varias propiedades
básicas. O de otro modo, si se quiere considerar que denotan propiedades, éstas deben ser
en todo caso propiedades “de segundo orden”, donde una propiedad de segundo orden es
la “propiedad consistente en tener alguna de entre tales y cuales propiedades básicas”.

5 .6 . D u a l is m o d e p r o p ie d a d e s c o n id e n t id a d d e e je m p l a r e s y e p if e n o m e n is m o

En relación con el último problema apuntado surge otra cuestión relativa a la efi­
cacia causal de las propiedades macro y que aquí sólo apuntaremos. La cuestión es la si-
390 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

guíente (ignoraremos ahora las excepciones de la ley macro). Si cada acaecimiento ante­
cedente de la ley especial es también un acaecimiento antecedente de una ley básica (de
diferentes leyes en diferentes casos) y las propiedades micro son sin duda causalmente
eficaces, ¿para qué son necesarias las propiedades macro? Un acaecimiento particular
causa o produce otro en virtud de que ejemplifica determinada propiedad (cf. cap. 5, §3).
Si hay causalidad básica, la propiedad en virtud de la cual un acaecimiento causa otro es
determinada propiedad micro B í , pero entonces parece que la propiedad macro E es su-
perflua, causalmente ineficaz o causalmente redundante. Este es el p ro b lem a de la exclu ­
sión explicativa (cf. p.ej. Kim, 1987), y es lo que motiva las posiciones epifenom enistas.
Se dice que una propiedad A es un epifenómeno de una propiedad P si A “se debe” a la
presencia de B pero A es causalmente ineficaz. En filosofía de la psicología se ha atribui­
do esta posición al m onism o a nóm alo de Davidson (aunque él mismo no acepta ser califi­
cado de epifenomenista, cf. Davidson, 1970 y McLaughlin, 1984).

5 .7 . E l im in a c io n is m o

El epifenomenismo acepta la existencia de las propiedades macro, la identidad de


ejemplares y la superveniencia, pero rechaza que las propiedades macro sean causalmente
eficaces. Son “un lujo ontológico”, por así decir. Esta posición le parece inaceptablemen­
te conservadora al eliminacionista, que comparte con aquél los recelos sobre la eficacia
causal de las supuestas propiedades macro pero no tiene sus escrúpulos conservadores. Si
no hay eficacia causal, no hay propiedad. Según el eliminativista, los predicados macro
expresan conceptos a los que no corresponde ninguna propiedad en el mundo, como ocu­
rrió con el predicado ‘flogisto’ de la química del siglo x v i i i . Hay concepto pero no hay
propiedad, por tanto lo mejor, como en el caso del flogisto, es dejar de emplear el térmi­
no, eliminarlo del lenguaje de la ciencia (exactamente igual que se eliminaron del len­
guaje de la meteorología los nombres de los dioses griegos y de sus “estados”). En filoso­
fía de la psicología defienden una postura semejante los Churchland (cf. p.ej. Churchland,
1981 y 1984). Debe quedar claro que el eliminativismo ni siquiera admite la identidad de
ejemplares, el motivo es obvio: si no hay propiedades macro (ni idénticas ni diferentes de
las propiedades micro), entonces ni siquiera se puede plantear la cuestión de si un evento
que ejemplifica una propiedad macro es o no el mismo acaecimiento-ejemplar que ejem­
plifica una propiedad micro; no hay propiedades macro y no hay por tanto acaecimientos
que tienen propiedades macro.

5 .8 . D u a l is m o d e e je m p l a r e s

El eliminacionismo (acerca de una determinada ciencia especial) rechaza la identi­


dad de ejemplares, pero porque no hay propiedades macro (denotadas por los predicados
de dicha ciencia especial). Pero se puede rechazar la identidad de ejemplares incluso si se
acepta la existencia de propiedades macro. Esto es lo que defiende el dualista de ejempla­
RELACIONES INTERTEÓRICAS 391

res. Hay efectivamente propiedades de los dos niveles y son propiedades diferentes, pero
se ejemplifican en acaecimientos particulares también diferentes. En filosofía de la psico­
logía se puede asimilar a esta posición los diversos tipos de dualismo de sustancias (p.ej.
Descartes, Eccles) y de paralelismos (p.ej. la arm o n ía p reesta b lecid a de Leibniz o el o ca ­
sionalism o de Malebranche).
C a p ít u l o 12

LA EVALUACIÓN DE LAS TEORÍAS


Y EL PROBLEMA DE LA INDUCCIÓN

En el capítulo 3 examinamos la metodología de la contrastación de hipótesis sin


detenemos en los aspectos filosóficamente problemáticos. En particular, aplazamos la
discusión epistemológica de dos cuestiones centrales en la contrastación, a saber, la natu­
raleza de la inferencia inductiva y el estatuto de la Condición 2 relativa a la relación entre
la falsedad de la hipótesis y la improbabilidad de la predicción. En el presente capítulo
vamos a volver sobre estas cuestiones en el marco más amplio del problema de la induc­
ción. Éste es un problema de larga tradición filosófica que ha recibido diversas formula­
ciones y tratamientos, algunos de los cuales entroncan directamente con las cuestiones
que entonces aplazamos. En este sentido, la finalidad principal del presente capítulo es
estudiar los problemas epistemológicos relativos a la metodología de la contrastación de
hipótesis.
En la presentación metodológica advertimos que no distinguíamos en ese con­
texto entre leyes y teorías, refiriéndonos indistintamente a ambas como h ip ó tesis te ó ri­
c a s . Después del camino recorrido, sabemos ahora que leyes y teorías son entidades
muy diferentes; las teorías, como establecieron informalmente los filósofos historicistas
y precisan después algunas concepciones semánticas, son entidades estructuralmente
complejas y estratificadas (redes teóricas). Cabe presumir que esta complejidad estruc­
tural de las teorías es relevante a la hora de su evaluación epistémica y que, por tanto, la
diferencia entre leyes y teorías debe desempeñar alguna función en el problema de la in­
ducción. Sin embargo, como veremos, hasta hace relativamente poco dicha diferencia
no ha desempeñado apenas papel alguno. El motivo es que el problema de la inducción
se ha planteado mayoritariamente en el marco de la concepción axiomática, donde la di­
ferencia entre leyes y teorías tiene menor trascendencia pues el análisis axiomático tra­
dicional, tal como se realiza en la Concepción Heredada, no refleja el carácter estratifi­
cado y reticular de las teorías. Por ello, en las primeras secciones vamos a ver el proble­
ma de la inducción referido a cualquier tipo de hipótesis, esto es, indistintamente a leyes
y teorías; deberemos esperar a las críticas de los historicistas al refutacionismo de Pop-
per (sección 5) para ver el papel que juega la complejidad estructural de las teorías a la
hora de su evaluación epistémica y su eventual aceptación o rechazo. Antes de ello, pre-
394 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

sentaremos en las dos primeras secciones el problema tradicional de la inducción en tér­


minos generales y las principales aproximaciones al mismo. En las secciones 3 y 4 exa­
minaremos dos de tales aproximaciones, el inductivismo y el falsacionismo (para un es­
tudio más detallado cf. p.ej. Kneale, 1949; Lakatos, 1968a; Glymour, 1980, caps. II a
IV y Rivadulla, 1991; algunas buenas antologías sobre el tema son Kyburg y Nagel
(eds.), 1963; Lakatos (ed.), 1968; Carnap y Jeffreys (eds.), 1971 y Cohén y Hesse (eds.),
1980). Para simplificar la exposición, dejaremos ahora al margen tanto las leyes proba-
bilistas como las no estrictas (cf. cap. 5) y limitaremos por tanto el problema de la in­
ducción a hipótesis estrictas no probabilistas.

1. Evaluación epistém ica. El problem a de la inducción

Presentado del modo más conciso posible, el problema de la inducción consiste en


determinar el sentido preciso en que podemos decir que ciertos datos empíricos confieren
apoyo o justificación a una hipótesis, hipótesis que no es implicada deductivamente por
los datos; y la dificultad básica a la que se enfrentan una y otra vez los diversos intentos
de resolver este problema es, en sus diversas versiones, la infradeterminación de la hipó­
tesis por la experiencia.
La justificación de la hipótesis mediante los datos se supone que representa algún
tipo de inferencia de los datos hacia la hipótesis, pero la inferencia no es deductiva, la hi­
pótesis no está “plenamente contenida” en los datos-premisas. La hipótesis excede el con­
tenido de los datos y por tanto la inferencia no es explicitativa sino a u m en ta tiva o a m ­
p lia tiva .

1 .1 . I n f e r e n c ia s a m p l ia t iv a s y ju s t if ic a c ió n in d u c t iv a

Es común caracterizar la inducción (del griego ‘ep a g o g é ’) como el paso o inferen­


cia de lo particular a lo general y el problema de la inducción como el problema de identi­
ficar el método-procedimiento correspondiente a dicho paso o inferencia. Pero esta carac­
terización es ambigua, pues hay dos sentidos de ‘paso’ o ‘inferencia’. En un primer senti­
do, pasar de lo particular a lo general, inferir lo segundo de lo primero, significa fo r m u la r
o idear hipótesis (leyes, teorías) generales a partir de la observación de hechos particula­
res. Si por ‘inducción’ se entiende eso, entonces no hay ningún problema de la inducción,
pues simplemente no hay ningún método-procedimiento para id ea r una determinada hi­
pótesis general a partir de cierta serie finita de hechos particulares observados. Es cierto
que hay un procedimiento para generar todas las correlaciones funcionales posibles com­
patibles con una serie de datos particulares, pero en la formulación de hipótesis científicas
concretas no interviene dicho procedimiento. Los científicos formulan sus hipótesis gene­
rales sin partir de la colección de las (infinitas) alternativas lógicamente posibles. Usual­
mente se formula una única hipótesis, y más raramente dos o a lo sumo tres, y la formula­
ción o invención de estas hipótesis no se atiene a ningún procedimiento mecanizable. La
l.A EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 395

formulación de hipótesis es un proceso esencialmente creador (conjetural, dirá Popper) e


irreducible a un conjunto de reglas metodológicas. Seguro que hay algunas prácticas o
“trucos” que a veces los científicos siguen, o incluso constricciones metodológicas gene­
rales relativas a la simplicidad, la elegancia, la coherencia con otras hipótesis, etc., pero
ello no basta para dar cuenta del proceso de formación de hipótesis, pues siempre hay
más hipótesis alternativas lógicamente posibles que satisfacen estas constricciones que las
que finalmente se formulan.
Así pues, en el primer sentido de ‘inducción’, inducción como proceso de idea­
ción y formulación de hipótesis generales, no hay un m étodo inductivo. La vieja aspi­
ración de F. Bacon y de Mili (si se entienden de este modo sus cuatro reglas inductivas de
las diferencias, las semejanzas, los residuos y las variaciones concomitantes, cf. Mili,
1904) es irrealizable. El proceso cognitivo de creación de hipótesis contiene elementos
psicológicos ineliminables cuya explicación corresponde más a la psicología de la ciencia
que a la metodología. En este sentido tampoco hay, por tanto, un problema m etodológico
de la inducción. Como ya vio parcialmente Whewell (1858), el problema de la inducción
no es relativo a la creación de hipótesis sino a su ju stific a c ió n . En este segundo sentido de
‘inducción’, la inducción como paso de lo particular a lo universal (inferir lo segundo
de lo primero) significa ju s tific a r hipótesis generales a partir de hechos particulares. Es
aquí donde se plantea el problema de la inducción, pues toda justificación es por su propia
naturaleza normativa y la cuestión es qué normas o reglas rigen la justificación inductiva.
Estos dos sentidos de ‘inducción’ se corresponden, grosso m o d o , con la famosa
distinción de Reichenbach (1938) entre contexto de d escubrim iento y contexto de ju s tifi­
cación. El problema epistemológico de la inducción no es un problema relativo al contex­
to de descubrimiento sino al contexto de justificación. O en términos más actuales, al
contexto de evaluación epistém ica. Hay varios respectos en que se puede evaluar una hi­
pótesis (ley, teoría) científica, y el epistémico es sólo uno de ellos, el que corresponde a la
noción tradicional de justificación (para una crítica y ampliación de la distinción de Rei­
chenbach, cf. Echeverría, 1995, cap. II). En adelante nos vamos a limitar aquí al segundo
sentido de ‘inducción’; por tanto, salvo advertencia en contra, por ‘inferencia’ se deberá
leer ‘inferencia justificativa’.
Por otro lado, vamos a usar aquí ‘inducción (justificativa)’ en su acepción más ge­
neral, esto es, para cualquier tipo de inferencia am pliativa. Las inferencias d em o stra tivas ,
o deducciones, proporcionan también justificación: si de ai, ..., a„ se deduce p, entonces
la verdad de (o la creencia justificada en) ai, ..., a„ justifica la verdad de (la creencia en)
p. Pero, como ya vimos en el capítulo 2, estas inferencias no son ampliativas: el conteni­
do factual de p está incluido en el contenido factual de ai a ... a a„, justamente por eso
no puede ocurrir que a i , a „ sean verdaderas y p falsa. Si hay inferencias que no son de
este tipo, si hay justificación no demostrativa (y éste es precisamente el problema de la
inducción), entonces tales inferencias son ampliativas: el contenido de lo justificado no
está incluido en el contenido factual de lo que le proporciona justificación. A cualquier
justificación de este tipo la consideraremos inductiva.
Algunas veces se usa el término ‘inducción’ en una acepción más estricta, aplica­
do sólo a uno de entre los diversos tipos de inferencias ampliativas. De entre ellos, los
396 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

principales son los siguientes. En la inducción p o r enum eración se justifica una generali­
zación a partir de la constatación de una serie de sus instancias, p.ej. cuando infiero que
todas las esmeraldas son verdes a partir de que todas las esmeraldas que he observado
hasta la fe c h a son verdes. La inducción por enumeración, aunque quizá es la más senci­
lla, no es el único tipo de inferencia ampliativa, ni siquiera el más usual en contextos
científicos. En la inducción estadístico-probábilista se justifica una hipótesis particular a
partir de una regularidad estadística o probabilista, p.ej. cuando infiero que Juan tendrá
problemas pulmonares a partir de que es un fumador compulsivo y de que la práctica to­
talidad de los fumadores compulsivos padecen enfermedades pulmonares. En la in d uc­
ción p o r elim in a ció n infiero cierta hipótesis a partir de la eliminación del resto de hipóte­
sis alternativas; para que este método sea propiamente inductivo, y no deductivo, al
menos una de las eliminaciones de las alternativas ha de ser a su vez inductiva. En la infe­
rencia a la m e jo r exp lica ció n , llamada también por algunos autores a b d u cció n , se justifi­
ca una hipótesis porque ella explica (implica) cierto hecho observado; p.ej. cuando infiero
la presencia de humanos a partir de la presencia de ciertas huellas en la playa (esta infe­
rencia se reduce en el fondo a la estadística si se considera que incluye como premisa im­
plícita una premisa del tipo “usualmente las huellas de humanos son producidas por hu­
manos”)- Otra inferencia ampliativa, la más usual en contextos científicos, es la que cons­
tituye el denominado m étodo hipotético-deductivo, que es ni más ni menos que el patrón
evaluadvo que presentamos en el capítulo 2 : de la hipótesis (junto con ciertos supuestos y
condiciones iniciales) se deduce determinada predicción, que caso de cumplirse propor­
ciona cierto grado de justificación a la hipótesis. Después del examen que hicimos, debe
estar claro que debería denominarse ‘método hipotético-deductivo-inductivo’, pues con­
tiene elementos claramente inductivos. En la versión que dimos de este método, se trata
en realidad de un caso complejo de inducción probabilista, pues la inferencia incluía una
premisa probabilista, la Condición 2.
Estos son los principales tipos de inferencias ampliativas (cuando la hipótesis jus­
tificada no es ella misma probabilista). En todas ellas el contenido factual de la hipótesis
justificada no está incluido en el contenido factual de la base de justificación, de los datos
que se usan de evidencia; es posible que la base de justificación sea verdadera y la hipóte­
sis sea falsa, en eso consiste su carácter ampliativo o no demostrativo. Esta caracteriza­
ción pone inmediatamente de manifiesto el problema principal con que se enfrentan estas
inferencias en tanto que presuntamente justificativas: si, aun siendo verdadera la base de
justificación, la hipótesis justificada puede ser falsa, ¿en qué sentido la base de justifica­
ción justifica la hipótesis? Éste es, brevemente formulado, el problema de la inducción;
todas las formulaciones del mismo no son más que variantes de esta cuestión básica. O
mejor dicho, en tanto que problema, surge de a cep ta r que hay inferencias ampliativas jus­
tificativas.
Pero es difícil negar que hay inferencias ampliativas. Desde una perspectiva empirista
mínima, todo conocimiento empírico se inicia en la experiencia y la experiencia es siempre
experiencia de hechos particulares. Sin embargo el conocimiento empírico contiene asevera­
ciones genuinamente generales. En la medida en que las aseveraciones empíricas generales
estén justificadas, su base de justificación se retrotrae en última instancia a una serie finita de
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 397

hechos particulares. Pero a) las aseveraciones generales están justificadas, de otro modo no
las consideraríamos conocim iento , y b) su contenido factual excede el de la serie de hechos
particulares que constituye su base de justificación. Así pues, parece que el conocimiento en
general, y la ciencia en particular, usa justificaciones ampliativas, inducciones. Es aquí donde
se plantea la cuestión: ¿en qué sentido estas inferencias ampliativas son justificativas?
Como sabemos, fue Hume el primero en cuestionar esta estrategia empirista. La
solución (o disolución) escéptica de Hume consiste en rechazar a): ningún tipo de infe­
rencia ampliativa es justificativa, las creencias generales o sobre el futuro, incluso si re­
sultan de hecho verdaderas, no constituyen co n o cim ien to pues no están justificadas
(cf., para lo que sigue, Hume, 1748, Libro I, Parte III, sec. VI). El paradigma de inferen­
cia ampliativa es para Hume la inducción por enumeración, la proyección de casos ob­
servados a nuevos casos. Para que tal proyección fuese “conforme a la razón”, debería
disponerse de un p rin cip io de u n ifo rm id a d de la n a tu ra le za , que establece que “los ca­
sos de los que no hemos tenido experiencia deben ser semejantes a aquellos en que sí la
hemos tenido”. Este principio debe ser, o bien a p r io r i (“basado en argumentos demos­
trativos”), o bien empírico. No puede ser a p rio ri, justificable mediante una inferencia
demostrativa, pues las inferencias demostrativas descansan en el principio de no contra­
dicción y no es contradictorio suponer (concebir) “un cambio en el curso de la naturale­
za”. Pero su justificación tampoco puede ser empírica, pues tal justificación se basaría
en casos observados y requeriría del mismo principio para ser justificativa. Así pues, tal
principio no está justificado conforme a razones y sin él las inferencias ampliativas no
proporcionan justificación: “[Djespués de que la experiencia nos haya informado de su
conexión constante, nuestra razón es incapaz de convencernos de que tengamos que ex­
tender esa experiencia más allá de los casos particulares observados” (Ib. primero, parte
III, sec. IV). Como declara explícitamente Hume, no se niega la “justificación psicoló­
gica” de la proyección, sino que a dicha tendencia psicológica corresponda una justifi­
cación o b je tiv a : “S u p o n em o s que debe haber una semejanza entre los objetos experi­
mentados y los que están más allá de nuestra experiencia actual, pero nunca podremos
p ro b a rlo ” (ibid., cursivas nuestras).
Después de doscientos cincuenta años la epistemología sigue buscando una res­
puesta satisfactoria al reto escéptico de Hume. Nótese que, planteado en sus estrictos tér­
minos, el argumento de Hume no tiene escapatoria. Si por ‘a justifica (3’ se entiende que
la verdad de a garantiza plenamente la verdad de p, no hay nada más que hablar. En ese
sentido, las únicas inferencias justificativas son las demostrativas; las inferencias amplia­
tivas, por su propia definición, no son justificativas. Eso es así aunque se pretenda algo
aparentemente más débil, a saber, que aunque no todas las inferencias ampliativas garan­
tizan la verdad de la conclusión, la m ayoría sí lo hace. El argumento de Hume no se ve
afectado por esa aparente variación. Lo que el argumento muestra no es sólo que no pode­
mos justificar que todas las inferencias ampliativas con premisas verdaderas tienen con­
clusiones verdaderas, sino que no podemos justificar eso de ninguna de ellas.
El argumento de Hume, de ser correcto, obliga a rechazar una de las tres cosas si­
guientes: ( 1 ) la ciencia (caso de ser verdadera) proporciona conocimiento, esto es, creen­
cia (verdadera) ju s tific a d a ; (2) la ciencia usa inferencias ampliativas; (3) la justificación
398 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

preserva la verdad. Hume rechaza (1), la ciencia procede de hecho inductivamente pero la
inducción no proporciona justificación. Popper aparentemente rechaza (2), la ciencia no
pretende justificar hipótesis a partir de datos empíricos (cf. más adelante §4). La mayoría
de los restantes filósofos rechazan (3). Para este último grupo de filósofos, hay justifi­
caciones que no p reserva n la verdad. Eso no quiere decir que renuncien a vincular las no­
ciones de ju stific a c ió n y verdad, sólo renuncian a establecer dicho vínculo en los térmi­
nos tan fuertes de Hume. Algunas justificaciones (las ampliativas) no preservan la verdad
pero, por así decir, sí la “transfieren parcialmente”. El problema es precisamente si se
puede concretar esa idea de modo suficientemente preciso sin perder el vínculo entre jus­
tificación y verdad. Las diferentes alternativas recurren casi siempre de alguna forma u
otra a la probabilidad. En las inferencias ampliativas la verdad de la base de justificación
(premisas) no garantiza plenamente la verdad de la conclusión, sólo la garantiza p a r c ia l­
m en te , hasta cierto g ra d o , con cierta p ro b a b ilid a d : las justificaciones no demostrativas
nos justifican en creer que si las premisas son verdaderas la conclusión es probablemente
verdadera. Ésta es la idea que defienden los inductivistas y que sus detractores consideran
conceptualmente inconsistente. El reto de los primeros es dar un sistema de justificación
ampliativa a la vez preciso y consistente.

1.2. L a s p a r a d o ja s d e l a c o n f ir m a c ió n y e l n u e v o e n ig m a d e l a in d u c c ió n

La intuición básica que hay tras el inductivismo se encuentra ya explícitamente


formulada en la rudimentaria teoría de la confirmación de Nicod para afirmaciones condi­
cionales generales: la presencia/ausencia de B en un caso de A confirma/invalida la ley “A
im plica B" (cf. 1930, p. 219). La confirmación de una ley se produce mediante la consta­
tación de in stancias p o sitiva s o ejemplificaciones de la ley. Nicod considera la confirma­
ción como inferencia ampliativa, pues acepta que un dato e confirme una ley o hipótesis h
y que a pesar de ello pueda ocurrir que e sea verdadero y h falso. Este concepto de confir­
mación es puramente cu a lita tivo , no recoge el aspecto gradual de la justificación inducti­
va. Este concepto es tal que, dados e y h, determina simplemente si e confirma (apoya,
justifica) o no la hipótesis h. Para recoger la dimensión gradual de la justificación inducti­
va es preciso al menos un concepto com parativo de confirmación, según el cual dados e ,
h, e' y h' se pueda determinar si e confirma h tanto o más que e' confirma h!. Si este con­
cepto comparativo es suficientemente rico, permite generar un concepto m étrico de
confirmación (cf. cap. 4, §4 sobre la relación entre conceptos métricos y comparativos),
esto es, uno según el cual dados e y h se pueda determinar que e confirma h en grado r.
Para cada uno de estos tres conceptos usaremos, respectivamente, las letras ‘C \ ‘K* y ‘c’:
‘C (h, e )’ significará que la evidencia e confirma la hipótesis h; ‘(h , e ) K ( h \ e 'Y que e con­
firma h tanto o más que e' confirma h'\ y ‘c(/i, e) = r ’ que e confirma h en grado r. Más
adelante nos detendremos en los conceptos comparativo y, sobre todo, métrico de justifi­
cación inductiva. En esta introducción nos basta el concepto puramente cualitativo para
ver ya algunos aspectos problemáticos de la noción de confirmación entendida en el sen­
tido de Nicod. Vamos a ver, en particular, las p a ra d o ja s de la confirm ación de Hempel y
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 399

el nuevo enigm a de la inducción de Goodman, sobre el que ya dijimos algo en el capítu­


lo 5 (§2).
Hempel toma el criterio de confirmación de Nicod para afirmaciones generales
condicionales sólo como condición suficiente (no necesaria) para la confirmación cualita­
tiva de tales afirmaciones y presenta algunos ejemplos que resultan p rim a fa c ie paradóji­
cos (cf. 1943, 1945, 1966b). El ejemplo más famoso es el de la contraposición. Conside­
remos la ley (Ll) “Todos los cuervos son negros” ‘ Según el criterio en cuestión, L1 es
confirmada por la presencia de una cosa que sea a la vez cuervo y negra. Por otro lado,
L l es lógicamente equivalente a (L2) “Todas las cosas no-negras no son cuervos”, que de
acuerdo con el criterio es confirmada por instancias positivas, p.ej. una hoja verde. Ahora
bien, parece razonable aceptar cierta condición de equivalencia según la cual si una evi­
dencia e confirma una hipótesis h, entonces confirma toda hipótesis h ’ equivalente a h. La
idea es que la confirmación afecta al contenido, independientemente de la forma específi­
ca en que éste se exprese. De lo anterior se sigue la consecuencia aparentemente paradóji­
ca de que la presencia de una hoja verde confirma la ley de que todos los cuervos son ne­
gros. En general, puesto que (Hl) “V(At -» B x)” es equivalente a su contraposición (H2)
“Vx (-i B x —> —iAc)”, la ocurrencia de “-i A a a —■B a ” es según el criterio de Nicod una
confirmación de H l. Lo mismo sucede con otras equivalencias. Por ejemplo, H l es equi­
valente al condicional (H3) “Vx (Ax v -i A x -> —■A x v B x)”, que según el criterio, para el
ejemplo que nos ocupa, es confirmado por la presencia, tanto de cualquier cosa que no
sea cuervo (sea o no negra), como de cualquier cosa negra (sea o no cuervo), y por la con­
dición de equivalencia las mismas evidencias confirmarían el original “Todo cuervo es
negro”. Por otro lado, H l también es equivalente a (H4) “Vx (Ax a - B x - » B x a - B x)”,
i i

pero H4 no puede tener ninguna instancia positiva en el sentido de Nicod, pues su conse­
cuente es contradictorio, y entonces puesto que es equivalente a H l ésta tampoco podría
tenerla.
Hempel concluye que, contra lo que en principio parece, no hay nada realmente
problemático en estos hechos. Para empezar con H4, que no pueda tener instancias positi­
vas sería un problema si el criterio de Nicod se considerase una condición necesaria ade­
más de suficiente, pero ya hemos advertido que no es así. Los casos interesantes son H2 y
H3. La posición de Hempel, que considera correctas tanto la idea básica de Nicod como
la condición de equivalencia, es que la impresión de que una instancia positiva de H2 (o
H3) no constituye una confirmación de H l es errónea si n o s restringim os a l concepto p u ­
ram ente cualitativo de confirm ación. La impresión la produce la idea errónea de que una
generalización “habla sólo” de las cosas que satisfacen la propiedad antecedente. Supon­
gamos, dice Hempel, que en la habitación de al lado hay un objeto x que no es negro. L l
dice algo de él, a saber, que no es cuervo, y por tanto si efectivamente x resulta no ser

1. Mantenemos el ejemplo de Hempel por haberse institucionalizado en la literatura sobre induc­


ción, pero sería más adecuado usar otro. El motivo es que, como vimos en el capítulo 5 (§2), la confirmación
por instancias no se aplica a cualquier regularidad sino sólo a las nómicas o leyes, y entonces dijimos que la
regularidad sobre el color de los cuervos muy probablemente no se podía considerar nómica. El lector puede
aplicar todo lo que se diga en adelante a cualquier otra regularidad claramente nómica, p.ej. “Los metales se
dilatan al calentarlos”.
400 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

cuervo, podemos considerar legítimamente que nuestra hipótesis se ha confirmado. Así,


Hempel no considera estas supuestas paradojas de la confirmación como una objeción
contra el criterio cualitativo. Ahora bien, dice Hempel, ello no iguala a todas estas hipóte­
sis en todos los respectos; hay algo acertado en la intuición de que hay alguna diferencia
en el valor confirmatorio para H1 de “A a a B a ”, “-i A a a -i B a ' y “-i A a v B a ", pero para
mostrarlo es necesario abandonar el concepto puramente cualitativo y pasar al comparati­
vo. Decir que las tres confirman H1 es compatible con decir que las tres lo hacen en dife­
rente grado, y es posible dar cuenta de esta diferencia si se maneja un concepto compara­
tivo o métrico de confirmación (cf. 1966b, pp. 120-121).
En la versión de Nicod, el criterio cualitativo tiene importantes limitaciones, pues
sólo es aplicable a afirmaciones generales condicionales. Para superar estas limitaciones,
conservando el núcleo de la idea, Hempel construye un concepto alternativo de confirma­
ción cualitativa. Más adelante nos detendremos en él; por ahora sólo nos interesa señalar
que, como Hempel insiste, es también como el de Nicod un concepto p u ra m en te sin tá cti­
co: toma en consideración exclusivamente el tipo lógico de los predicados y la forma ló­
gica de la afirmación, nada en el criterio depende del significado o contenido semántico
de los predicados involucrados, de cuáles sean las propiedades denotadas. Y esta caracte­
rística, como Hempel acabará reconociendo, lo convierte en inadecuado. Cualquier con­
cepto cualitativo de confirmación por instancias positivas que sea puramente sintáctico se
enfrenta a una dificultad fundamental, a saber, su incapacidad para dar una respuesta ade­
cuada al nuevo enigm a de la inducción de Goodman (1955). Mencionamos ya este enig­
ma cuando nos ocupamos de las leyes (cap. 5, §2), haciendo referencia a la distinción en­
tre predicados proyectables y no proyectables y su función en la distinción entre regulari­
dades nómicas y accidentales. Como entonces dijimos, el enigma tiene directamente que
ver con la posibilidad de justificar inductivamente hipótesis alternativas incompatibles
entre sí. La evidencia de que todas las esmeraldas observadas hasta el año 1950 son ver­
des confirma, según el criterio que venimos considerando, tanto “Todas las esmeraldas
son verdes” como “Todas las esmeraldas son verdules” (donde ‘verduf significa “obser­
vado antes del año 2000 y verde, u observado después del 2000 y azul”; aunque nótese
que en este caso no se trata de hipótesis incompatibles en sentido estrictamente lógico,
son incompatibles sólo si se observan esmeraldas después del 2000).
Si queremos distinguir ambos casos, negando que dicha evidencia confirme
igual ambas generalizaciones, la noción de confirmación no puede ser puramente sintác­
tica, pues ambas generalizaciones son sintácticamente semejantes. La única posibilidad
es que la noción de confirmación involucre características no puramente sintácticas,
esto es, que haga referencia, o (1) a características semánticas (al contenido de los pre­
dicados), o (2) a relaciones entre la generalización que se confirma y otras aceptadas.
Goodman llama p ro y e c ta b le s a las generalizaciones cuyos casos observados se proyec­
tan hacia los no observados, o lo que es lo mismo, a las generalizaciones que se confir­
man por instancias; derivadamente, se denominan también proyectables los predicados
que intervienen en tales generalizaciones. La cuestión es qué hace a un predicado pro-
yectable. Como vimos, es común apelar aquí a condiciones semánticas y proponer que
los predicados proyectables son aquellos que significan p ro p ied a d e s (géneros, cla ses)
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 401

n a tu ra les , pero la dificultad es entonces dar una elucidación satisfactoria de esta noción.
Recuérdese que apelar aquí a la noción de ley, diciendo p.ej. que las propiedades natura­
les son las que intervienen en generalizaciones nómicas, no sirve de mucho, pues la di­
ferencia entre leyes y generalizaciones accidentales requiere a su vez elucidación.
Goodman prefiere la segunda opción, y sostiene que los predicados que intervienen en
generalizaciones proyectables (e.e. leyes) se caracterizan por estar bien a trin ch era d o s
( ‘e n tre n c h ed ’), con lo que quiere decir que se han usado frecuentemente y de forma in­
tegrada con otros del conjunto de la ciencia. Como el lector advertirá, ello no es sino
apelar a criterios de integración teórica: una generalización proyectable es, en este senti­
do, una con apropiadas relaciones de integración con otras generalizaciones de nuestro
cuerpo de conocimiento.
Una tercera posibilidad, que es en realidad una variante de la segunda, es apelar a
consideraciones de simplicidad, esto es, establecer que entre las diversas alternativas la
evidencia confirma la más simple. Pero esto también es problemático. En primer lugar,
cualquier criterio de simplicidad permite que pueda haber diferentes teorías igual de sim­
ples. En segundo lugar, la simplicidad depende casi siempre del lenguaje, y por tanto de
los predicados que se elijan como primitivos (cf. cap. 7, §6). Y en tercer lugar, incluso si
se pudiera determinar un sentido neutral de la simplicidad, esta alternativa supondría que
la naturaleza “maximiza” la simplicidad, que “prefiere” leyes más simples, y este p rin c i­
p io de sim p licid a d de la naturaleza es algo que requeriría a su vez de justificación. Pero
la justificación de un principio tal parece sujeta a las mismas dificultades humeanas
que la justificación de un principio de regularidad.
El nuevo enigma de la inducción de Goodman no es en realidad sino una nueva
versión de un viejo problema, a saber, que cualquier serie finita de datos es subsumible
bajo infinitas generalizaciones diferentes. Si visualizamos los datos como puntos en un
plano, un teorema elemental del análisis establece que cualquier conjunto finito de puntos
pertenece a infinitas funciones o curvas diferentes. El p ro b lem a de la inducción consiste
entonces en establecer criterios que permitan decir que la serie finita de datos confirma
sólo una de las funciones, o menos dramáticamente pero igual de problemático, que con­
firma más a unas que a otras. El problema de la inducción es pues el problema de la infra-
determinación de la teoría por la experiencia, que ha ido reapareciendo en diversos luga­
res de esta obra: por muchos que sean los datos experimentales recogidos, siempre serán
subsumibles bajo hipótesis teóricas diferentes e incompatibles. Como acabamos de ver,
apelar a un principio de simplicidad de la naturaleza es problemático por apelar a la pro­
blemática noción misma de simplicidad, y además es elusivo, pues él mismo requiere jus­
tificación. Debe notarse que este problema, aunque con pequeñas variaciones, es el mis­
mo en Hempel que en Goodman. En ambos casos se trata de determinar si hay un sentido
preciso en que se puede decir que ciertos datos justifican una hipótesis, o equivalente­
mente, si dadas dos hipótesis alternativas incompatibles, los datos justifican más una que
otra.
402 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

2. Aproximaciones ai problem a de la inducción

En las próximas secciones vamos a centrarnos en las dos principales aproximacio­


nes al problema de la inducción dentro de la filosofía de la ciencia contemporánea, el in-
ductivismo de Camap y su escuela, y el falsacionismo de Popper. Puesto que estas con­
cepciones no agotan las diferentes aproximaciones al problema, antes de detenernos en
ellas haremos en esta sección una breve mención a las principales alternativas involucra­
das (para una comprensión cabal de las mismas, que no podemos proporcionar aquí, con­
súltense las fuentes reseñadas en cada caso).

2.1. L a inducción como seudoproblema

Algunos de los llamados filó so fo s d el lenguaje ordinario han defendido que el su­
puesto problema de la justificación del razonamiento inductivo es sólo aparente (cf. p.ej.
Strawson, 1952). El análisis lingüístico muestra que tal demanda de justificación es ella
misma injustificada y por tanto el problema, más que resolverse, se disuelve. En su opi­
nión, casi siempre que se exige una justificación de la inducción lo que se busca es un
fundamento que la haga tan “firme” como la deducción, pero ello es simplemente un error
conceptual, la inducción no puede ser tan firme como una inferencia demostrativa pues,
simplemente, es p o r d efinición una inferencia no demostrativa. La inducción no requiere
justificación. Es parte del significado de las palabras ‘evidencia’, ‘grado de convicción’ y
‘creencia razonable’ que es razonable aumentar el grado de convicción con la evidencia.
“Es una proposición analítica aquella que dice que es razonable creer en cierta medida en
un enunciado, medida que es proporcional a la fuerza de la evidencia [y es analítica
en virtud de] lo significado por ‘ser razonable’” (Strawson, 1952, cap. 9, §11.10). El pro­
blema, sin embargo, es que esta concepción no da cuenta del aspecto normativo de la in­
ferencia inductiva, no explica en qué consiste la diferencia entre inferencias inductivas
correctas e incorrectas (o más o menos correctas), y ése es el problema de la inducción.
Las nociones de fu e rz a de la evidencia y de creencia razonable p ro p o rcio n a l a la fu e rz a
de la evidencia dependen conceptualmente de la de (m a yo r o m enor) corrección de la in­
fe re n c ia no dem ostrativa , y el problema es determinar de modo preciso dicha dependencia.

2.2. J ustificación inductiva de la inducción

La mejor justificación de la inducción, se puede decir, es que ha funcionado muy


bien hasta el momento. Y aquí se pueden traer a colación los impresionantes logros tec­
nológicos de la ciencia a lo largo de la historia. Esta línea de argumentación supone que
la ciencia ha procedido de hecho inductivamente, cosa que algunos niegan. Pero conce­
diéndolo, el principal problema de esta posición es, obviamente, su circularidad. De lo
que se trata es de justificar que podemos proyectar la experiencia observada a la no obser­
vada, y como caso particular la experiencia pasada al futuro. Si la justificación es que
LA EVALUACIÓN DE LAS TEORIAS Y EL PROBLEMA DE LA INDUCCIÓN 403

hasta el momento eso nos ha ido bien, que la mayoría de las predicciones realizadas con
tal método han sido exitosas, etc., entonces se está tomando por garantizado el punto en
discusión, a saber, que en el futuro podemos esperar que las cosas sigan yendo igual de
bien que en el pasado. Como ya advirtió Hume, justificar inductivamente un principio in­
ductivo de regularidad de la naturaleza es circular. Algunos filósofos, sin embargo, sos­
tienen que a pesar de las apariencias esta línea de defensa no es inadecuada. Braithwaite
(1959, cap. 8) sostiene que la circularidad es sólo aparente. Black (1954) que no es vicio­
sa, pues las reglas inductivas son autoaplicativas por naturaleza. Skyrms (1966) apela a
una jerarquía sucesiva de niveles inductivos, pero entonces elude la circularidad al precio
del regreso.

2.3. P rincipios sintéticos a p r io r i

Como sabemos, Kant respondió al reto de Hume defendiendo la existencia de jui­


cios sintéticos a p rio ri. Si existieran tales juicios, podría pensarse que la inferencia induc­
tiva podría justificarse mediante algún tipo de principio inductivo general que fuese sinté­
tico a priori: su carácter sintético haría a la inferencia a m p lia tiva , y su carácter a p rio ri
proporcionaría el componente de n ecesid a d (epistémica) que requiere en tanto que infe­
rencia justificativa. Pero aquí hay que distinguir dos tipos de principios o afirmaciones.
Por un lado, principios-ayuda muy generales del tipo “la naturaleza se comporta regular­
mente” o “la naturaleza se comporta simplemente”. Éstos podrían ser candidatos a ser
principios sintéticos a p r io ri , caso de haber tal cosa, pero, como veremos, no resuelven el
problema de la inducción, pues dejan demasiadas alternativas abiertas. Por otro, princi­
pios más específicos que sí podrían justificar hipótesis específicas, pero que no parecen
buenos candidatos a principios a p r io ri pues, como se verá, son en el fondo tan específi­
cos como las hipótesis empíricas que pretenden justificar (si es que no son ellas mismas).
Aunque en la actualidad hay pocos defensores decididos de los juicios sintéticos a p r io ri ,
se sigue recurriendo de diversos modos a ambos tipos de principios (cuyo estatuto se debe
elucidar). En general, se puede recurrir a ellos como premisas implícitas adicionales, o
como principios-reglas de inferencia. A estas alternativas corresponden, respectivamente,
las dos próximas concepciones.

2.4. I nducción como deducción encubierta

Una posibilidad es considerar que las inferencias inductivas son en realidad infe­
rencias deductivas con premisas implícitas u ocultas, esto es, entimemas. Una vez explici-
tadas las premisas ocultas, la inferencia es perfectamente demostrativa. La justificación
de (1) “Todas las esmeraldas son verdes” a partir de (2) “Todas las esmeraldas observa­
das antes de 1950 son verdes” consistiría en una deducción añadiendo una premisa adi­
cional. Pero, en primer lugar, esta opción se debe enfrentar al problema de la justificación
de esta premisa adicional. Y en segundo lugar, ni siquiera es claro que (independiente-
404 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

mente de su justificación) una premisa tal sirviera. La premisa adicional no puede ser un
principio inductivo general del tipo (3) “La naturaleza se comporta regularmente”, pues la
naturaleza se puede comportar regularmente de infinitas maneras diferentes, p.ej. siendo
todas las esmeraldas verdes, o siendo todas verdules, etc. Así que añadiendo (3) a (2) no
se deduce (1). Tampoco sirven variantes aparentemente más específicas, como (3') “Las
esmeraldas no observadas son del m ism o co lo r que las observadas hasta 1950”, pues (3')
es ambigua, ya que estas esmeraldas además de verdes son verdules. Sólo serviría como
premisa implícita para deducir (1) una premisa implícita como (3") “Las esmeraldas futu­
ras son verdes”, pero claro, eso es justamente lo que queríamos justificar. Esto muestra
directamente el problema principal de esta alternativa: sean cuales sean las p rem isa s a d i­
cionales de las que efectivam ente se deduzca la hipótesis orig in a l a ju s tific a r , el proble­
ma es que se pretende resolver la dificultad que plantean las inferencias ampliativas con­
virtiéndolas en demostrativas, pero al precio de trasladar su carácter ampliativo a una pre­
misa oculta que requiere al menos tanta justificación como la hipótesis original.

2.5. J u s t if ic a c ió n a priori d e l a i n d u c c i ó n ; l ó g i c a i n d u c t i v a

Esta alternativa (que examinaremos en detalle en la próxima sección) es en princi­


pio la menos revisionista de todas: acepta que hay inferencias inductivas esencialmente
diferentes de las demostrativas y que se rigen por sus propias reglas lógicas, y trata de de­
terminar cuáles son esas reglas y construir un sistema de lógica inductiva. Esta propuesta
comparte con la primera la idea de que el que cierta evidencia justifique no demostrativa­
mente cierta hipótesis es una verdad analítica que se deriva de los conceptos de evidencia,
grado de justificación, etc. Pero a diferencia de aquélla, no considera que ello ya resuelve,
o disuelve, el problema. Asume la necesidad de distinguir entre inferencias ampliativas
correctas e incorrectas, o más o menos correctas, y a tal fin procura desarrollar un sistema
de lógica inductiva. Estos sistemas casi siempre recurren de un modo u otro al concep­
to de probabilidad. Como veremos, también necesitan algún tipo de principios de regula­
ridad o simplicidad, que ahora estarán contenidos en los axiomas y reglas de la lógica y
cuya justificación se supone que es a p rio ri.

2.6. P r o b a b il id a d , b a y e s ia n is m o y t e o r ía m a t e m á t ic a d e l a in f e r e n c ia e s t a d ís t ic a

El desarrollo de una lógica inductiva no es el único modo de abordar el problema


de la inducción en términos probabilísticos. Desde el campo de la estadística matemática
y la teoría matemática de la decisión se han hecho numerosos intentos de fundamentar de
diversos modos la inferencia estadística. Entre los más destacados están Keynes (1921),
Savage (1954), Fisher (1956), Neyman y Pearsons (1967), de Finetti (1972), Kyburg
(1974), Jeffrey (1965), Howson y Urbach (1989) y Pollock (1990). A diferencia de lo que
ocurre con la lógica inductiva de Carnap, en estos autores la perspectiva metateórica no
siempre está clara. Es difícil determinar si lo que se propone es algún tipo de deductivis-
1.A EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 405

mo, esto es, si la inferencia estadística (o la decisional) es una inferencia demostrativa


que incluye como premisas adicionales ciertos principios matemáticos probabilistas (de-
cisionales), o si se trata de alguna forma de inductivismo, esto es, si estas inferencias son
propiamente ampliativas y la teoría matemática fundamenta las reglas inferenciales.
Casi todos los autores de esta familia parten de un resultado clásico de la teoría de
la probabilidad conocido como te o re m a d e B a y e s (para una buena exposición del bayesia-
nismo, cf. Salmón e t aL , 1992, cap. 2). Uno de los principios fundamentales de la teoría
de la probabilidad es que la probabilidad de la conyunción de dos sucesos es igual a la
probabilidad de un suceso por la probabilidad del segundo condicionado al primero: p(x a
y) = p(x) • p(y/x). Este principio se deriva de la noción de probabilidad condicionada: la
probabilidad de que ocurra y si ha sucedido x es, sobre la probabilidad de que ocurra x,
la probabilidad de que a d e m á s de x ocurra y: p (y/x) = p(x a y) / p(x). Ahora, puesto x a y
es lógicamente equivalente a y a x , y las probabilidades de sucesos equivalentes son igua­
les, tenemos p(x a y ) - p(y a x) y por tanto (si p(x) * 0 * p(y)) p(y/x) = p(x/y) • p(y)/p(x),
que es el famoso teorema de Bayes. En los casos de confirmación o justificación inducti­
va de una hipótesis h mediante la evidencia e nos interesa la probabilidad condicionada
de la hipótesis dada la evidencia, e.e. p {hie). Puesto que, en los casos de confirmación, e
es un hecho implicado por /i, y si a implica b la probabilidad condicionada p (b /a ) es 1,
tenemos que el teorema de Bayes aplicado a un caso de predicción exitosa toma la si­
guiente forma: p (hie) = p(/z)/p(e). De aquí se infieren dos cosas. Primero (y dado que
p ( k ) /p ( e ) está entre 0 y 1) p (h) < p(¿): la hipótesis h es menos probable que la evidencia
e , como cabía esperar, ya que h implica e pero no al revés. Segundo (y dado que p {hie) es
igual a p(/í) dividido por un número mayor que 0 y menor que 1) p {hie) > p(ft): la proba­
bilidad de la hipótesis h dada la evidencia positiva e es mayor que la que tiene h sin tomar
en cuenta e. Este segundo hecho proporciona para los bayesianos la justificación teórica
de la intuición que hay tras la noción cualitativa de confirmación: la ocurrencia de ciertos
hechos implicados por la hipótesis aumenta la probabilidad de la hipótesis; la idea es en­
tonces conceptualizar el grado de apoyo o justificación como la probabilidad de la hipóte­
sis condicionada a los hechos implicados por ella. El teorema tiene otra consecuencia in­
tuitivamente satisfactoria. Es fácil probar que una versión equivalente del mismo es
p (hie) = p(/i) / [p (h) + (p (-i h ) • p { e i -i A))], de donde se sigue que p {h/e) es tanto mayor
cuanto menor es p ( e i —¡ h ). Esto es, la evidencia positiva confirma tanto más la hipótesis
cuanto más improbable sea e si h es falsa (recuérdese que la exigencia de que la predic­
ción sea improbable si la hipótesis es falsa es justamente la Condición 2 que vimos en el
capítulo 3, §3).
El teorema de Bayes permite calcular, en casos de contrastaciones exitosas, cómo
la evidencia e modifica la p r o b a b ili d a d a n te r io r de la hipótesis h y pero ello no permite es­
tablecer el valor de p (hie) a no ser que se disponga de las probabilidades anteriores p(&) y
p(e), sobre cuya determinación nada dice la teoría. Se podría pensar que eso no es un pro­
blema, pero no es así. Es justamente en este punto donde aparece el problema de la induc­
ción en toda su crudeza, pues lo que nos interesa es determinar si la misma evidencia e,
predicha exitosamente por dos hipótesis diferentes h y h \ justifica más a una que a otra. Y
el teorema de Bayes no dice, p o r s i s o l o , nada al respecto. Todo lo que dice es que, dado
406 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

e, la justificación de h, p(hie), será mayor que la de h', p (h'ie), si y sólo si la probabilidad


anterior de h es mayor que la de h'\ p (h/e) > p (h'/e) syss p(/i) > p (h ’) (debe recordarse que
este bicondicional sólo vale en los casos en que e es predicha por las hipótesis, e.e. tanto
h como h! implican e). Es decir, que la evidencia preserva en las probabilidades posterio­
res el orden de las probabilidades asignadas antes de tener en cuanta la evidencia, lo cual
no es de mucha ayuda; parece que la evidencia no aporta nada nuevo (al menos mientras
nos mantenemos en el nivel cualitativo); lo mismo que se puede decir antes de tomarla en
cuenta, se puede decir después.
El teorema de Bayes por sí sólo no ilumina la cuestión sobre cuánto más apoyan a
una de dos hipótesis ciertos datos (predichos por ambas), lo único que establece es que una
hipótesis es más probable relativamente a la ocurrencia de datos predichos por ella de lo
que lo era “antes”. Para que tenga efectos en la comparación de grados de apoyo entre dos
hipótesis, para poder disponer de la medida cuantitativa, es necesario determinar las proba­
bilidades anteriores, y si éstas son subjetivas, objetivas o a priori. En este punto, los baye-
sianos tienden por lo general a defender alguna forma de subjetivismo, aunque también los
hay objetivistas (cf. p.ej. Pollock, 1990). Como veremos, la lógica inductiva de Carnap pre­
tende ser una propuesta apriorista al problema de las probabilidades anteriores.

2.7. POSTULACIONISMO

Algunos filósofos han aceptado que la inducción no se puede justificar ni a p rio ri


ni empíricamente, pero no están dispuestos a renunciar a ella y proponen que se acepten a
modo de postulados algunos principios que la garantizan. El caso más conocido es el de
Russell. Russell mantiene que el problema de la inducción en los términos de Hume es
irresoluble, pero a la vez sostiene que la ciencia procede de hecho mediante inferencias
ampliativas y que es imposible hacer inferencias ampliativas sin asumir ciertos principios
sintéticos. Russell propone cinco postulados específicos (1948, parte VI), algunos muy
problemáticos, en cuyo contenido no vamos a detenemos ahora. Sólo conviene insistir en
que, para él, esta especie de argumento trascendental no supone una justificación a p rio ri
de los postulados y, con ellos, de la inducción. No hay justificación a p rio ri ni a p o sterio-
ri de estos postulados, su única “justificación” es que su rechazo conduce al escepticismo
radical, al solipsism o d el m om ento p rese n te . Sin embargo, esta línea de defensa parece
inestable, colapsa en una de las tres siguientes posibilidades: o bien se convierte en una
defensa a p rio ri de los postulados, o bien en una empírica, o bien es una defensa mera­
mente pragmática del método inductivo. Insistir en que no es ninguna de las tres cosas sin
especificar qué es no la hace más inteligible.

2.8. D efensa pragmática

Reichenbach (1935, 1938) propone abiertamente una defensa pragmática de la in­


ducción. Hume tiene razón en cuanto a que no podemos asegurar que el método inducti-
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 407

vo sea correcto, pero apostando por la inducción no tenemos nada que perder y sí mucho
que ganar. La idea es que si hay algún método correcto para hacer predicciones sobre lo
inobservado, en tonces la inducción es ese método. Aunque no podemos justificar racio­
nalmente el antecedente de este condicional, sí podemos justificar el condicional. Es posi­
ble que la naturaleza no siga un curso regular, pero si lo sigue entonces el mejor modo de
dar con él es el inductivo. Por eso apostar por la inducción es pragmáticamente correcto,
no tenemos nada que perder y sí mucho que ganar. Consideremos otro método para hacer
predicciones además del inductivo, por ejemplo, predecir siguiendo las visiones de un
mago con su bola de cristal. Quizá ninguno tenga éxito, pero si alguno lo tiene es el in­
ductivo. Se dirá que el mago, quién sabe por qué motivos, podría también tener éxito en
sus predicciones. Reichenbach no niega esa posibilidad, pero señala acertadamente que
en tal caso el método inductivo daría el mismo resultado (pues sólo si la naturaleza es re­
gular puede tener éxito el mago). Así, puede haber otros métodos tan exitosos como el in­
ductivo, pero no más exitosos que él. Eso es suficiente para apostar por el método induc­
tivo. O, quizá se objete, por cualquier otro de entre los más exitosos. Pero no. En primer
lugar, no habría ninguna diferencia práctica, pues los eventuales métodos alternativos
igualmente exitosos darían los mismos resultados. Y en segundo lugar, y lo que es ver­
daderamente importante, sólo de la inducción podemos saber que está entre los más exi­
tosos. Resumiendo: si algún método funciona, entonces la naturaleza se comporta re­
gularmente; y si la naturaleza se comporta regularmente, entonces el único método para
realizar predicciones del que podemos saber que es correcto es el inductivo. Ésta es la
justificación del mencionado condicional. Nótese, sin embargo, que esta defensa nada re­
suelve en cuanto a la aplicación del método inductivo, pues como hemos señalado en di­
versas ocasiones, la naturaleza se puede comportar regularmente de muy diversos modos;
el curso seguido en el pasado es compatible con infinitos cursos futuros diferentes todos
ellos regulares (infradeterminación de la teoría por la experiencia).

2 .9 . R e c h a z o d e l a in d u c c ió n

Hasta aquí todas las concepciones aceptan que la ciencia procede inductivamente
e intentan justificar tal procedimiento. La última posibilidad consiste en negar justamente
eso, en negar que la ciencia proceda inductivamente. Ésta no es la posición de Hume, que
rechaza que la inducción proporcione justificación pero acepta que la ciencia procede in­
ductivamente (y por ello la ciencia no proporciona conocimiento justificado). El único fi­
lósofo influyente que rechaza, o dice rechazar, que la ciencia es inductiva es Popper.
Introducimos esta cautela en la descripción de su postura porque, como veremos en la
sección 4, su teoría de la corroboración se parece mucho a una nueva conceptualización
del soporte evidencial.

Éstos son Jos principales enfoques clásicos al problema de la inducción. Vamos a


examinar ahora en detalle dos de ellos, el justificacionismo de Carnap y su escuela, y el
refutacionismo de Popper.
408 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

3. Justificacionismo, grado de confirmación y lógica inductiva (*)

La tesis central de la lógica inductiva es que la relación de co n firm a ció n inductiva


(o apoyo evidencial, o ju stifica ció n inductiva ) es una relación lógica. Esto es, la expresión
‘confirmar inductivamente’ es análoga a ‘implicar deductivamente’, ambas expresiones
no denotan relaciones empíricas sino relaciones analíticas o lógicas. En realidad, como
veremos, para Camap la confirmación es im plicación lógica p a rcia l. La idea es que, da­
dos h y e , para establecer si e confirma h o no, o el grado en que lo hace, no hace falta in­
formación em p írica alguna, basta conocer el contenido lingüístico de h y e. Por tanto, “<?
confirma h (en grado r)’\ si es verdadera, es verdadera en virtud de reglas lingüísticas, en
virtud del significado y la forma lógica de e y h. La intuición que hay detrás es que saber
que e confirma h no es saber nada sobre el mundo. Por supuesto que saber e y saber h es
saber cosas sobre el mundo, pero saber que lo primero confirma lo segundo no. La infor­
mación sobre el mundo la proporciona e, necesitamos información empírica para saber si
e ocurre o no. Y si e ocurre, entonces disponemos también, p a rcia lm en te asegurada, de
otra información empírica, h. Pero lo que permite pasar de una información empírica a
otra no es información empírica adicional sino, como en la deducción, información lin-
güístico-lógica. En este sentido la confirmación no es una relación empírica, como la cau­
salidad, sino lógica, como la deducción.

3 .1 . L a T EO R ÍA SIN TÁ CTICA D E H E M P E L

La idea básica de que la confirmación es una relación lógica se encuentra ya en la


definición p u ra m en te sintáctica de la confirmación cualitativa que da Hempel (cf. 1943 y
1945), como lo estaba también tras la propuesta de Nicod. Hempel pretende dar una defi­
nición de confirmación que no tenga las fuertes limitaciones del criterio de Nicod, el cual,
además de ser sólo condición suficiente, se restringía a los casos en los que la hipótesis es
una afirmación universal condicional. La definición de Hempel se aplica a cualquier hipó­
tesis expresable en lógica de primer orden que contenga predicados y relaciones. Hempel
da cuatro condiciones que en su opinión debe satisfacer cualquier concepto de confirma­
ción (cf. 1945, §8 y §9; recuérdese que *C(/i, e )’ significa que e confirma h).

(C l) Condición de implicación: si e implica h entonces C (h 7 e).


(C2) Condición de consecuencia para hipótesis: si C (h, e ) y h' es consecuencia
lógica de h , entonces C Q í, é).
(C3) Condición de consecuencia para evidencias: si C (h, e) y e es consecuencia
lógica de e' entonces C (h, e ’).
(C4) Condición de consistencia: si e y h son cada una consistentes por sí solas y
C (h, e) entonces e a h también es consistente.

La definición de Hempel, que se ajusta a los requisitos establecidos, está basada


en lo que se denomina d esarrollo de una a firm ación p a ra una serie (finita) de individuos.
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 409

Puesto que las sentencias, o no contienen variables o, si las contienen, estarán ligadas por
cuantificadores existenciales o universales, para caracterizar esta noción basta especificar
los siguientes tres casos: (DI) si la afirmación es universal, “x a(x)”, su desarrollo para la
serie de individuos a\, ..., an es la conyunción de todas sus instancias, e.e. “a(í2 i) a ... a
a (a,,)”; (D2) si es existencial, “3x a(x)’\ su desarrollo es la disyunción de todas sus ins­
tancias, e.e. “a(üi) v ... v a(«„)” ; (D3) si no contiene variables, su desarrollo es ella mis­
ma. Con ayuda de esta noción, Hempel da la definición de confirmación cualitativa en
dos pasos. Primero define la confirm ación d irec ta : e confirm a d irectam ente h syss e im­
plica lógicamente el desarrollo de h para los objetos de que habla e. Como se advertirá,
esto no es más que la generalización de la idea de confirmación por instancias de Nicod.
En el segundo paso se procede a una nueva generalización para cerrar la noción bajo las
relaciones lógicas apropiadas: C (h t e ) syss h es implicada por una clase de hipótesis cada
una de las cuales es directamente confirmada por e.
A partir de esta definición de confirmación cualitativa, Hempel define del modo
natural las de d isco n firm a ció n y n eu tra lid a d , también cualitativas: e disconfirma h syss e
confirma la negación de h\ e es neutral respecto a h syss e ni confirma ni disconfirma h .
Por último, identifica verificación y refutación con los casos extremos de confirmación y
disconfirmación: e verifica h syss e implica A; e refuta h syss e implica la negación de h.
Hempel enfatiza que las nociones de verificación y refutación, como las de confirmación
y disconfirmación, son relativas, esto es, una hipótesis resulta verificada o refutada res­
pecto de una evid en cia e. Ahora bien, la p o sib ilid a d de verificación y refutación de una
hipótesis ya no es relativa sino absoluta, pues depende sólo de que p u ed a haber evidencia
verificadora o refutadora. Una hipótesis es verificableirefutable si es lógicamente posible
que haya un informe observacional que verifique/refute la hipótesis. Como señala Hem­
pel, que una hipótesis sea verificable/refutable depende, si no se excluyen universos de
discurso con infinitos objetos, sólo de su forma lógica: si no contiene cuantificadores es
tanto verificable como refutable; si es puramente existencial es verificable pero no refuta­
ble; si es puramente universal es refutable pero no verificable; si es cuantificacional mix­
ta, no será en general ni verificable ni refutable.

3 .2 . El p r o g r a m a in d u c t iv is t a d e C a r n a p

Como se habrá percibido, la noción de confirmación cualitativa así construida, y


todas sus derivadas, son puramente analíticas en el sentido antes indicado: dados h y e> la
información que permite establecer si C (h, e) es o no el caso, es exclusivamente lingüísti-
co-formal. Por ello la propuesta de Hempel participa plenamente del espíritu de la lógica
inductiva. Pero se trata, por así decir, de una lógica inductiva cu a lita tiva . Puesto que el
concepto de confirmación o justificación inductiva es intuitivamente gradual, una lógica
inductiva meramente cualitativa no es de mucha ayuda. Lo deseable es disponer de un
concepto de confirmación cuando menos comparativo, y si es posible métrico. Ésta es la
pretensión que inspira el programa de Carnap y la escuela inductivista en el desarrollo de
una m edida del grado de co nfirm ación. El programa inductivista se inicia con la monu­
410 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

mental obra de Carnap Logical F oundations o f P ro bability (1950) y pasa por diversas
formulaciones como resultado de las modificaciones que van introduciendo ei propio
Carnap y sus colaboradores para responder a las dificultades internas y las críticas exter­
nas. Entre la inmensa literatura que el programa generó, destacan Carnap, 1950, 1952,
1960, 1963 y 1968; Kemeny, 1955 y 1963; Bar-Hillel, 1968; Hintikka, 1965, 1966 y
1968, y Kuipers, 1978. Aquí sólo vamos a ver las ideas centrales, la primera versión de
las mismas, las principales objeciones y las líneas de respuesta que dan lugar a nuevas
versiones.
La idea básica que inspira el programa de Carnap está contenida en la crítica que
hace al concepto cualitativo de confirmación de Hempel. Carnap no tiene nada que obje­
tar a un concepto cualitativo de confirmación en cuanto tal. Es mejor uno comparativo, o
mejor todavía métrico, pero un concepto cualitativo puede ser, aunque de limitada utili­
dad, perfectamente legítimo. Pero sí tiene algo que objetar al concepto cualitativo de
Hempel por no satisfacer un requisito que, en su opinión, debe satisfacer todo concepto
cualitativo de confirmación. Según este requisito (cf. Carnap, 1950, secs. 86-88), si e con­
firma h entonces e debe incrementar la probabilidad de h, e.e. C (h, é) debe implicar
p (h/e) > p(/t) y, como reconoce Hempel, el concepto por él definido es incompatible con
esta condición (cf. Hempel, 1966b, n. 17).
Esta crítica, y el requisito que la inspira, muestra claramente la otra idea básica de
la lógica inductiva tal como se desarrolla en el programa de Carnap. Una primera idea,
común a todo concepto analítico o a p rio ri de confirmación, es que la confirmación es
una relación lógica. La segunda idea, específica de este programa y que acompaña a todas
sus versiones, es que la confirmación es p ro b a b ilista , esto es, la medida del grado de con­
firmación, el concepto métrico de confirmación, se ajusta a la teoría matemática de la
probabilidad. Es más, como ya mencionamos en el capítulo 5, para Carnap la confirma­
ción cuantitativa constituye uno de los sentidos de la noción de probabilidad, la que deno­
mina probabilidadi o probabilidad lógica.
Carnap define el grado de confirmación c de h por e como el cociente entre m ( h a
e ) y m(e), donde m es una medida de lo que él llama p e so p ro b a b ilista de los hechos
(sucesos, enunciados, proposiciones): c (h, e ) = m(/z a e) i m(e). Recuérdese que según
la teoría de la probabilidad, el principio que relaciona la probabilidad de la conyunción
con la probabilidad condicionada es p (h a e) = p (e ) • p (hie). Puesto que m es una medi­
da probabilista, lo que está haciendo Carnap no es sino id e n tific a r el grado de confir­
mación c (h,e) con la probabilidad condicionada p(/t/e), y denotar mediante ‘m ’ las
probabilidades anteriores incondicionadas de e y de h a e. Hasta aquí todo es bastante
bayesiano, aunque con una pretensión más general. En los casos de contrastación, en
los que h implica e , el cociente p (h a e) / p(<?) se puede simplificar, pues en ese caso
p(/i a e) = p (h)\ pero Carnap tiene buenos motivos para no utilizar la forma abreviada
c (h, e) = m(/z)/m(e), pues la noción de grado de confirmación, o probabilidad,, que está
definiendo es una noción g e n era l que no se limita a los casos en que h implica e. La
función c mide el grado en que e apoya (soporta inductivamente) h, sean e y h lo que
sean; la contrastación de hipótesis constituye tan sólo una a p lic a c ió n , especialmente
importante, de esta noción general.
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 411

La idea que inspira la medida carnapiana de grado de corroboración o soporte in­


ductivo es que la inducción es una im plicación p a rcia l , y que dicha parcialidad se mide
en términos probabilistas, En la inferencia demostrativa, a implica “totalmente” p en el
sentido de que en todas las situaciones o mundos posibles en que ocurre a, ocurre tam­
bién p; p está “totalmente contenida” en a . La idea de Carnap de la inducción como im­
plicación parcial es la siguiente: en la inferencia ampliativa, a “implica parcialmente” p
en el sentido de que en p a rte (en algunas) de las situaciones o mundos posibles en que
ocurre a, ocurre también p; p está “parcialmente contenida” en a . La función c es enton­
ces una función general que mide el grado en que un estado de cosas (suceso, proposi­
ción, hecho, enunciado) está contenido en otro. La medida se hace sopesando las situacio­
nes en que ambos ocurren; calibrando, de entre las situaciones en que ocurre e, la propor­
ción de ellas en que también ocurre h. Ésta es la idea que hay tras la medida c (h , e ) = m(/i
a í ) / m(e), y el principal problema, fuente de todos los demás, es cómo se determinan las
probabilidades anteriores m (h a e) y m(e). Recuérdese que la confirmación o probabili­
dad inductiva pretende ser a p rio ri y que eso significa que dados e y h se debe poder de­
terminar a p rio ri c(/z, e). Por tanto, m(/z a e) y m(<?) han de estar determinados a p rio ri
por el contenido y forma lógica de e y h, sin información empírica adicional alguna. En
caso contrario se está abandonando la idea de una lógica inductiva.2
Carnap formula iniciaímente su sistema para lenguajes muy simples, que incluyan
sólo predicados cualitativos monarios. Para la construcción de c impone algunas condi­
ciones generales o axiomas que co n ceptualm ente debe satisfacer cualquier función para
poder ser considerada una medida de soporte inductivo. Algunos de esos axiomas están
destinados a que c sea efectivamente una medida probabilista, p.ej. “si h implica h' enton­
ces c(/t, e) > c(h', e)”. Otros establecen condiciones adicionales pretendidamente deriva­
das del concepto de confirmación, p.ej. “si e y h no contienen variables, entonces el valor
de c(/i, e) depende sólo de los individuos mencionados en e y h” (esto es, los datos relati­
vos a otros individuos que no intervienen en e no cuentan para determinar el apoyo que e
confiere a h ). El problema es que los axiomas solos no bastan para determinar c. Son po­
sibles muchas funciones c diferentes que satisfacen los axiomas y la cuestión es cómo se
determina una de ellas, si es que ha de haber una lógica inductiva. El problema (como
ocurría con los bayesianos) es cómo determinar las probabilidades anteriores m, pues de
ellas depende la medida c; hay tantas funciones de confirmación posibles como posibles
determinaciones de probabilidades anteriores.

3 .3 . P r o b a b il id a d e s a n t e r io r e s

En la primera versión del sistema, de 1950, Carnap aborda la determinación de las


probabilidades anteriores mediante la noción de descripción de estado Catate descrip-

2. Nótese que esta lógica inductiva “incluye” la deductiva. De la definición de c y de que m es


probabilista obtenemos: a implica deductivamente p si y sólo si c(P, a ) = m(P a a ) / m (a), y como, si a
implica p entonces p a a es equivalente a a , tenemos c(p, a ) = m (a) / m (a) = 1.
412 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

tio n '), semejante como se verá a la de situación o mundo posible del Tractatus. Si el len­
guaje contiene n predicados ‘F ¡\ .... ‘F„’ y k constantes individuales ‘a f , ..., tak , cada
descripción de estado especifica para cada individuo qué propiedades tiene y cuáles no.
Una de las descripciones de estado para ese lenguaje es, por ejemplo, “F ¡ i2 i a - i F \ a 2 a ...
a Fi¿ik-i a —i Fj a k a —i F2ct\ a ... a F 2ak a ... a F„al a ... a -n Fna ”. Puesto que hay n • k es­
tados de cosas atómicos, el número total de descripciones de estado es 2" '*. Así, por ejem­
plo, si hay un único predicado ‘F ’ y tres constantes individuales ‘a \ ‘b ’ y lc \ hay ocho
diferentes descripciones de estado:

1. Fa a Fb a F e 5. - i F a a — í F b a F e
2. —! F a a F b a Fe 6. —iFa a F¿> a -i Fe
3. F a a — i F b a Fe 7. F a A —*Fb A —i Fe
4. Fa a F b a — >F e 8 —i F a a —i F¿? a —i Fe.

Como se notará, cada descripción de estado describe exhaustivamente un mundo o


situación posible. Entonces, como en el T ra cta tu s , se puede identificar cada afirmación a
con el conjunto de descripciones de estado en que es verdadera; por ejemplo, “Fh” se
identifica con el conjunto {1, 2,4, 6}, “Fh a - i Fe” con {4, 6}, y **—«Fe” con {4, 6, 7, 8}.
La idea ahora es asignar a cada descripción de estado un número entre 0 y 1 de modo que
entre todas las asignaciones sumen 1, esto es, asignar probabilidades a las descripciones
de estado. Dada esa asignación, la función m se obtiene inmediatamente: m asigna a a la
suma de las asignaciones de las descripciones de estado en que es verdadera. El problema
consiste entonces en determinar el modo de asignar pesos probabilistas a cada descripción
de estado. La posibilidad que parece más inmediata, puesto que desde un punto de vista
a p rio ri no se sabe ni se puede saber nada más, es aplicar el principio de indiferencia y
asignar a cada descripción de estado el mismo peso; en el caso del ejemplo, 1/8 a cada
una. Esta asignación genera una función de probabilidades anteriores específica, digamos
m+, y con ello una medida de confirmación específica, c+. Carnap desestima esta posibili­
dad porque, aunque parece intuitivamente plausible, tiene una consecuencia inaceptable,
a saber, que la evidencia no p u ed e alterar la probabilidad de la hipótesis, la deja siempre
invariante: c+(A, e) = m +(h) para todo h y e . Aunque es sencilla, no vamos a transcribir la
demostración (puede pensarla el lector), baste a modo de ejemplo ver que efectivamente
es así en un caso concreto donde esta consecuencia resulta particularmente contraintuitiva
desde el punto de vista de la lógica de la confirmación. Por ejemplo, si h es “Fh” y e es
“Fa a Fe”, tenemos m+(F¿>) = 4(1/8) = 1/2 y c+(F¿>, Fa a Fe) = m+(F¿> a F a a Fe) / m+(Fe
a F e) = 1(1/8) / 2(1/8) = 1/2. La probabilidad de F b relativa a que se hayan dado ya dos
casos de F (en realidad, en este caso, relativa a que todos los demás individuos sean F) es
la misma que la probabilidad anterior incondicionada de Fb. Esto es claramente contrain­
tuitivo si las probabilidades condicionadas han de servir para elucidar la noción de apoyo
evidencial.
Así pues, para que la evidencia pueda incrementar la probabilidad de la hipótesis
es necesario asignar pesos desiguales a las descripciones de estado. La cuestión es cómo
seleccionar, entre las infinitas alternativas, una de ellas. Para ello Carnap recurre a la no-
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 413

ción de descrip ció n de estru ctu ra E stru ctu re d e s c r ip tio n ). Una descripción de estructura
agrupa las descripciones de estado en grupos isomorfos. En nuestro ejemplo, las descrip­
ciones 2, 3 y 4 son isomorfas (cf. Apéndice), y las 5, 6 y 7 también, así que hay un total
de cuatro descripciones de estructura: {1}, {2, 3, 4}, {5, 6, 7} y {8}. Las descripciones de
estado describen el total de situaciones, las diferentes posibilidades de ejemplificarse las
propiedades en los individuos. Las descripciones de estructuras describen el total de si­
tuaciones estru ctu ra lm en te d iferen tes . Aunque “-iF a a F b a F e" y “Fa a —iF b a F c" son
diferentes situaciones, no son situaciones estructuralmente diferentes, son isomorfas. Las
descripciones de estado quedan identificadas al determinarse qué individuos tienen cada
propiedad; las descripciones de estructura, en cambio, quedan determinadas al determi­
narse el número de individuos que tienen cada propiedad. Camap realiza ahora la asigna­
ción aplicando el principio de indiferencia <2 ) a las descripciones de estructura, y b) a las
descripciones de estado dentro de cada descripción de estructura. Esta asignación genera
una función de probabilidades anteriores específica, m \ y con ello una medida de confir­
mación específica, c*. En nuestro ejemplo, este procedimiento asigna a cada descripción
de estructura 1/4, quedando la asignación para las descripciones de estado del siguiente
modo: 1/4 para la 1 y la 8 y 1/12 para cada una de las restantes. Es fácil comprobar que
ahora la evidencia p u ed e incrementar la probabilidad de la hipótesis. No siempre es así,
no se pretende que cu a lq u ier evidencia aumenta la probabilidad de la hipótesis, sino sólo
que pueda haber evidencia que sí lo haga. Por ejemplo, en el caso visto, de acuerdo a las
intuiciones, la hipótesis “F b" es apoyada positivamente por los datos “Fa a F c”, pues
m \F b ) = 1/2 y c ( F b , F a a Fe) = 3/4; y en otros casos ocurre lo contrario, por ejemplo
con esa misma hipótesis y los datos “-1 Fc” obtenemos c \ F b , —. Fe) = 1/3. Por tanto, las
instancias positivas semejantes confirman la hipótesis y las instancias negativas semejan­
tes la disconfirman. Así, m* garantiza que podamos aprender inductivamente de la expe­
riencia.
Hasta aquí las líneas generales del programa inductivista iniciado por Camap.
Concluiremos comentando brevemente las principales dificultades del mismo y las modi­
ficaciones que se proponen para su solución.

3.4. P roblem as y d is c u s ió n

Lenguaje cuantitativo. Las formulaciones iniciales que hace Camap del programa
inductivista se limitan a lenguajes muy pobres que contienen sólo predicados cualitativos.
Esto representa un grave problema para la aplicabilidad del programa a casos de la ciencia
real, pues la mayoría de las teorías científicas usan habitualmente conceptos cuantitativos.
Aunque no es una dificultad de principio, Carnap la percibió como una grave limitación y
en los últimos tiempos trabajó en sistemas que incluyeran conceptos cuantitativos.

D ep en d en cia del lenguaje. La primera dificultad seria es la dependencia del gra­


do de confirmación c de la riqueza expresiva del lenguaje. Cada uno de los métodos para
asignar las probabilidades anteriores m arroja resultados diferentes en función de cuáles
414 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

sean los estados de cosas elementales posibles y eso depende del lenguaje que se use. En
el sistema examinado es fácil ver que el modo de asignar los pesos a las descripciones de
estructura y de estado hace depender los valores asignados, y con ellos m* y c \ del núme­
ro de predicados del lenguaje. Esto es así tal como se ha construido m \ pero un problema
análogo tendría cualquier otra función determinada a p rio ri por métodos semejantes. En
el sistema continuo de 1952 se manifiesta explícitamente este problema. Generalizando el
tratamiento anterior, Carnap da una fórmula para determinar c(/z, é) que además de h y de
e, depende también de la riqueza d el lenguaje L (y de cierto parámetro numérico X que
comentaremos más adelante).
Ya en el sistema inicial, Carnap introduce al efecto un requisito de completud ex­
presiva, según el cual L debe contener todos los predicados necesarios para poder expresar
todos los atributos de los individuos del universo de discurso (cf. 1950, p. 75). Más adelapte
introduce como axioma la exigencia de que c no debe variar con la inclusión de nuevos pre­
dicados (cf. 1963, p. 975). Pero, como hemos visto, esta exigencia no la satisface el sistema
general de 1952, y tampoco lo hacen los posteriores. La única posibilidad parece ser partir
de lenguajes expresivamente completos. Pero aquí sobreviene una dificultad de p rin cip io :
quien determina qué propiedades hay en el universo de discurso susceptibles de ejemplifi­
carse en los individuos son las propias teorías científicas. Por lo tanto, la determinación de
cuál es el lenguaje expresivam ente com pleto es relativa a una teoría o familia de ellas.
La situación es pues la siguiente. Por un lado, la determinación de la función de
confirmación c de acuerdo con la cual se evalúan las teorías científicas depende de la de­
terminación previa del lenguaje completo L. Por otro, la determinación de qué lenguaje L
es expresivamente completo depende de las teorías científicas que consideremos descri­
ben correctamente el mobiliario de propiedades del universo. De ambas cosas se sigue
que la medida de justificación inductiva depende de las hipótesis empíricas que hacen las
teorías científicas. Esto tiene dos consecuencias fatales para el proyecto inductivista. En
primer lugar, queda socavado el pretendido carácter a p rio ri de la lógica inductiva. En se­
gundo lugar, o la justificación de la inducción es circular, o la inducción no es el método
con el que evaluamos qué teorías son (más) correctas. En efecto, si la corrección de las
teorías que permiten determinar el lenguaje completo L se evalúa inductivamente, caemos
en una circularidad, pues la función inductiva c depende de cuál sea L\ la alternativa sólo
puede ser que se evalúen las teorías que determinan L por un método no inductivo. Nóte­
se que no es posible eludir estos problemas rechazando que c dependa del lenguaje; es
esencial que c dependa del lenguaje, pues sólo así constituye una lógica inductiva. La
única posibilidad parece ser que (como ocurre en la lógica deductiva) c dependa sólo de
aspectos gen era les del lenguaje, aspectos cuya determinación no varíe de una teoría cien­
tífica a otra. Éste es seguramente el sentido del nuevo axioma que introduce Carnap (la
invarianza de c respecto de la inclusión de nuevos predicados), aunque al final se queda
en una exigencia programática incumplida. En realidad es difícil concebir una lógica in ­
ductiva, no deductiva, que dependa sólo de esas propiedades tan generales del lenguaje.

A rb itra ried a d .
La segunda dificultad importante se deriva de la aparente arbitra­
riedad en la elección de la función m que determina la medida c. ¿Por qué elegir m* y no
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 415

cualquier otra (diferente de m +)? Hay numerosas funciones que tienen las mismas conse­
cuencias intuitivas que m +, a saber, que crecen con las instancias positivas y decrecen con
las negativas; ¿por qué quedarse con una más que con cualquiera de las otras? Hemos
anunciado en el punto anterior que en 1952 Carnap generaliza su sistema y establece una
fórmula para determinar c (h, e) que, además de h, de e y del lenguaje L, depende de cierto
parámetro numérico X. Este parámetro puede variar entre 0 y oo, correspondiendo c+ y c \
respectivamente, a los casos con X - co y X = 2. Tenemos pues a nuestra disposición un
continuo de métodos inductivos diferentes e incompatibles que dependen del valor que fi­
jemos para el parámetro X. La medida c* corresponde a X = 2, ¿qué razones hay para con­
siderar que esa, o cualquier otra, es la lógica inductiva correcta?
A veces se expresa esta dificultad acusando a Carnap de apriorism o. Pero ésa no
es una acusación para el inductivista. Si el grado de confirmación c ha de expresar una ló ­
gica inductiva, las probabilidades anteriores m se d eben d eterm in a r a p r io ri . El problema
no es el apriorismo sino la arbitrariedad: puesto que no parece haber más razones a p r io ­
ri en favor de una m que de otras, ¿cómo se ju stific a nuestra elección de una determina­
da? Los inductivistas, incluido Carnap, suelen identificar los diversos valores de X con los
diversos grados posibles de uniformidad de la naturaleza; X sería una medida de la com­
plejidad del mundo. Pero entonces, aceptar un valor determinado para X equivale a acep­
tar un principio específico de regularidad-simplicidad de la naturaleza y la cuestión, ob­
viamente, es qué justifica esa elección.
Dicha justificación no parece poder ser a p r io r i , pues el co n cep to de justifica­
ción no basta para determinar una única X. Carnap y otros sugieren a veces que X puede
determinarse empíricamente, por ejemplo atendiendo a frecuencias observadas (cf. p.ej.
Carnap, 1950, p. 181, y 1952, p. 55). Pero en primer lugar, y caso de ser viable optar
por esta alternativa, ello supone renunciar al proyecto entero de una lógica inductiva,
pues tal lógica no puede depender de hipótesis empíricas sustantivas. Y en segundo lu­
gar, la alternativa es simplemente inviable, pues una hipótesis empírica sobre el valor de
X requeriría, como cualquier hipótesis empírica, de justificación, lo cual conduce a un
círculo o a un regreso infinito, ambos viciosos. Carnap mismo acaba desestimando ex­
plícitamente esta vía: “no es necesario referirse a la experiencia para juzgar la racionali­
dad de la función c” (1968, p. 264). En algunos lugares parece proponer que la elección
de c descansa en nuestra in tu ició n in d u ctiva (cf. 1963, p. 978), pero eso hace que la ló­
gica inductiva sea a p r io ri en un sentido muy problemático. En la medida en que esa in­
tuición p u e d a variar entre individuos o comunidades se estaría desplazando hacia el
subjetivismo (al respecto, cf. también 1960).
En definitiva, ninguna razón a p rio ri determina una única función c entre todas las
conceptualmente posibles, pero tampoco evidencia empírica alguna puede justificar in­
ductivamente su determinación, pues antes de determinar c no sabemos lo que significa
‘justificar inductivamente’. Estamos una vez más ante el viejo problema de Hume: la in­
ducción no se puede justificar a p rio ri, pues su negación no es inconcebible, ni a p o ste-
riori , pues su justificación empírica presupondría la validez de un principio inductivo,
que es lo que está enjuego.
416 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

A teoricism o. Además de las dificultades anteriores que afectan a la concepción


misma del programa inductivista, hay otras más específicas. Una de las más graves es
que, tal como se formula al principio, la lógica inductiva no se puede aplicar a aquello
para lo que se había pensado, a saber, hipótesis generales o teorías. Como enfatizaron
Popper y otros, y Carnap reconoció inmediatamente, las primeras y más acabadas versio­
nes del programa (1950 y 1952) tienen la siguiente consecuencia: si el lenguaje contiene
infinitas constantes individuales entonces, para cualquier h que sea una hipótesis condi­
cional general (ley, teoría) y cualquier e que sea una afirmación particular (o un conjunto
de ellas), c (h/e) = 0. Eso se ve claramente con c* (compruébelo el lector), pero no de­
pende de esa elección específica; lo mismo ocurre con cualquiera de las c que generan los
diferentes valores de X. Así pues, cualquier cantidad finita de evidencia particular confir­
ma (apoya, justifica) una hipótesis general en gra d o cero , esto es, no la confirma en a b so ­
luto. La lógica inductiva de Carnap es pues ateórica, no se aplica a hipótesis generales o
teorías. Las teorías quedarían al margen de la justificación, serían d isp en sa b les en el con­
texto de justificación (aunque no en el de descubrimiento).
Esta consecuencia no le parece a Carnap, en principio, tan insatisfactoria. De he­
cho, ella se compadece bastante bien con la postura instrumental!sta respecto de las teo­
rías que durante mucho tiempo mantuvo Carnap, a saber, con la tesis de que las teorías
son instrumentos para manejar datos de experiencia, para inferir unos a partir de otros,
pero ellas no tienen “significación óntica” real. Sin embargo, incluso dejando al margen
la cuestión de fondo del instrumentalismo, este ateoricismo tiene algo de contraintuitivo.
Como dice Lakatos (1968a, §3¿9, Carnap primero extiende el problema clásico de la jus­
tificación inductiva, incluyendo hipótesis particulares, y después suprime la parte origi­
nal, las hipótesis generales. Para resolver este aspecto contraintuitivo, Carnap introduce la
noción de co n firm a ció n cualificada p o r casos {‘‘q u a lified instance c o n firm a tio rí ) de una
ley. La idea que hay detrás, y que en su opinión permite ajustar nuestras intuiciones, es
que el grado de confirmación de una hipótesis se puede identificar con la fia b ilid a d o c o ­
ciente de apuesta racional a la luz de la evidencia disponible. Si eso es así, entonces po­
demos dar cuenta de lo que los científicos consideran justificación de las teorías en los si­
guientes términos. Cuando un científico sostiene que una teoría (hipótesis general) está
bien fundamentada empíricamente, o que es fiable, no quiere decir que apostaría a que la
teoría es verdadera (seguramente no apostaría nada a ello, e.e. c(h, e) = 0), sino que apos­
taría a que un nuevo caso (predicción) encajará en la teoría. Así, si h es la ley “Todo A es
£ ”, el grado de confirmación cualificada cc (h, e ) de la hipótesis-ley por la evidencia e es
el grado de confirmación de un caso nuevo de la ley: cc(Vx(Ajc —> B x ), e) ~ c(A a —> B a ,
e), siendo a cualquier individuo no involucrado en la evidencia e. Es inmediato que cc,
como c, sólo depende de la ley y de la evidencia, y además que aumenta hacia 1 al au­
mentar el número de instancias positivas de la ley de las que se tiene evidencia.
Esta innovación es considerada inaceptablemente a d hoc por Popper, Lakatos y
muchos otros, pues consideran que su única finalidad es resolver lo que de contraintuitivo
tiene la ateoricidad. Esto no es en realidad una objeción, si ése fuese el único problema.
Pero no lo es. En el sistema de Carnap, si e implica la negación de h entonces c (h, e) = 0
pues m (h a é) = 0. Aplicado a leyes, eso quiere decir que el grado de confirmación c de la
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 417

ley “Todo A es B ” por evidencia que contenga un caso de A que no sea B, “Aa y no B a '\ es
cero. La lógica inductiva de la confirmación basada en c incluye pues la refutación como
caso especial. Pero con la confirmación cualificada las cosas cambian, cc(Vx(A^: —> B x), e )
puede ser muy cercano a 1 aunque e contenga muchos contraejemplos de la ley. Es fácil
ver que el valor de cc aumenta hacia 1 al aumentar la proporción de casos positivos res­
pecto de los negativos; esto es, si de los casos contemplados en e el x % son instancias
positivas de la ley y el resto contraejemplos, el valor de cc es ;c/100. Eso le parece a Pop-
per completamente inaceptable, pues una medida que tenga esa consecuencia no tiene
nada que ver con las nociones intuitivas de confirmación, apoyo evidencial o evaluación
empírica (cf. p.ej. 1963, cap. 11, §6). Por ejemplo, si la evidencia disponible al lanzar una
moneda varias veces es que la mitad son caras y la mitad cruces, según cc esa evidencia
apoya la ley “Al lanzar una moneda siempre sale cara” en grado 0,5. A Popper eso le pa­
rece inadmisible, pues considera que esa evidencia no apoya esa ley en absoluto. A Car-
nap no le parece tan objetable, pues según él cc mide el cociente de apuesta racional, y en
esas circunstancias es racional apostar a caras la mitad.
La cuestión de fondo es hasta qué punto cc es una medida de evaluación de la ley.
Si de evaluar la ley se trata, dice Popper, en el caso del ejemplo la evaluación debería ser
totalmente negativa (a no ser que se rechace e, pero esa es otra cuestión de la que hablare­
mos más adelante). Y parece que en esto tiene razón. Pero Carnap se resiste porque en
realidad no acepta que se puedan evaluar las leyes en sentido estricto, en eso consiste su
ateoricismo. Lo único que según él pretende cc es explicar qué quieren decir los científi­
cos cuando dicen que una ley está bien fundamentada experimentalmente. Pero ni siquie­
ra eso parece ser así si nos tomamos las leyes en serio, como objetos susceptibles de eva­
luación; en el caso del ejemplo es muy dudoso que los científicos considerasen m ed ia n a ­
m ente fundada la ley de que en todos los lanzamientos saldrá cara. Lo que ocurre simple­
mente es que con esta innovación Carnap tiene no uno, sino dos conceptos de confirma­
ción y pretende tomar uno y dejar otro, o viceversa, cuando la situación lo requiera. Pero
eso no se puede hacer sin más. Puesto que dan diferentes valores, ¿cuál es el que recoge
la intuición de la justificación inductiva, del grado de apoyo evidencial? El problema
de la inducción, del grado de confirmación, se inició con las hipótesis generales. Carnap
lo “ensancha” incluyendo hipótesis particulares. Entonces define una medida c de soporte
inductivo que sólo se aplica a las hipótesis particulares, no a las generales. Para recoger
las intuiciones sobre la confirmación de hipótesis generales define otra medida, cc, según
la cual una ley cuya evidencia disponible contiene igual número de instancias positivas
que de contraejemplos, está tan confirmada como disconfirmada por dicha evidencia. Esta
no parece una buena solución al problema del ateoricismo. Y de hecho Carnap apenas fue
seguido en este punto. La mayoría de los inductivistas, principalmente Hintikka, intenta­
ron resolver el problema desarrollando sistemas de lógica inductiva en los que aun conte­
niendo L infinitas constantes individuales las hipótesis generales pueden tener grados de
confirmación no nulos. El más conocido es el sistema bidimensional de Hintikka en el
que c no depende de un único parámetro real X sino de dos. Estos sistemas son extrema­
damente complejos y no vamos a detenernos aquí en ellos (cf. Hintikka, 1965, 1966 y
1968; para una buena exposición simplificada, Kuipers, 1978).
418 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

C ondiciones de aplicación y guía p a ra la ra cio n a lid a d .Carnap, como en gene­


ral todos los teóricos de las inferencias ampliativas, pretende vincular su lógica inductiva
con la teoría de la creencia y la acción racionales. La creencia racional se supone que
idealmente está cerrada bajo relaciones inferenciales. En el caso de las inferencias deduc­
tivas es claro. Si alguien cree a, de a se deduce (3, y el sujeto es racional, entonces debe­
ría idealmente creer (3; o si alguien está justificado en creer a y de a se deduce p, está jus­
tificado en creer p. En este sentido la inferencia inductiva también debería ser guía de ra­
cionalidad. Sin embargo aquí la cuestión es un poco más complicada, pues la aplicación
de la lógica inductiva requiere condiciones adicionales (cf. Carnap, 1950, §44 ss.). La
más manifiesta es la condición de evidencia total. Aunque c(/*, e ) sea muy próximo a 1 y
se esté justificado en creer e , no se debe “inferir” sin más /i, pues la inclusión de eviden­
cia adicional puede invertir drásticamente el soporte inductivo, esto es, c(hfe a e') puede
ser cercano a 0 (ya mencionamos esto anteriormente, cf. cap. 2, §3, cap. 5, §5 y cap. 7, §2
y §3). Si la evidencia adicional e' está disponible en esas circunstancias, tomar esa deci­
sión sin tenerla en cuenta no es racional. Por ello, el requisito de evidencia total exige que
para aplicar la probabilidad inductiva racionalmente es necesario, además de que c (hie)
sea alto y e esté justificado, que e incluya toda la evidencia relevante disponible.
La satisfacción del requisito de evidencia total no basta. Es necesario además que
se especifique cóm o u sa r el grado de confirmación. Consideremos por ejemplo que lo
vamos a aplicar para hacer apuestas, o para sostener creencias más o menos intensamente.
Hay varias aplicaciones posibles. Una podría ser: si c(h/e) supera 0,5, apuesta todo a h.
Otra de este mismo tipo exigiría un límite mayor. Éstas son condiciones de tipo u m b ra l :
si c supera cierto umbral (y se cumple é) apuesta todo a h. La condición que establece
Carnap no es de este tipo sino proporcional: apuesta proporcionalmente a c. Si c (hle) —r
(y se cumple e ), apuesta por h ‘V a 1-r”; p.ej. si c (hfe) = 0,75 apuesta 3 a 1 por h. Por eso
califica el grado de confirmación c de cociente de apuesta racional. Aquí Carnap presen­
ta ciertas inconsistencias terminológicas (hemos visto más arriba que en el caso de hipó­
tesis generales el cociente de apuesta racional es cc y no c, pero dejaremos esta inconsis­
tencia de lado ahora). A veces parece que con el cociente de apuesta racional no se refiere a
c(/i, e) sino, justamente, al cociente de la apuesta c (h, e) / l-c(/i, e) (el cociente de la
apuesta 3 a 1 no es 0,75 sino 0,75/0,25). Pero otras veces lo identifica con el grado de
apoyo eviden cia d entendiendo por tal la diferencia c (h, e) - m (h ), e.e. el increm ento de
probabilidad que e confiere a h. La idea es que lo que mejor expresa la fuerza evidencial
de e es el efecto producido por e, la comparación entre las probabilidades de h antes y
después de e (otros inductivistas usan el cociente p (hle) / p (h)). Estas oscilaciones presen­
tan algunos problemas no meramente terminológicos, pero no vamos a detenernos en
ellos ahora (cf. p.ej. Lakatos, 1968¿z, §4).

4. Falsacionismo, grado de corroboración y verosimilitud (*)

Como consecuencia de los problemas vistos, y de otros que no hemos mencionado,


el programa inductivista de Carnap y su escuela entra a finales de los sesenta y principios
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 4 Í9

de los setenta en una fase de estancamiento de la que no se ha recuperado. Uno de los más
feroces detractores del programa inductivista es K. Popper, que comanda la escuela episte­
mológica rival conocida como fa lsa cio n ism o o refutacionism o. Este programa alternativo
es iniciado por Popper en los años treinta con la publicación de Logik d er F orschung
(1935), pero permanece prácticamente ignorado, salvo por unos pocos, durante más de
veinte años hasta que se traduce la obra al inglés a finales de los cincuenta. El falsacionis­
mo se consolida a partir de los sesenta y constituye durante casi dos décadas la epistemolo­
gía dominante en los países anglosajones y nórdicos, influencia que ha ido muchas veces
más allá de la comunidad de especialistas y se ha extendido al gran público. Junto con el
fundacional Popper, 1935-1958, otros trabajos destacados son Popper, 1956-1983, 1963,
1972 y 1974<s; Watkins, 1968; Musgrave, 1973, y Niiniluoto, 1977,1982 y 1984.
El lema del falsacionismo de Popper es el siguiente: el método científico no es in­
ductivo, el método de la ciencia es el de conjeturas y refutaciones. Ésta es la esencia del
famoso racionalism o crítico de Popper. Sin embargo, este lema es parcialmente confun­
dente. Es cierto que Popper niega que la ciencia proceda inductivamente, pero sólo si por
‘inducción’ se entiende estrictamente lo que los carnapianos entienden. Como veremos, y
aun a pesar de las protestas de su fundador, la metodología popperiana se puede calificar
de inductiva en un sentido amplio.

4 .1 . A n t iin d u c t iv is m o

Algunos de los problemas del inductivismo carnapiano que hemos visto habían
sido planteados por Popper ya en 1935 pensando, a partir de ideas de Keynes y Reichen-
bach, en sistemas similares a los desarrollados posteriormente por Carnap. La crítica de
Popper es pues incluso anterior a la primera versión acabada del programa carnapiano en
1950, y continuaría implacable ante las sucesivas modificaciones. Muchos de esos pro­
blemas no los señala sólo Popper, sino también muchos otros autores (incluidos los pro­
pios inductivistas). Pero hay una crítica adicional específica de Popper que según él le se­
para del resto de los críticos. No la hemos incluido en la sección anterior porque no se re­
fiere a la dificultad que tiene Carnap para desarrollar sus intuiciones sino a las intuiciones
mismas, a saber, a la tesis de que el apoyo evidencial se mide en términos probabilistas.
Así pues, a lo que Popper objeta específicamente es a la versión p ro b a b ilista del grado
de apoyo evidencial, que, como hemos visto, constituye el núcleo de la versión carnapia-
na de la inducción. Popper rechaza de plano la idea de una lógica inductiva proba b ilista.
Cuando el grado de apoyo de una proposición por otras no es total (deducción), no se
puede medir el apoyo parcial con una función probabilista. El grado de apoyo evidencial
no es una probabilidad.
Popper dice haber dado con un argumento que prueba definitivamente que cual­
quier medida razonable del apoyo evidencial no puede ser probabilista. Hay varias versio­
nes del argumento, pero la esencia del mismo es la siguiente (cf. p.ej. 1935-1958, §83 y
apéndice *IX y 1963, cap. 11, §6). (1) El contenido informacional varía inversamente con
la probabilidad; cuanto más fuerte es una hipótesis, cuanto más dice, menor es su pro­
420 FUNDAMENTOS DF FILOSOFIA DE LA CIFNCÍA

habilidad (las tautologías tienen probabilidad 1 al precio de ser vacías). (2) La ciencia
persigue hipótesis cada vez más informativas, con más contenido. (3) La ciencia persigue
hipótesis cada vez mejor apoyadas por la evidencia. Por tanto (4), el apoyo evidencial no
es una probabilidad. Nótese que si el argumento es válido se puede concluir también algo
más fuerte, a saber, que ninguna medida que varíe directamente con la probabilidad puede
medir el apoyo evidencial. La ciencia no avanza hacia hipótesis más probables sino más
improbables.
La aparente fuerza de este argumento depende de su ambigüedad; para que las
premisas sean verdaderas, o convincentes, el término ‘probabilidad’ debe significar algo
diferente en alguna de las premisas y en la conclusión. Si el término significa siempre lo
mismo, el argumento es formalmente válido pero alguna premisa es claramente inacepta­
ble; y si todas las premisas se interpretan de modo que sean aceptables, entonces el argu­
mento es inválido por constituir una falacia de equivocidad (cf. cap. 2, §2). La equivoci-
dad en cuestión involucra los sentidos incondicionado y condicionado de ‘probabilidad’.
Una cosa es la probabilidad de determinada hipótesis sin más, incondicionada (o condi­
cionada sólo a cierto conocimiento de fondo), y otra diferente es la probabilidad de una
hipótesis relativa o condicionada a una determinada evidencia. Y estas dos probabilidades
pueden ser muy desemejantes, una hipótesis puede ser muy improbable “por sí sola” pero
muy probable relativamente a ciertos datos. En concreto, para que la premisa (1) sea
aceptable debe referirse a probabilidades incondicionadas, y en combinación con (2) dice
que la ciencia persigue hipótesis cada vez menos probables, que es verdadero sólo en este
sentido absoluto o incondicionado. Pero la conclusión (4) debe referirse a la probabilidad
condicionada a la evidencia, pues de otro modo no se seguiría de la premisa (3), que ha­
bla del apoyo evidencial. Lo único que se infiere válidamente de este argumento es (4')
que el grado de apoyo evidencial no es una probabilidad incondicionada, algo que ningún
inductivista ha defendido.
Debe quedar claro que el sentido en que (1) + (2) es verdadero es el sentido
incondicionado. En el sentido en que la probabilidad involucra la referencia a evidencia
específica para la evaluación es fácil mostrar que en ciencia no siempre se prefieren las
hipótesis menos probables. Supongamos que h { implica e y que e ocurre, con lo que e
apoya evidencialmente (en el grado que sea) hú por ejemplo, h\ puede ser la mecánica
celeste newtoniana y e la reaparición del cometa Halley. Ahora tomemos una h2 que no
tenga intuitivamente nada que ver con e, por ejemplo la teoría de la combustión de
Lavoisier. La conyunción h\ a h2 es una nueva hipótesis que también implica e , y ade­
más es más informativa o improbable en el sentido precisado, efectivamente ocurre que
p(/i, a h2) < p(/*i). Pero en esta situación nadie diría que, rela tiva m en te a la evid en cia
d isponible, la reaparición del cometa Halley, la ciencia prefiere la hipótesis de más con-
enido h t a h2.
En cualquier caso, en opinión de Popper la idea de las probabilidades inductivas
está inspirada en la vieja concepción de “La Ciencia” como conocimiento cierto, de­
mostrable. La idea se ha modificado, pues se reconoce que la certeza plena es inalcanza­
ble, pero “como la inducción se considera una especie de generalización debilitada de
la deducción, el antiguo ideal se ha modificado sólo ligeramente” (1956-1983, cap. IV,
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 421

§27). La pretensión que persigue el inductivismo es establecer nuestras hipótesis empí­


ricas, si no con certeza plena, sí con certeza su fic ie n te , con alta probabilidad. Pero esta
pretensión es vana. En su opinión, no sólo los intentos específicos para desarrollarla es­
tán, como los propios inductivistas reconocen, llenos de problemas, sino que la idea
misma de inducción probabilista, según cree haber probado con su argumento, está con­
denada al fracaso por principio: “Nuestra ciencia no es conocimiento {epistem e)\ nunca
puede pretender que ha alcanzado la verdad, ni siquiera el sustituto de ésta que es la
probabilidad” (1935-1958, §85).

4 .2 . F a l s a c io n is m o

El método científico no es inductivo. La ciencia no pretende establecer o justificar


sus hipótesis. Sin embargo, aprendemos de la experiencia, aunque no por inducción. El
método de la ciencia, el método por el que aprendemos de la experiencia, es el de las con­
jeturas y las refutaciones. El método científico es la máxima expresión del modo median­
te el que todo organismo aprende de su entorno: por ensayo y error. En primer lugar, con­
jeturamos, inventamos libre y creativamente hipótesis generales sobre el mundo, cuanto
más arriesgadas mejor (el objetivo de la ciencia no es buscar hipótesis más probables sino
más improbables). En segundo lugar, sometemos las hipótesis a prueba mediante tests se­
veros. De nuestras hipótesis (y del conocimiento de fondo) inferimos hechos particulares
constatables mediante observación o experimentación. Si el hecho particular predicho no
acaece, la hipótesis no pasa el test y es refutada por ese informe observacional; si el he­
cho acaece, la hipótesis pasa el test y sobrevive p ro visio n a lm en te . Todo lo que por el mo­
mento podemos afirmar en este segundo caso, a la espera de nuevos tests, es que la hipó­
tesis p u ed e ser verdadera. Se diseñan nuevos tests para refutarla hasta que no resista la
contrastación y quede refutada, en cuyo caso la abandonamos e ideamos otra mejor que
supere todas las contrastaciones de la primera y otras nuevas. Así es como se desarrolla y
progresa la ciencia, por ensayo y error.
El método científico es por tanto un método de contrastación de hipótesis, pero
m ediante la co ntrastación la ciencia no p rete n d e ju s tific a r su s hipótesis sino refutarlas .
En esto consiste el racionalismo crítico, en hacer todo lo que está en nuestras manos para
demostrar que estamos equivocados. Hacer todo lo que esté en nuestras manos incluye
usar toda la lógica que podamos, pero no hay más lógica que la deductiva y por tanto no
hay más inferencia posible en la contrastación que el m odus tollens , la refutación. Si el
m odus tollens no se puede aplicar porque la predicción es exitosa, no hay nada más que
aplicar. La lógica sólo permite refutar hipótesis, nunca confirmarlas, ni total ni parcial­
mente. Al final de su L o g ik d er F orschung concluye: “No conocemos: sólo podemos con­
jeturar” (1935-1958, §85). Y nunca podemos saber, ni siquiera aproximadamente, si he­
mos acertado con nuestras conjeturas, sólo podemos saber que nos hemos equivocado.
Ésta es la idea central del falsacionismo de Popper. Conviene enfatizar que no
pretende establecer sólo cómo d eb e proceder la ciencia, sino cómo d e h ech o procede. Hay
un problema lógico de la inducción, que resolvió Hume de una vez por todas (esto es, no
422 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

hay lógica inductiva). Pero no hay un problema m etodológico de la inducción pues, sim­
plemente, la ciencia no sigue de hecho un supuesto método inductivo. La ciencia sigue de
hecho el método de las conjeturas y las refutaciones, como muestra en su opinión una co­
rrecta revisión de la historia de la ciencia, de la que él mismo extrae numerosos ejemplos
(cf. p.ej. 1956-1983, “Introducción de 1982”). Conviene insistir en que no hay que inter­
pretar estas afirmaciones, hay que tomar literalmente la afirmación de que mediante la
contrastación la ciencia no p reten d e justificar sus hipótesis sino refutarlas. Popper no dice
que se pretende justificarlas empíricamente pero que tal pretensión es ilegítima, pues la
justificación inductiva es imposible. Dice literalmente que no se pretende tal cosa, que
cuando los científicos contrastan sus hipótesis no tienen la intención de justificar sus con­
jeturas sino de refutarlas. Eso, nuevamente, es un juicio metaempírico sobre las intencio­
nes de los científicos que, cuando menos, dista de ser evidente sin cualificaciones ulterio­
res. Como veremos, su teoría de la corroboración cabe entenderla como una importante
cualificación al respecto.
Hasta aquí cabría considerar la epistemología de Popper como una epistem ología
negativa en el sentido de que el único saber justificado sobre el mundo no es saber sobre
cómo es el mundo sino sobre cómo no es. Se puede aducir que eso es efectivamente un
modo de saber: saber que cierta hipótesis es falsa es saber algo d el mundo. Pero aunque
eso sea así, es cuando menos algo contraintuitivo defender que ése es todo el sa b er a l que
aspira la cien cia , esto es, el tipo de saber que caracteriza al conocimiento científico (de­
jamos por el momento de lado el saber sobre hechos de observación particulares, sobre el
que volveremos más adelante). La ciencia sólo podría aspirar a ser una especie de docta
ignorantia. Y, ciertamente, muchas veces Popper parece asumir abiertamente y sin repa­
ros esta posición (“Fue mi viejo maestro ebanista quien me enseñó [...] que cualquier sa­
ber al cual pudiera aspirar sólo podía consistir en conocer cada vez más la infinitud de mi
ignorancia”, 1974a, §1). Sin embargo, es difícil rechazar completamente la idea de
que las contrastaciones exitosas permiten decir algo positivo de las hipótesis, esto es, que
cuantos más datos resulten acordes con la hipótesis, ésta está, en algún sentido a especifi­
car, mejor “justificada”. Ésta es la intuición que hay tras el inductivismo y que parece di­
fícil rechazar plenamente. La teoría de la corroboración de Popper matiza este rechazo in­
corporando a su falsacionismo, p a c e Popper, un grano de intuición inductivista.

4 .3 . G r a d o d e c o r r o b o r a c ió n

La noción popperiana de grado de corroboración pretende expresar cierta evalua­


ción de una hipótesis en virtud de evidencia pasada favorable. Para ello no sólo importa la
cantidad de la evidencia sino también la calidad, el rigor de las contrastaciones. Popper
afirma que no todas las contrastaciones son iguales, unas son más rigurosas que otras, y
es fácil ver que esa diferencia sólo se considera relevante cuando la hipótesis supera el
test, pues si sucumbe a la contrastación queda refutada sin importar cuán riguroso haya
sido el test; en la refutación no hay grados. El rigor de los tests depende de algunos ele­
mentos pragmáticos ineliminables (como la autenticidad y sinceridad en la intención de
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 423

refutar la hipótesis). Pero, fijados esos elementos, los restantes se pueden precisar formal­
mente en términos del contenido de las proposiciones involucradas. Ya hemos visto que,
según Popper, se debe aspirar a hipótesis de mayor contenido y que por ‘contenido’ se
debe entender improbabilidad, esto es, el contenido Ct de una afirmación a es el comple­
mento de su probabilidad: C t(a ) = l-p (a).3
Popper identifica por lo general la noción de contenido (o im probabilidad) con la
de fa ls a b ilid a d (o corroborabílidad), y ésta con la de explicatividad. La falsabilidad de
una afirmación depende de la cantidad de sus falsadores potenciales: cuantos más hechos
particulares puedan falsar a, tanto más falsable es. Hay casos en que es inmediato ver
cuál de dos afirmaciones es más falsable: “Todos los seres inteligentes habitan en la Tie­
rra” es más falsable que “Todos los seres inteligentes habitan en el Sistema Solar”, pues
hay más hechos que falsarían la primera que la segunda (todo hecho que falsa la segunda
falsa también la primera, p.ej. la presencia de inteligencia en Alfa Centauro, y la primera
es falsada además por hechos que no falsan la segunda, p.ej. la existencia de un marciano
inteligente). Aunque para otros pares de afirmaciones no sea tan fácil de determinar, se
supone que también son comparables en cuanto a falsabilidad. Este concepto comparativo
de falsabilidad sugiere otro absoluto que “mida” la falsabilidad de cada afirmación, y el
mejor candidato al mismo es el contenido o improbabilidad.
Aunque en general Popper recomienda proponer hipótesis de mayor contenido, el
rigor de una contrastación no depende del contenido de la hipótesis. Lo que se quiere es
determinar cuán riguroso es el test de h mediante la evidencia e y ello no depende del
contenido de h sino de la relación entre h y e, y del contenido de e ; dos hipótesis con dife­
rente grado de falsabilidad se pueden contrastar con igual rigor. El rigor depende, en pri­
mer lugar, del contenido de e, esto es, de la improbabilidad absoluta de e sin tener en
cuenta h (teniendo en cuenta tan sólo el conocimiento de fondo). Y en segundo lugar, de
lo probable que sea e teniendo en cuenta h. La idea es que la contrastación de h a la luz
de la evidencia e es tanto más rigurosa cuanto más probable sea e suponiendo que h es
verdadera y menos probable sea e independientemente de h. La intuición que hay detrás
es que un test en el que la predicción es muy probable tanto si ocurre h como si no, no es
un buen test. La medida de rigor S(e, h) del test de h mediante e se puede identificar pues
con p (e/h) - p (e) (en realidad, por motivaciones técnicas, Popper define la medida de un
modo un poco más complicado, S (e , h ) = [p (elh) - p(e)] i [p (e/h) + p(e)], pero ello no
afecta al núcleo de la cuestión y no tendremos en cuenta esta complicación técnica); esta
medida S(e, h) se puede considerar también, según Popper, como una medida del poder
explicativo de h respecto de e (cf. 1963, Apéndice, §2). En los casos de contrastación
usuales en los que e se predice a partir de h (y del conocimiento de fondo), h implica e
con lo que p (e/h) = 1 y la medida del rigor es 1 - p(¿), justamente la improbabilidad de e.
Apreciará el lector que esta condición de Popper para un buen test no es sino la recurrente

3. Popper considera todas las probabilidades relativizadas a un conocimiento de fondo b, por lo


que las probabilidades “incondicionadas” p (a ) se han de interpretar como p (a Ib). Aquí no introduciremos la
complicación notacional correspondiente; en adelante, salvo advertencia en contrario, ‘p (a )’ abrevia ‘p (aJb)'
y ‘p (p /a )’ abrevia ‘p (p /a a tí)’.
424 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

Condición 2 que vimos en el capítulo 3 (§2): e es altamente inesperada en ausencia de h


(en cuanto a la Condición 1, Popper es más liberal, pues no exige que h implique e).
Ahora estamos en situación de ver la noción de grado de corroboración. Popper dice
que S mide “la severidad de los tests como elemento de juicio favorable” (ibid .). Esta afir­
mación resulta sorprendente si, como él mismo sugiere en numerosas ocasiones, se inter­
preta su crítica al inductivismo como un rechazo de cualquier concepto que quiera expresar
“los elementos de juicio favorables”. Pero no se debe interpretar así. Popper sostiene que
hay dos sentidos en los que coloquialmente se usan los términos ‘probable’ y ‘probabilidad’
(cf. para lo que sigue 1956-1983, cap. IV). Según uno de ellos, la probabilidad de un suceso
o una hipótesis está en relación con sus oportunidades para ocurrir. Según el otro, la proba­
bilidad de una hipótesis está en relación con los resultados de las contrastaciones. Los dos
sentidos son diferentes, el primero satisface el cálculo matemático de las probabilidades, el
segundo no (cf. más adelante). Coloquialmente no se distingue entre ellos y el error de los
inductivistas consiste en identificarlos. Para distinguirlos, en su primera obra de 1935 reser­
vó ‘probabilidad’ para el primero y acuñó ‘grado de confirmación’ para el segundo. Pero
puesto que los inductivistas se apropiaron de esta expresión haciéndola sinónima de la pri­
mera, y puesto que le pareció después que su uso de ‘confirmar’ era desafortunado por sus
connotaciones verificacionistas, terminó sustituyéndola por ‘grado de corroboración’.
Al principio Popper usa el concepto de corroboración sólo en un sentido comparati­
vo. Una hipótesis h está tanto o más corroborada que otra h' si h ha pasado con éxito al me­
nos tantos tests, y tan rigurosos, como h!. Pero este concepto comparativo es de poca utili­
dad. Si h y h' han sido refutadas en realidad ninguna está corroborada. Si h ’ ha sido refuta­
da y h no, h está corroborada y h! no. Así, para que sea una noción interesante debe poder
aplicarse a los casos en que ambas han resistido todas las con traslaciones, pero esta noción
puramente cualitativa no permite de momento tal cosa. Para ello introduce una medida C
del grado de corroboración. La función de C(A, e) es medir el éxito con que una hipótesis h
ha superado las contrastaciones hasta cierto momento, contrastaciones cuyos resultados se
expresan conjuntamente en e. C es, por tanto, una medida de apoyo evidencial. Advierte
que, como en el caso de S , la corroboración depende en parte de aspectos no analizables
formalmente, como la ingeniosidad o la “sinceridad” de las contrastaciones (e.e. la realiza­
ción de la contrastación con la intención de refutar la hipótesis), pero que considerados fija­
dos tales aspectos, el grado de corroboración se representa satisfactoriamente mediante la
medida formal C. Popper afirma que los valores numéricos concretos que asigne C no son
lo importante, sino ciertas condiciones según él intuitivas que debe satisfacer, y establece
nueve desiderata (axiomas) para C (cf. 1935-1958, apéndice *IX). No podemos detenemos
en ellos aquí. Algunos parecen bastante arbitrarios, como (II) exigir que C esté entre -1 y
1; otros dudosamente intuitivos, como (IV) C(x, jc) = Ct(x) = 1 - p(x). Y, como comentare­
mos más adelante, otros tienen un aspecto bastante inductivista (VII y VIII).
Popper considera que la medida más intuitiva para C (h, e) es la que corresponde
al rigor de los tests pasados por h cuyos resultados contiene e, esto es, p (e/h) - p(e). Sin
embargo, este valor incumple algunos de los desiderata (p.ej. II), y opta como recurso
técnico por dividirlo por el factor p {efh) - p (h a e) + p(e), del que reconoce que no tiene
significación intuitiva alguna y que se escoge sólo porque lleva a los resultados deseados
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 425

(cf. 1956-1983, §31). La definición del grado de corroboración queda entonces del si­
guiente modo: C(/t, é) - [p(eili) - p(e)J / [p (e/h) - p {h a e) + p(e)], donde el numerador
contiene toda la intuición expresable por el concepto.
Esta medida del grado de corroboración como grado de apoyo evidencial tiene en
opinión de Popper muchas consecuencias satisfactorias. Primero, es una medida no pro-
babilista y muestra que el grado de apoyo evidencial no es una probabilidad. La pro­
babilidad p (como el grado de confirmación carnapiano c) varía entre 0 y 1, el grado de co­
rroboración C varía entre -1 y 1 (más adelante discutiremos si esta razón basta como argu­
mento antiinduc ti vista); la interpretación pretendida es que la evidencia es favorable, irrele­
vante o desfavorable si C es, respectivamente, mayor, igual o menor que 0. Segundo, si e
implica no-h (refutación), tanto p {elh) como p (h a e) son 0 y por tanto C (hle) - -1. Terce­
ro, si e y h son lógicamente independientes, entonces p(h a e) = p (h) ■p(e) y por tanto
C (hle) = 0. Cuarto, la máxima corroboración C (h/e) ~ 1 se obtiene cuando h implica e (e.e.
p (h a e) - p (h)) y p(e) = 0; eso quiere decir que en casos de predicción exitosa, en los que
e se deduce de h, el grado de corroboración se aproxima tanto más a 1 cuanto más se apro­
xima p(e) a 0, esto es cuanto mayor es el contenido de e.
Éste es el núcleo de la teoría de la corroboración de Popper. Si la evidencia es
contraria a una hipótesis, ésta queda refutada. Si la hipótesis resiste la contrastación, se
puede mantener provisionalmente y considerarla “apoyada” por la experiencia en grado
proporcional al contenido de e. Pero Popper sostiene que este apoyo evidencial no es pro-
babilista. La experiencia no permite establecer la verdad de una hipótesis, ni ningún suce­
dáneo suyo como la probabilidad. Su grado de corroboración, insiste Popper, no es como
el probabilista grado de confirmación de los carnapianos. Lo que debemos perseguir son
hipótesis mejor corroboradas, no más probables. Y no se ha de pensar por eso que el gra­
do de corroboración es indicio de la aptitud para salir indemne de contrastaciones futuras.
Sólo expresa la nota con que ha pasado contrastaciones pasadas, y de ahí no se puede in­
ferir nada del futuro. A pesar de ello, la corroboración es guía para la acción: “Desde un
punto de vista racional no podemos fia r n o s de ninguna teoría [...] sin embargo, debemos
elegir la teoría mejor contrastada como base para la acción” ( 1 9 7 2 , § 9 ) .

4 .4 . V e r o s im il it u d

De la anterior caracterización del grado de corroboración surge un problema. Si


Popper tiene razón y su medida C no tiene nada de “sucedáneo de la verdad”, nada de pro­
babilista, entonces perseguir un mayor grado de corroboración no es acercarse hacia la ver­
dad. ¿Qué tiene que ver en ese caso la investigación científica con la verdad? Para un anti­
rrealista eso no representa mayor problema, pero para un realista declarado como Popper sí.
Los carnapianos tenían al menos un sucedáneo de la verdad, Popper no. Por lo que a la ver­
dad se refiere, de las hipótesis corroboradas sólo podemos decir que p u ed en ser verdaderas.
Y podemos decir eso de todas las no refutadas , sean cuales sean sus diferentes grados de
corroboración. Por tanto, hasta aquí la metodología de Popper debe tratar, por lo que a la
verdad se refiere, a todas las hipótesis no refutadas exactam ente d el m ism o m odo. Aunque
426 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

Popper se dice realista, la verdad no juega hasta ahora ningún papel. Lo único que se puede
decir de ella es tan débil, a saber, que cierta hipótesis puede ser verdadera, que eso mismo
se puede decir de todas las hipótesis (las no falsadas) por igual.
Popper intenta resolver esta dificultad mediante el concepto de verosim ilitud (‘truth-
likeness ’). La verosimilitud de una afirmación expresa su “distancia” respecto de la verdad.
La idea es que, aunque dos hipótesis sean falsas, una puede estar objetivamente “más próxi­
ma” a la verdad que la otra. Una hipótesis falsa puede tener, además de consecuencias falsas,
un gran número de consecuencias verdaderas, piénsese, p.ej., en el geocentrismo, o en la me­
cánica newtoniana. Pues bien, una hipótesis (empírica) está tanto más cerca de la verdad, es
tanto más verosím il , cuanto mayor sea la diferencia entre su contenido de verdad y su conte­
nido de fa lsed a d (cf. para lo que sigue 1963, Apéndice, §3). Si hT es el conjunto (o conyun-
ción) de consecuencias verdaderas de h> Popper identifica el contenido de verdad de h, Ct7(h),
con el contenido de h T>e.e. 1 - p(Ar); y para que se cumplan ciertas condiciones que conside­
ra deseables, identifica el contenido de fa lsed a d de h, C tfh ) , con 1 - p (h/hT). Así definidos
los contenidos de verdad y falsedad, la verosimilitud de h es Vs(h) = Ct7(h) - Cth{h) - jy(h/hT)
- p (h T). De nuevo, para que la medida satisfaga ciertos desiderata que le parecen intuitivos,
cambia a una versión normalizada dividiendo por \)(h/hT) + p (h T): Vs(h) = [p(hlhT) - p(/u)] /
[p(híhT) + p(/?r)]- En esta nueva forma, esta medida de distancia de la verdad genera los si­
guientes resultados: varía entre -1 y 1; es -1 para las contradicciones; es 0 para las tautolo­
gías; es mayor que 0 cuando h es verdadera y tanto más próxima a 0 cuanto más alta sea p(/í).
Concluiremos el estudio del problema de la inducción en Popper con una breve
discusión de las principales dificultades.

4.5. P roblem as y d is c u s ió n

Verosim ilitud. Como ha reconocido el propio Popper, su definición precisa de ve­


rosimilitud es defectuosa, pues produce inconsistencias (cf. 1956-1983, “Introducción de
1982”, §V, también p.ej. Rivadulla, 1991, cap. III). Algunos popperianos, especialmente
Niiniluoto, han trabajado en definiciones alternativas (Niiniluoto, 1977, 1982 y 1984). Pero
el principal problema no es ése. El principal problema es que dicho concepto, independien­
temente de la medida específica que se dé, no resuelve el problema para el que el realista
recurre a él. Simplemente, esa “distancia objetiva a la verdad” es relativa exclusivamente a
h, no tiene en cuenta evidencia alguna en absoluto. Pero entonces, ¿qué relación tiene con
la corroboración? Ninguna. Debemos elegir las hipótesis mejor corroboradas, pero nada ga­
rantiza que corroboración y verosimilitud vayan de la mano. Es perfectamente posible que
hipótesis cada vez más corroboradas sean cada vez menos verosímiles. La verdad sigue es­
tando ausente de la investigación científica. Que la ciencia avanza hacia la verdad es un su­
puesto injustificado y, por tanto, gratuito. El realismo de Popper es puramente testimonial.
Algo análogo sucede con la revisión de Niiniluoto. Define una verosimilitud objetiva que
es independiente de la evidencia y que no tiene ninguna relación con la contrastación. Des­
pués define una verosimilitud estim ada que toma en cuenta la evidencia, pero que p u ed e di­
ferir totalm ente de la verosimilitud objetiva.
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 427

S everid a d de los tests y fa ls a c ió n . En la medida S = p(e/A) - p(¡?) de severidad


de los tests, e contiene los datos empíricos resultantes del test o conjunto de tests realiza­
dos. En los casos de contrastación favorable, e es predicho por A, A implica e. En los ca­
sos de contrastación desfavorable, e refuta A porque A predice lo contrario de e , A implica
no e y por eso e implica no A. Pero eso supone que los tests desfavorables nunca son se­
veros, pues si A implica no e entonces p (eih) = 0 y S = - p(e). Esto es completamente
contraintuitivo, pues la medida de severidad de un test no puede depender de que el test
resulte favorable o desfavorable. Intuitivamente el rigor de un test determina cuán útiles
son los resultados, sean éstos favorables o desfavorables. La medida de Popper de sev e ri­
dad de los tests no se aplica a los casos de refutación, pero entonces tampoco se puede
considerar que mida eso en los casos de corroboración. Simplemente S no es una medida
de severidad de los tests. Y así parece reconocerlo implícitamente Popper cuando dice
que S mide la severidad de los tests “como elementos de juicio favorables” (1963, Apén­
dice, §2). En realidad, como muestra la construcción de C, S es indicio del grado de co­
rroboración, la “parte intuitiva” de ambas medidas es la misma: p (e/h) - p(e).

C orroboración e im p lica ció n .Según Popper, su medida C tiene consecuencias


claramente satisfactorias en tanto que medida del apoyo evidencial. Pero, incluso si eso es
así (cf. más abajo los próximos problemas), tiene otras consecuencias que son claramente
contraintuitivas. La primera es que si e implica h, entonces C (h, e) = 1 - p(A). Esto es,
cuando de los datos se deduce la hipótesis, C coincide con el contenido Ct de la hipótesis.
En particular, C(x, x) = Cf(x): el “grado en que x se apoya a sí misma” no es el máximo, 1
(salvo que x sea una contradicción). Aunque eso no le parece a Popper contraintuitivo, e
incluso lo exige como uno de los axiomas (cf. 1935-1958, apéndice *IX, desiderata III),
no se ve entonces qué tiene C de medida del grado de corroboración o apoyo. Parece
constitutivo de la noción de apo yo que si e y h son lo mismo, e apoya h en grado máximo.
Y por supuesto lo mismo sucede si e implica deductivamente h .

A teo ricism o . Popper es uno de los que más duramente ataca la ateoricidad del
grado de confirmación c carnapiano (y la introducción, en su opinión a d h o c , del grado de
confirmación cualificada cc; cf. p.ej. Popper, 1963, cap. 11, §6). Pero a su medida de co­
rroboración le ocurre algo parcialmente semejante, con el agravante de que, contraria­
mente a Carnap, él no está dispuesto a ser instrumentalista. En Carnap, si el lenguaje es
infinito, c asigna a toda hipótesis general el valor mínimo 0. Con la medida C de Popper
no ocurre eso, pero ocurre que, relativamente a l m ism o cuerpo de predicciones exitosas e,
todas las hipótesis g en era les son corro b o ra d a s en el m ism o grado. En efecto, en los ca­
sos en que los datos e son los predichos, e es implicado por h y por tanto p (elh) = 1. Si
además h es universal (y, como en la situación problemática para Carnap, el lenguaje
infinito), p (h) ~ 0 y por tanto también p (A a e) = 0. Pero entonces, sustituyendo estos va­
lores en la medida de Popper, tenemos que para cualquier hipótesis universal A, C(A, e )
= (1 - p(e)) / (1 + p(e)). Como puede verse, este valor no depende de A, esto es: los m is­
m os datos corroboran en igual g ra d o cu a lq u ier hipótesis g en era l que los p red ig a . Ello
representa sin duda otra forma de ateoricismo, pues el grado de corroboración es in sen si­
428 FUNDAMENTOS DI: FILOSOFIA DE LA CIENCIA

ble a diferencias teóricas, es independiente de las diferencias entre las hipótesis generales
en juego. No se ve, entonces, cómo se va a poder “perseguir” o “elegir” entre diferentes
hipótesis la mejor corroborada si de hipótesis generales (e.e. teorías) se trata.

¿ A n tiin d u ctivism o ?“El m odus tollens sin corroboración es vacío, el m odus to-
llens con corroboración es inducción” (Salmón, 1966, p. 160). Muchos, como Salmón,
han acusado a Popper de ser un inductivista encubierto, pues su grado de corroboración es
después de todo una medida de apoyo evidencial. Popper rechaza la acusación e insiste en
que su medida no pretende decir nada del rendimiento futuro o fia b ilid a d de las hipótesis.
Además de esta réplica general, demasiado vaga por sí sola, el único aspecto diferencia-
dor concreto en que insiste es el probabilista. Su grado de corroboración, sostiene reitera­
damente, no es probabilista. Pero, como vamos a ver, en la medida en que esta afirmación
es verdadera, no establece ninguna diferencia interesante, y en la medida en que estable­
cería diferencias interesantes su afirmación no es cierta.
Popper dice que su medida C no es probabilista porque, a diferencia de la cama-
piana c, no satisface los principios del cálculo de probabilidades. Por ejemplo, C varía de
-1 a 1 y no de 0 a 1; o, para h { y h 2 incompatibles, no ocurre que C(/ii v h2,e) - C (h lfe) +
C(h2, c); o tampoco que C(h, e) = 1 - C(no -h, e). Todo esto es verdad, pero no establece
una diferencia interesante respecto al carácter probabilista de la medida. En primer lugar,
y antes de entrar en el fondo de la cuestión, hay que recordar que C varía de -1 a 1 sólo
porque así se ha definido ad hoc. La parte intuitiva de C, el numerador p (e,h) - p(e), va­
ría de -p(e) a 1 - p(c) y sólo consigue que varíe de -1 a 1 dividiendo por el factor recono­
cidamente a d ho c p(c, h) - p (h a é) + p(e). En general, todos los supuestos beneficios in­
tuitivos de que C varíe en concreto entre -1 y 1 no son tales, pues estos límites son total­
mente arbitrarios y satisfechos a d hoc. Es realmente sorprendente que, entre los axiomas
o desiderata que según Popper cabe exigir intuitivamente a toda medida de apoyo eviden­
cial, se incluya la exigencia de que C varíe de -1 a 1, y otras más que presuponen esto,
cuando reconoce (cf. 1956-1983, §31) que, para que su propia medida satisfaga estas exi­
gencias, debe introducir un factor sin significación intuitiva alguna.
A pesar de ello, se dirá, la parte intuitiva de C varía entre -p(e) y 1 - p(e), y no
entre 0 y 1. Cierto, pero eso no es por sí solo demasiado interesante, pues, como vimos, el
propio Carnap afirma a veces que se puede medir la fiabilidad de h dado e mediante la di­
ferencia c {h, e) - m (h), medida que varía entre -m(/i) y 1 - m(fc) y que tampoco cumple
los principios del cálculo de probabilidades. Otra aparente diferencia en cuanto al com­
portamiento probabilista de estas medidas es que, cuando e implica deductivamente h,
c(h, e) (o su derivado c (h, e) - m(/z)) alcanza, como la probabilidad, el valor máximo po­
sible, mientras que C (h, e) (o su parte intuitiva p(e, h) - p(c)) no. Pero, en primer lugar,
como vamos a ver, esto no basta para liberar a C de todo espíritu probabilísti-
co-inductivista. Y en segundo lugar, aquí las intuiciones están claramente en contra de
Popper, pues si los datos implican la hipótesis parece claro que el grado de apoyo en este
caso ha de ser el máximo de la medida.
Lo que realmente importa para ver si una medida de apoyo evidencial es o no de
inspiración probabilista es si crece o no con las probabilidades anteriores. La insistencia
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 429

de Popper en que lo que cuenta, y hay que perseguir, no es la probabilidad sino la impro­
babilidad sugiere que su medida no es de inspiración probabilista. Incluso a veces Popper
afirma explícitamente que apoyo evidencial e improbabilidad van juntas: “la corroborabi-
lidad de una teoría, y el grado de corroboración de una que haya pasado realmente con-
trastaciones muy duras, se encuentran en razón inversa a la probabilidad” (1935-1958,
§83); “contenido e improbabilidad tienen una relación tan estrecha con el grado de corro­
boración como la propia contrastabilidad” (1956-1983, §30). Pero, en la interpretación
más natural, eso es simplemente falso. Es cierto que la contrastabilidad tiene una relación
directa con la improbabilidad (o contenido), de hecho muchas veces las identifica sin
más. Y la corroborabilidad también, pues es lo mismo que la contrastabilidad. Pero grado
de corrobo ra b ilid a d y g ra d o de co rro b o ra ció n no son lo mismo, el primero mide cierta
propiedad de h, su fuerza o contenido, el segundo mide cierta relación entre h y e, el apo­
yo a h de los resultados e de los tests pasados con éxito. Y aunque Popper diga lo contra­
rio, simplemente no es cierto que ambas medidas tengan la misma relación con la proba­
bilidad. De nuevo, se está mezclando la probabilidad incondicionada de la hipótesis y la
probabilidad de la hipótesis condicionada a los datos.
Nótese que cuando Popper afirma que el grado de corroboración es inverso a la
probabilidad, debe estar refiriéndose a la probabilidad de la hipótesis h. No puede refirir-
se a la probabilidad de e, pues es inmediato que (en los casos de contrastación exitosa, en
los que h implica e) la medida de Carnap c (h, e) m (h a e)/m(e) también crece con la
~

improbabilidad de e. Pero si de p (h) se trata, es simplemente falso que C (h, e) crezca al


disminuir p (h). Y no sólo es falso de la C concreta que da Popper, sino de cualquier me­
dida que satisfaga sus axiomas, pues el axioma VIII establece que cualquier medida de
apoyo evidencial aceptable debe satisfacer la siguiente condición: si h implica e, entonces
C(/i, e ) y p (h) crecen a la vez. Así, no sólo no es cierto que C (h, e) decrece siempre con
p(/í), sino que en los casos más interesantes, cuando h predice e , ocurre justamente lo
contrario, el grado de corroboración crece con la probabilidad anterior de la hipótesis.
Se podría pensar que esto no hace necesariamente de C una medida probabilista,
que lo importante no es si C crece con la probabilidad anterior de h sino si crece con la
probabilidad posterior de h condicionada a los datos e. Según esta réplica, una medida de
apoyo evidencial sólo puede ser calificada de inductivista-probabilista si crece con las
probabilidades condicionadas p (h/e). Pues bien, es fácil ver que el anterior resultado, en
combinación con otro de sus axiomas, el VII, tiene justamente esa consecuencia: en los
casos de contrastación positiva (predicción exitosa) C (h/e) crece con p (h ie), esto es, el
grado de corroboración y la probabilidad condicionada son cualita tiva m en te in d istin gui­
bles. En efecto, para h\, h 2 que impliquen e tenemos: (i) C(h],e) > C (h2, e) syss p(/q) >
p (h2), por ax. VIII; (ii) p(/í¡) = p(fti a e) y p (h 2) = p (h2 a e), pues ambas hipótesis impli­
can e\ (iii) p(h]/e) > p (h2/e) syss p ( h { a e) > p (h 2 a e), pues p (h/e) = p (h a e)lp(e). De es­
tos tres colorarlos se sigue inmediatamente C {h\, e) > C (h2, e) syss p { h je ) > p (h2fe). Por
otro lado, su axioma VII establece en general (salvo que h sea contradictoria) que C (h, e\) >
C(/i,e2) syss p{h!e\) > p {hie-i). En consecuencia, de las condiciones que según Popper cabe
conceptualmente exigir a la noción de grado de corroboración o apoyo evidencial, cuando
e es implicada (predicha) por h se sigue tanto C(/¡i, <i > C(/i2, e) >yss p {h\le\ > p (h 2íe)
430 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

como C (h, e\) > C (h, e 2) syss p (h íeó > p (h /e 2). Ello significa que, en los casos de apoyo
positivo por predicciones exitosas, el grado de corroboración popperiano y el grado de
confirmación carnapiano son cualitativamente indistinguibles. Si añadimos su insistencia
en que lo que importa no es la asignación numérica específica, y si prescindimos de las
condiciones derivadas de los límites -1 y 1 impuestos a d h o c , entonces hay muy serias
razones para considerar que el grado de corroboración de Popper, a pesar de sus declara­
ciones en sentido opuesto, es una medida de evaluación de carácter probabilista. Su lema
“no hay que perseguir hipótesis altamente probables sino altamente corroboradas” es
equívoco. De nuevo se fluctúa entre las probabilidades incondicionadas y las condiciona­
das, y si, como en Camap, la cuestión es qué pasa con estas últimas, entonces también en
Popper cuanto más corroborada está h por datos predichos e, más probable es h relativa­
mente a e.

C arga teórica d e lo s h ech o s y lím ites d e la fa ls a c ió n . En el capítulo 8 (§5) vi­


mos que Popper fue de los primeros en llamar la atención sobre la carga teó rica de los
h ech o s , en la que insistirían después los historicistas. En la contrastación, e contiene los
datos empíricos “dados” en la observación-experimentación, es la base empírica o base
de contrastación. Popper reconoce abiertamente el carácter teórico, h ip o tético , de la base
de contrastación: “El paso siguiente consistió en aplicar el punto de vista crítico a los
enunciados contrastadores, la ‘base empírica’: subrayé el carácter hipotético de toda ob­
servación y de todo enunciado observacional. Esto me llevó a pensar que todo lenguaje
está impregnado de teoría” (1972, cap. 1, §13). Y también reconoce que eso tiene conse­
cuencias para la contrastación: “Siempre que una teoría se somete a contrastación, ya re­
sulte su corroboración o su falsación, el proceso tiene que detenerse en algún enunciado
básico que d ecid im o s a ceptar, si no llegamos a decisión alguna a este respecto [...] la
contrastación no lleva a ninguna parte” (1935-1958, cap. V, §29). Pero entonces la lógica
de la falsación pierde gran parte de su fuerza. Si la refutación de k es relativa al informe
observacional e , y la aceptación de e equivale a la aceptación de otra hipótesis h ', que
como máximo sólo puede estar, como toda hipótesis, provisionalmente no refutada, lo
que sucede en realidad en un caso de refutación de una hipótesis h mediante datos e es el
conflicto lógico entre dos hipótesis h y h'. Esto nos conduce a toda una familia de críticas,
provenientes de los filósofos de la ciencia historicistas, sobre el carácter radical o no del
falsacionismo de Popper, que examinamos a continuación.

5. C om plejidad de las teorías, anom alías y falsación

Cuando en los años sesenta los llamados n uevos filó so fo s de la ciencia irrumpen
en escena, el programa inductivista ya había entrado en decadencia. Aunque alguno de es­
tos nuevos filósofos contribuye con sus críticas a aumentar los problemas del inductivis-
mo (cf. Lakatos, 1968a), por lo general no dirigen su munición contra el inductivismo en
crisis sino contra el falsacionismo popperiano que había cobrado nueva fuerza después de
su redescubrimiento a finales de los cincuenta. Entre estos críticos, los más activos son
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 431

Toulmin (1961, 1970), Hanson (1958, 1967, 1971), Feyerabend (1963, 1965, 1970a,
1975), Kuhn (1962-1970, 1970a, 19706, 1970c) y Lakatos (19686, 1970, 1971, 1974a,
19746, 1977). La crítica de casi todos ellos consiste en llevar hasta las últimas consecuen­
cias algunos elementos que ya están presentes en la filosofía de Popper, especialmente la
carga teórica de los h ech o s , pero que éste se resiste a asumir. Aquí nos detendremos sólo
en Feyerabend, Kuhn y Lakatos, y especialmente en los dos últimos. La crítica de Kuhn y
Lakatos muestra además la necesidad de distinguir, por lo que a la evaluación empírica se
refiere, entre hipótesis y teorías. Aunque ellos mismos no lo hacen explícito, su crítica al
falsacionismo popperiano a p licado a las teorías depende esencialmente de la nueva con­
cepción de teoría empírica que estos autores están gestando (cf. cap. 9).

5 .1 . E l c o n t r a in d u c t iv is m o d e F eyerabend

Feyerabend, el más provocador de los nuevos filósofos, comienza arremetiendo


contra lo que considera los dos principios o reglas básicas del neoempirismo: (1) hay que
desarrollar hipótesis teóricas consistentes con los hechos; y (2) hay que desarrollar hipó­
tesis teóricas consistentes con otras teorías aceptadas. Feyerabend arremete contra ellos
por razones tanto históricas como conceptuales. Si atendemos a la historia, y él presenta
multitud de estudios de casos que en su opinión avalan su tesis, debemos reconocer como
cuestión de hecho que la ciencia pocas veces se atiene a tales principios, y en momentos
cruciales nunca. Pero, además, la ciencia no d eb e comportarse así. La razón tiene que ver
directamente con la carga teórica de los hechos: la ciencia no debe seguir (2), pues la
ciencia evoluciona eliminando teorías y la evidencia en contra de una teoría sólo puede
extraerse a la luz de otra teoría incompatible con ella. Los datos empíricos constituyen
evidencia contra una teoría sólo cuando se contemplan a la luz de otra teoría incompati­
ble. Puesto que los enunciados empíricos incluyen supuestos teóricos, los motivos para
rechazar (2) constituyen a su vez motivos para rechazar (1). Esta crítica se dirige contra
todas las formas de neoempirismo de la filosofía de la ciencia clásica, tanto contra el con-
firmacionismo de Camap como contra el falsacionismo de Popper. Las consecuencias rui­
nosas para el neoempirismo explícito de Camap y su escuela son inmediatas, pero en opi­
nión de Feyerabend su crítica arruina igualmente el neoempirismo encubierto de Popper:
proponer alternativas sólo tras la refutación es poner el carro delante del caballo, pues
sólo con alternativas previamente disponibles es posible la “refutación”.
Feyerabend propone proceder contrainductivam ente', elaborar hipótesis inconsis­
tentes con los hechos y, por tanto, con teorías ya aceptadas. Más que una propuesta se tra­
ta de una supuesta constatación: así es como opera la ciencia en sus mejores momentos.
El resultado natural de estas tesis es la defensa de una metodología irrestrictamente plura­
lista: proponer y sostener hipótesis no importa de qué tipo, incluso si los especialis­
tas-guardianes no las consideran científicas. Éste es el origen de su famoso “todo vale”
(hasta las ideas más descabelladas). No pretende defender con ello un nuevo método sino,
como le gusta decir, un antimétodo, una (anti)teoría anarquista/dadaísta del conocimiento.
No tiene ningún reparo, por supuesto, en admitir el irracionalismo que estas ideas impli­
432 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

can. El mito de la racionalidad de la ciencia frente a la presunta irracionalidad de otros


sistemas de creencias representa una amenaza para una sociedad libre, conduce a una so­
ciedad sometida a la tiranía de los expertos.
Feyerabend reconoce que la ciencia tiene también una tendencia a la tenacidad
(que tiende a valorar negativamente), pero eso no contradice sus tesis, pues no cree que la
tenacidad sea el factor dominante en ningún período histórico. No acepta la parcelación
kuhniana en p e río d o s de ciencia normal y ciencia extraordinaria. Las crisis no se produ­
cen sólo por problemas internos a una teoría; para que surja una crisis es precisa la inte­
racción entre diversas teorías. Por ejemplo, para el surgimiento de la crisis de la mecánica
clásica fueron esenciales resultados de la electrodinámica y la teoría del calor. Según Fe­
yerabend, los elementos dogmáticos y críticos actúan simultáneamente, se da una cons­
tante tensión entre las tendencias a la tenacidad y a la p ro lifera ció n que no se traduce en
períodos cualitativamente diferentes.

5 .2 . K uhn y L a k a t o s : c o m p l e jid a d d e l a s t e o r ía s , in m u n id a d y f a l s a c ió n

Las críticas de Kuhn y Lakatos también explotan la carga teórica de los hechos se­
ñalada ya por Popper, aunque tienen consecuencias menos radicales que las de Feyera­
bend, principalmente porque disponen de una nueva noción de teoría que les permite con­
figurar una alternativa metodológica. Las posiciones de Kuhn y Lakatos no son plena­
mente coincidentes (en general Lakatos es un poco más matizado en sus juicios sobre
Popper), pero aquí vamos a obviar sus diferencias y a centramos sólo en un núcleo míni­
mo que comparten en líneas generales.
Kuhn y Lakatos critican el falsacionismo ingenuo que, en su opinión, cabe atribuir
a Popper a pesar de sus declaraciones en contra. El falsacionismo ingenuo es doblemente
inaceptable. Es inaceptable de h ech o , pues la historia nos muestra que no siempre, en rea­
lidad muy raramente, se abandonan las teorías tras contrastaciones desfavorables. Las teo­
rías están permanentemente llenas de anom alías em p írica s , experiencias que no encajan
en la teoría, que son inconsistentes con ella y por tanto instancias refutadoras en el esque­
ma falsacionista. Si fuera por eso, todas las teorías nacen ya refutadas y no dejan de estar­
lo jamás. Y también es inaceptable de d erech o , pues las teorías no deben abandonarse
ante cualquier contrastadón desfavorable. El motivo es que los datos empíricos no son
neutrales, no constituyen un tribunal “teóricamente neutral” sino que encubren hipótesis
teóricas muchas veces de alto nivel. Lo que hay, pues, es un conflicto entre hipótesis teó­
ricas: “No se trata de que nosotros propongamos una teoría y la Naturaleza pueda gritar
n o ; sino que nosotros proponemos una red de teorías y la Naturaleza puede gri­

tar i n c o n s i s t e n t e s ” (Lakatos, 1970, p. 130). Las teorías nunca pueden considerarse falsa-
das concluyentemenie, siempre se pueden arreglar las cosas modificando, en lugar de la
hipótesis central en juego, algunos de los supuestos auxiliares involucrados en la acepta­
ción de los datos (es más, como ahora veremos, incluso si los datos se aceptan como
aproblemáticos, siempre es posible preservar el núcleo de lo que está en juego y modifi­
car aspectos espe< ít'icos del cinturón protector).
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 433

Popper se declara sorprendido por esta crítica pues, afirma, estas ideas no sólo no
se oponen sino que coinciden plenamente con las suyas propias formuladas treinta años
antes. E n p a rte así es. Hemos visto sus tesis sobre la carga teórica de los hechos conteni­
das ya en su primera obra, en las que insiste en su revisión para la traducción inglesa:
“Las observaciones son siempre interpretaciones [...] a la luz de teorías ” (1935-1958,
§30, nota 2 añadida a la edición inglesa de 1958). Y también desde el principio reconoce
las limitaciones que ello supone a la idea de una refutación efectiva: “no es posible jamás
presentar una refutación concluyente de una teoría” (ibid., §9); “siempre es posible en­
contrar una vía de escape a la falsación” (ibid., §6); “siempre he mantenido que nunca es
posible demostrar concluyentemente que una teoría científica empírica es falsa”
(1956-1983, §1). Pero coinciden sólo en parte, pues al mismo tiempo Popper hace nume­
rosas afirmaciones que no se compadecen completamente con las anteriores, p.ej. “[las
teorías científicas] deben ser eliminadas si entran en conflicto con observaciones” (1963,
cap. 1, §IV), “ha de ser posible refutar por la experiencia un sistema científico empírico”
(1935-1958, §6). Y lo que es más importante, aunque reconoce la posibilidad lógica de
escapatorias a la falsación, anuncia que va “a proponer que se caracterice el m étodo em p í­
rico de tal forma que excluya precisamente aquellas vías de eludir la falsación que mi
imaginario crítico señala insistentemente, con toda razón, como lógicamente posibles”
(ibid.). Y en plena polémica con Kuhn afirma que “[d]ebería subrayarse que la incerti­
dumbre de toda falsación empírica (que yo he señalado repetidas veces) no debe tomarse
demasiado en serio (como también he señalado)” (1956-1983, §1). Estas afirmaciones, y
muchas otras semejantes, hacen que Kuhn replique que “aunque no es un falsacionista in­
genuo, sir Karl puede, sugiero, ser tratado legítimamente como tal” (1970a, p. 14).
No es éste el lugar para seguir el detalle de la polémica, en la que cada parte dice
no ser comprendida por la otra y a la vez, sorprendentemente, estar defendiendo en el fon­
do lo mismo (para un estudio detallado de la misma, cf. Diez, 1998). Lo importante es
que el desacuerdo no se puede explicar atendiendo sólo a sus afirmaciones, aparentemen­
te coincidentes, sobre la posibilidad o no de falsación. Tras la aparente congruencia en la
superficie del problema hay una diferencia de fondo sobre la naturaleza y estructura de
las teorías que hace entender a cada uno las mismas afirmaciones de diferente modo. Éste
es uno de los puntos en los que, como expusimos en el capítulo 1 (§2), la dimensión inter­
pretativa de la filosofía de la ciencia interacciona con la normativa o evaluad va. Popper
tiene dificultades para articular coherentemente sus ideas sobre las normas que rigen la
contrastación de las teorías porque maneja un concepto de teoría demasiado pobre. Si
Kuhn y Lakatos pueden hacer “las mismas” afirmaciones de modo más coherente, y ex­
presando en parte un contenido nuevo, es porque tras esas afirmaciones está emergiendo
un nuevo concepto de teoría empírica mucho más rico que el axiomático tradicional.
La importancia de sus diferencias sobre la naturaleza de las teorías para el proble­
ma de la evaluación empírica se pone de manifiesto en una cuestión sobre la que Popper y
Kuhn reconocen discrepar abiertamente, a saber, la existencia y el valor de la ciencia n o r­
m al. Lo que está verdaderamente enjuego no es el reconocimiento de la posibilidad lógi­
ca de escapatorias a la falsación, que ambos bandos reconocen, sino la valoración de las
mismas. Kuhn afirma que las estrategias anti-falsación no sólo son extremadamente co­
434 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

muñes sino necesarias y las valora en general positivamente. Este tipo de estrategias son
“normales” en el sentido kuhniano del término, son consustanciales al modo como n o r­
m alm ente se lleva a cabo la actividad científica, consustanciales a la ciencia n o rm a l . En
este punto está plenamente de acuerdo con Lakatos y su idea de un cinturón protector al
que se dirigen las refutaciones salvaguardando el núcleo de los programas-paradigmas.
Para Kuhn y Lakatos, estas prácticas deben valorarse positivamente, pues son consustan­
ciales a la práctica científica; simplemente, sin tales prácticas no sería posible la ciencia,
pues no existe ni puede existir algo así como ciencia sólo revolucionaria (“...la frase de
sir Karl ‘revoluciones permanentes’, al igual que ‘círculo cuadrado’, no describe un fenó­
meno que pueda existir”, Kuhn, 1970&, p. 242). Popper acepta que siempre se puede ate­
ner uno a tales estrategias, pero las califica casi siempre de a d h o c y las valora negativa­
mente. Que además ese proceder pueda ser usual durante ciertos períodos le parece un se­
rio peligro. Este es el punto de abierto desacuerdo. Popper reconoce que Kuhn ha descu­
bierto un fenómeno que a él se le pasó por alto, pero disiente radicalmente de la valora­
ción que Kuhn hace del mismo y llega a calificar al científico “normal” kuhniano de un
peligro para la ciencia y hasta para la civilización (cf. 1970).
Las reticencias y temores de Popper frente a la ciencia normal de Kuhn, y a
ideas parecidas de Lakatos, y sus esfuerzos por admitirla-pero-desaprobarla, se deben a
que no se apercibe de que ló que hacen Kuhn y Lakatos es básicamente llamar la aten­
ción sobre la complejidad estructural de las teorías y sobre el hecho obvio de que las
teorías, entendidas de este modo, d u ra n cierto tiem po. Los paradigmas de Kuhn y los
programas de investigación de Lakatos son las teorías científicas contempladas en toda
su c o m p lejid a d estru ctu ra l. Los períodos normales son entonces aquellos en que las teo­
rías “viven y se desarrollan” y los revolucionarios aquellos en que “nacen” y “mueren”
(se suplantan). Aunque Kuhn y Lakatos contribuyen muchas veces a oscurecer el pano­
rama, éste es el núcleo del que dependen el resto de sus afirmaciones sobre la evalua­
ción de las teorías.
Para la cuestión que ahora nos ocupa, los principales elementos de la nueva con­
cepción de las teorías de Kuhn y Lakatos son dos (cf. para esto el capítulo 9, §2 y §3). En
primer lugar, y aceptado ya por Popper, el carácter teórico de la base de contrastación; los
datos experimentales están cargados con hipótesis teóricas implícitas. En segundo lugar,
y no reconocido, o al menos no tematizado, anteriormente, la complejidad estructural de
las teorías. Las teorías no son entidades monolíticas sino entidades estructuralmente muy
complejas organizadas en diferentes niveles de esencialidad, con un núcleo programático
formado por principios muy generales cuasi-vacíos que se desarrollan mediante un siste­
ma de hipótesis-leyes progresivamente más específicas. Ante una experiencia refutadora
siempre es posible “revisar los hechos”, esto es, revisar las hipótesis implícitas que con-
ceptualizan la experiencia. Pero incluso si se aceptan los hechos, la lógica no obliga a
abandonar la teoría, siempre es posible retocar una o varias hipótesis específicas preser­
vando el núcleo central. Popper no contempla esta posibilidad, o cuando lo hace la consi­
dera ilegítima, porque no la conceptualiza así. En línea con la tradición, concibe las teo­
rías como entidades simples, monolíticas, ante las cuales la única opción es de tipo
todo-o-nada; no distingue entre teorías, hipótesis y leyes. Y con esta concepción es impo­
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 435

sible diferenciar cambios de teorías y cambios en las teorías. Las teorías, según Kuhn y
Lakatos, son entidades con diferentes niveles de esencialidad, con unas partes esenciales
y otras accidentales. Una vez se ha reparado en esta complejidad estructural, lo que sos­
tienen sobre la irrefutabilidad de las teorías (incluso no cuestionando los hechos) es casi
una obviedad. Seguramente Popper no negaría que la Mecánica es, en un sentido del tér­
mino ‘teoría’ que es crucial para entender la ciencia real, una m ism a teoría de Newton a
Laplace (con todos sus cambios). Pero en su metodología ese sentido no juega ningún pa­
pel, y es ese sentido el que le hubiera permitido articular coherentemente un falsacionis-
mo no ingenuo, o no radical. Cuando discute con Kuhn y Lakatos sobre la falsación de
teorías no está pensando en ese tipo de entidad, mientras que ellos sí.
Popper tiene razón al decir que cuando las cosas van mal algo hay que hacer, pero
no la tiene al decir que lo que hay que hacer es cambiar de teoría. Para aceptar lo primero
sin verse obligado a aceptar lo segundo es preciso disponer de un concepto más rico y
dúctil de teoría que permita distinguir entre cam bio dentro de una m ism a teoría y cam bio
de una teoría p o r o tra . Se dirá que, después de todo, Popper está en lo cierto respecto de
su sentido estrecho de teoría: incluso desde la perspectiva de Kuhn y Lakatos, las hipóte­
sis o leyes específicas sí se deben abandonar ante datos refutadores no cuestionados. Así
es y así lo aceptan Kuhn y Lakatos. Éste es el grano de verdad del falsacionismo, aunque
así presentado, sin cualifícaciones ulteriores, es desorientador como análisis de la evalua­
ción de teo ría s . Si no se añade nada más, se corre el riesgo de considerar cu a lq u ier cam­
bio teórico al mismo nivel. Pero hay muy buenas razones para no hacer tal cosa. Conside­
remos los dos siguientes ejemplos de cambio teórico: a) la introducción de un nuevo epi­
ciclo en la órbita de Venus dentro de la teoría geocéntrica y b) la sustitución de la Tierra
por el Sol como centro de giro en la revolución copernicana. Está claro que se trata de
cambios teóricos cu alitativam ente d iferen tes . En el análisis de la evaluación de las teorías
es esencial reconocer esta diferencia y, junto con ella, que la lógica sola jamás obliga a
optar por una opción u otra. La diferencia cualitativa entre ambos tipos de cambio es, por
supuesto, la que se da en cualquier entidad persistente entre cambios accid en ta les y cam­
bios esenciales. En el caso de las teorías científicas, entre cambios mírateóricos y
cambios míerteóricos. De ambos tipos de cambio nos ocuparemos en el próximo capítulo.
Debe enfatizarse que no se trata de que Popper negara la complejidad estructural de las
teorías de la que depende una apreciación correcta de la lógica de la contrastación, sino
que simplemente esta complejidad, puesta de manifiesto por los historicistas, no juega an­
tes de ellos ningún papel, ni en Popper ni en ningún otro filósofo de la ciencia clásico. Se­
guramente, si se le hubiera planteado la cuestión abiertamente en estos términos, Popper
mismo hubiera articulado su falsacionismo del modo “sofisticado” (e.e. no ingenuo) que
pretendía.

6. Consideraciones finales

En el capítulo 3 presentamos la metodología de la contrastación de hipótesis apla­


zando para el presente la discusión de las cuestiones filosóficas sustantivas. Después del
436 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

recorrido realizado puede parecer que el panorama no es muy alentador. En parte así es.
El viejo problema de la inducción y la evaluación teórica sigue planteado, en sus aspectos
centrales, en toda su crudeza. Pero algo se ha adelantado, cuando menos en el análisis de
las principales dificultades. Y a pesar de todas las dificultades, la intuición básica de que
las predicciones exitosas suponen algún tipo de apoyo empírico y que las predicciones fa­
llidas se lo restan, sigue tan fuerte como al principio. El problema sigue siendo precisar
esta intuición de modo satisfactorio. En términos generales se pueden extraer las siguien­
tes conclusiones.

1. La aceptación de los datos empíricos mediante los que se realiza la contrasta-


ción comporta la aceptación de hipótesis teóricas de las que depende el uso que en la con-
trastación se hace de esos datos. Por tanto todo proceso de evaluación de unas hipótesis
supone la aceptación de otras. Ésta es una nueva manifestación del carácter holista de la
actividad científica que discutimos brevemente en el capítulo anterior.
2. Dejando provisionalmente al margen el problema del carácter hipotético de
los datos de contrastación, la relación entre los datos (aceptados) y las hipótesis a evaluar
presenta, como sabía la tradición, mayores dificultades en los casos de confirmación que
en los de refutación. La idea de que la relación de confirmación va asociada a una ló g ica ,
en sentido estricto, parece abocada al fracaso. El principal problema es el de la determina­
ción a p rio ri de las probabilidades anteriores de las que dependen las relaciones de infe­
rencia inductiva. No hay de momento un modo no circular o no arbitrario de determinar a
p rio ri una de las asignaciones y, con ella, una lógica inductiva.
3. A pesar de lo anterior, vaya o no vaya asociada la relación de apoyo eviden-
cial a una lógica en sentido estricto, sigue siendo plausible que sea una relación de tipo
probabilista. La alternativa presuntamente antiprobabilista del grado de corroboración de
Popper participa en última instancia del espíritu probabilista. En el curso de la discusión
ha quedado claro que, si hay un modo de precisar la idea de grado de apoyo evidencial,
éste debe.crecer con las probabilidades posteriores relativas a los datos disponibles. Dado
el fracaso de los intentos logicistas, sólo parecen disponibles alternativas en las que las
probabilidades anteriores sean subjetivas (individuales o comunitarias); el problema
entonces es articular esta alternativa sin caer en el relativismo. Una vez se tienen las pro­
babilidades básicas, las relaciones entre ellas son objetivas (las de la teoría de la proba­
bilidad, las de la teoría de la decisión, etc.); la cuestión todavía no resuelta es cómo anali­
zar el apoyo evidencial para que el resultado sea invariante respecto de las diferentes
posibilidades para las probabilidades básicas.
4. Sea cual sea el modo de precisar una medida de apoyo evidencial, la fuerza del
apoyo no puede depender sólo del número de casos sino también de su variedad y calidad.
Si lo que se evalúa es una teoría entera, el análisis de su estructura en términos reticulares,
al modo de Kuhn-Lakatos o del estructuralismo, ayuda a clarificar estas dependencias. Por
ejemplo, después de una serie limitada de predicciones exitosas en una parte de la red, unas
pocas predicciones exitosas en otra parte de la red puede conferir incomparablemente más
apoyo que un número ilimitado de nuevas predicciones exitosas en la parte anterior. Lo
mismo se aplica a cualquier hipótesis que tenga algún tipo de ramificación.
LA EVALUACIÓN DE LAS TEORÍAS Y EL PROBLEMA DE LA INDUCCIÓN 437

5. El mayor problema filosófico que comporta la confirmación es el de la infra-


determinación de la teoría por la experiencia, el viejo enigma renovado por Goodman.
Ante sistemas teóricos incompatibles igualmente avalados por la experiencia, el único
modo de optar por uno frente a otro es el de recurrir a sus relaciones con otros sistemas
teóricos. Pero siempre hay varias integraciones teóricas posibles. Esto conduce nueva­
mente a cierto holismo cuyo “tamaño” hay que calibrar.
6 . Además, la elección entre alternativas compatibles con los datos pero incom­
patibles entre sí parece que no puede ser una cuestión de lógica en sentido estricto. Es
probable que se deba abandonar la idea de que hay relaciones lógicas objetivas entre da­
tos y teorías a las que después hemos de ajustar nuestras decisiones. Quizá no haya modo
de plantear la cuestión del soporte entre hipótesis y datos sin tomar en consideración
desde el comienzo las decisiones de los sujetos. Ésta es la vía que exploran algunas con­
cepciones sobre la elección de hipótesis en el marco de las teorías matemáticas de la
acción racional, principalmente la teoría de la decisión y la teoría de juegos (para referen­
cias clásicas sobre estas teorías, cf. von Neumann y Morgenstern, 1944; Luce y Raiffa,
1957 y Resnik, 1987). Según estos enfoques, las únicas propiedades objetivas que se pue­
den atribuir a una hipótesis en virtud de ciertos datos son las derivadas de su función en
las estrategias de elección racional (para una discusión, y propuesta propia, cf. p.ej. Giere,
1988, cap. 6). Esta alternativa, sin embargo, en la medida en que, como es usual en las
teorías de la elección racional, se recurre a probabilidades subjetivas, debe enfrentarse
también al reto de explicar la elección teórica sin caer en el relativismo.
7. En los casos de contrastación negativa, la racionalidad teórica obliga a modi­
ficar algo, no podemos ser racionales e ignorar teóricamente las contradicciones. Eso es
compatible con que la racionalidad p rá ctica haga recomendable a veces (o siempre hasta
cierto grado) comportarse como si no existieran contradicciones con la experiencia . Pero
desde el punto de vista teó rico , y por tanto como idea regulativa de la actividad científica,
el conflicto con la experiencia exige revisión. Cuando teoría y experiencia se contradicen
(y dejando a un lado las urgencias prácticas) algo hay que hacer. Pero siempre hay varias
alternativas. Una es revisar los datos, esto es las hipótesis implícitas presupuestas por
ellos. Otra es revisar el sistema teórico. Si dicho sistema es una única hipótesis “atómi­
ca”, hay que rechazarla. Pero las cosas nunca son tan simples. Casi siempre lo que está en
juego es un sistema complejo de hipótesis con relaciones de dependencia a diferentes ni­
veles, una red teórica más o menos grande. En estos casos, incluso si aceptamos los datos,
tenemos dos alternativas. Una, retocar la red. Otra, cambiar radicalmente e intentar desa­
rrollar una teoría diferente. Pero como dice Kuhn, nada hay en la lógica que obligue a una
opción frente a otra. La decisión no es cuestión de lógica sino de pragmática, de pérdida
de confianza.
C a pít u l o 13

ANÁLISIS DIACRÓNICO DE TEORÍAS: EL CAMBIO TEÓRICO

L La perspectiva diacrónica en filosofía de la ciencia

La ciencia en la actualidad consiste en un vasto y complicado sistema de teorías,


junto con un gran número de métodos específicos, aplicaciones y prácticas asociadas a
ellas. Hoy día es una obviedad constatar que este enorme sistema representa un componente
esencial de la cultura humana actual. Sin embargo, ello no siempre fue así. Si aceptamos
que la ciencia es una manifestación cultural autónoma, claramente distinta de otras manifes­
taciones también de “alto nivel” como la religión, el arte, el derecho o la técnica, entonces
también hay que admitir que estas otras manifestaciones culturales germinaron y se desa­
rrollaron en diversos puntos del globo muchos siglos, incluso milenios, antes del surgimien­
to de las primeras formas de lo que hoy día reconocemos como conocimiento científico.
Puede discutirse si el espíritu científico propiamente tal surgió en Grecia por primera vez
apenas en el siglo vi a.C. con los filósofos jonios y la Escuela de Pitágoras, o bien hay ya
expresiones indiscutiblemente científicas de aproximación a la realidad en una época bas­
tante anterior (pongamos por caso en el Antiguo Egipto, en las civilizaciones mesopotámi-
cas, en la India o en China); pero, en cualquier caso, incluso si tomamos este último punto
de vista, más liberal o laxo, respecto a lo que pueden ser producciones culturales de carácter
específicamente científico, incluso en los casos más antiguos ellas son decididamente muy
posteriores a las primeras manifestaciones de los demás fenómenos culturales mencionados.
Así, pues, la ciencia representa un fenómeno relativamente reciente en la historia
de la Humanidad; pero precisamente por ello, al estudiar sistemáticamente la ciencia y
sus componentes, conviene no olvidar su dimensión histórica. Es decir, debemos tener
siempre presente (aun cuando para examinar ciertas cuestiones epistemológicas concretas
lo tengamos en cuenta sólo de manera implícita) que las teorías científicas y todo lo que
va asociado a ellas constituyen entidades que existen en el tiempo histórico; no son enti­
dades connaturales al ser humano y mucho menos entidades que lo trasciendan, sino que
tuvieron un nacimiento en determinado momento histórico, se desarrollaron y cambiaron
de cierta manera y eventualmente desaparecieron en otra fase histórica, al igual que len­
guas, naciones, códigos jurídicos o religiones.
440 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

Ahora bien, podría alegarse que, aun cuando el carácter histórico del fenómeno
“ciencia” es obvio, ello no tiene por qué incidir en un estudio filosófico sistemático (me-
tacientífico) de las teorías científicas y sus componentes. Podría alegarse que el tomar en
cuenta la dimensión histórica de la ciencia es tarea de otra disciplina, la Historia de la
Ciencia (o H isto rio g ra fía de la Ciencia, como preferimos denominarla para evitar una
confusión entre la disciplina misma y su objeto de estudio), y no asunto de la Filosofía de
la Ciencia en cuanto tal. Esta última procedería de manera puramente sincrónica, es decir,
tratando de detectar las estructuras esenciales al conocimiento científico que son univer­
sales y comunes a las diversas fases históricas de su desarrollo. La Historiografía de la
Ciencia sería así la disciplina que se ocupa de lo particular-histórico en la ciencia, mien­
tras que la Filosofía de la Ciencia o Metaciencia se ocuparía de lo universal-sistemático
en la misma, con exclusión de la dimensión diacrónica.
El punto de vista puramente sincrónico en Filosofía de la Ciencia fue el predomi­
nante en nuestra disciplina hasta mediados de la década de los sesenta. Es también la
perspectiva metodológica que ha predominado en este libro hasta el presente capítulo.
Esta decisión metodológica no es arbitraria. En efecto, puede señalarse que, aun cuando
nuestro objeto de estudio sea de carácter inherentemente histórico, es conveniente y fruc­
tífero analizarlo ante todo desde una perspectiva teórica que sea puramente sincrónica.
Así como podemos emprender un valioso estudio teórico de la gramática del castellano,
pongamos por caso, haciendo abstracción de cómo y por qué esta lengua evolucionó a
partir del latín vulgar en la Alta Edad Media, o examinar la estructura argumentativa for­
mal del Código Civil sin preocuparnos demasiado por sus antecedentes en el Derecho Ro­
mano, así también parece no sólo posible sino conveniente examinar la estructura y mo­
dos de funcionamiento de los diversos componentes de la ciencia sin ocupamos especial­
mente de los avalares y circunstancias de su desarrollo histórico.
Ahora bien, aunque esta forma de proceder tiene su razón de ser metodológica y
es la que hemos adoptado en este libro hasta este punto, sería un error equiparar la dis­
tinción disciplinar entre Filosofía de la Ciencia e Historiografía de la Ciencia con la dis­
tinción metodológica entre perspectiva sincrónica y perspectiva diacrónica en el estudio
metacientífico. Ésta es la lección que puede sacarse de las grandes controversias (me­
ta-) filosóficas que tuvieron lugar a partir de la llamada revuelta h isto rieista en la década
de los sesenta, algunos de cuyos elementos ya hemos examinado en el capítulo 9. A ve­
ces se ha interpretado el enfoque “historicista” como la propuesta de identificar Filoso­
fía e Historiografía de la Ciencia, o de reducir la primera a la segunda, y es cierto que
algunos de los propagandistas más radicales de dicho enfoque, parecieron abogar en ese
sentido. Sin embargo, significaría un tremendo empobrecimiento conceptual identificar
ambas disciplinas (como también lo sería identificar la gramática teórica con la filolo­
gía, la Filosofía del Derecho con la Historia del Derecho, o la Musicología con la Histo­
ria de la Música, etc.). Aunque existen sin duda vínculos importantes entre Filosofía e
Historiografía de la Ciencia, ambas disciplinas son, tanto por su temática como por su
metodología, netamente distintas (cf. cap. 1, §1; para una discusión más detallada,
cf. Moulines, 1991, cap. 1.4).
El modo más constructivo de interpretar la revuelta historicista es como la pro­
ANÁLISIS DIACRÓNICO DETLORÍAS 441

puesta, no de reducir la Filosofía de la Ciencia a la Historiografía de la Ciencia, sino de


enfatizar la necesidad de una perspectiva diacrónica tam bién en Filosofía de la Ciencia,
que complemente el análisis sincrónico, pero que sea igual de teórica, sistemática y gene­
ral que aquél. En cualquier caso, éste es el punto de vista adoptado en este libro: aunque
el análisis metateórico dia cró n ico ha resultado hasta la fecha más difícil de realizar de la
manera precisa y sistemática característica del análisis sincrónico, no por ello debemos
desesperar de la empresa, y de hecho se han elaborado ya diversos modelos de cambio
científico que son lo bastante sistemáticos y articulados como para constituir la base de
una futura Filosofía diacrónica de la Ciencia.
Los dos fenómenos históricos más básicos de los que debe dar cuenta cualquier
modelo de la Filosofía diacrónica de la Ciencia son, descritos brevemente, el de la id enti­
d a d a través d el cam bio y el de la co n tin u id a d a través de la ruptura . Más concretamente,
por el primero entendemos el hecho de que parece tener sentido (al menos ello correspon­
de a la autocomprensión de los practicantes de la ciencia) adjudicar a cada teoría científi­
ca (y a los demás elementos asociados a ella) una identidad a pesar de las modificaciones
a que están sometidas en el transcurso del tiempo histórico: las teorías, de manera análo­
ga, aunque no idéntica, a las personas, las lenguas o las naciones, pueden cambiar en una
serie de constituyentes y, no obstante, seguir siendo las mismas. Esto es, las teorías cientí­
ficas poseen la propiedad que se conoce como g en id en tid a d (identidad diacrónica). La
primera tarea de la Filosofía diacrónica de la Ciencia consiste, pues, en elucidar la geni­
dentidad de las teorías científicas, en ofrecer un análisis diacrónico de la naturaleza y es­
tructura de las teorías en tanto entidades que se extienden en el tiempo. Los conceptos
de p a ra d ig m a o m a triz d iscip lin a r en Kuhn, de p ro g ra m a de investigación en Lakatos, de
tradición de investigación en Laudan o de evolución teórica en el estructuralismo son res­
puestas con diverso grado de precisión a este reto (para los aspectos sincrónicos de los
tres primeros, cf. cap. 9; el último, que veremos en el presente capítulo, se construye so­
bre el concepto sincrónico de red teórica, estudiado en el cap. 10, §5).
El otro gran problema para la Filosofía diacrónica de la Ciencia consiste en dar
cuenta de cambios radicalmente más dramáticos que los recién mencionados, cambios
que, desde la obra pionera de Kuhn, suelen llamarse “revoluciones científicas”. A pesar
de su popularidad, esta denominación probablemente no es muy apropiada, no tanto por
parecer exagerada dadas las asociaciones que despierta con su parangón, las revoluciones
políticas, sino porque aparece como esencialmente equívoca o ambigua, como explicare­
mos en seguida. En cualquier caso, llamemos como llamemos a estos fenómenos más
dramáticos en la historia de una disciplina científica, parece incuestionable que ellos se
dan y que se caracterizan en general porque a través de ellos se pierde precisamente la ge­
nidentidad de una teoría. La teoría en cuestión, después de tal tipo de cambios, “ya no es
lo que era”: es “subsumida”, “reducida”, “absorbida”, “reemplazada” o, en fin, “desplaza­
da” por otra u otras teorías.
En adelante, y para usar una terminología lo menos cargada de connotaciones po­
sible, al primer tipo de cambio científico lo denominaremos ‘cambio mírateórico’ porque
tiene lugar den tro de una misma teoría; mientras que al segundo tipo de cambio lo llama­
remos ‘cambio mfórteórico’ porque consiste en un cambio de teoría, involucra teorías dis­
442 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

tintas. Vamos a examinar a continuación estos dos tipos de cambio teórico. El análisis de
cada uno procederá en dos pasos: en primer lugar daremos una caracterización lo más in­
tuitiva y neutral posible del fenómeno en cuestión, y a continuación proporcionaremos
una elucidación más formal y “comprometida”, que toma en cuenta las ideas de Kuhn y
Lakatos pero que se basa esencialmente en la metodología de reconstrucción estructura-
lista. Los ejemplos históricos aducidos en cada caso, en cuyo detalle naturalmente no po­
demos entrar aquí, tienen como misión solamente ayudar al lector a comprender la eluci­
dación general y comprobar su plausibilidad.
Por último, nuestro análisis diacrónico se va a limitar en general a los aspectos ci­
nemáticos del cambio teórico. Los fenómenos diacrónicos son susceptibles de dos niveles
de análisis, uno cinem ático y otro dinám ico. El análisis cinemático se centra en la d e s­
cripción de las entidades involucradas y de las formas o tipos de cambio de las mismas.
El análisis dinámico se ocupa de las causas o factores desencadenantes de los (diversos
tipos de) cambios; debe quedar claro que, al igual que en física, el estudio dinámico pre­
supone otro cinemático previo. El estudio de la cinemática del cambio teórico es una
tarea básicamente analítica y corresponde por tanto básicamente a la Filosofía de la Cien­
cia, aunque para realizarla debe apoyarse en otras disciplinas metacientíficas, principal­
mente la Historiografía de la Ciencia, pero también en la Sociología de la Ciencia. El es­
tudio de la dinámica del cambio científico es una tarea a la vez analítica y empírica. Es
analítica, no sólo porque la dinámica presupone la cinemática, sino porque además deben
elucidarse algunos aspectos conceptuales propiamente dinámicos, como los relativos a las
actitudes intencionales, intereses, mecanismos de interacción, etc.; esta parte de la tarea
corresponde realizarla a la Filosofía de la Ciencia. Pero es también una tarea (meta)empí-
rica, pues se requiere investigación empírica sobre los factores psico-sociales que de he­
cho operan como agentes causales en el cambio teórico; esta parte de la tarea corresponde
realizarla a disciplinas metacientíficas empíricas, principalmente la Sociología de la Cien­
cia y la Psicología de la Ciencia. En ambas partes del estudio dinámico, como en el cine­
mático, es esencial además el concurso de la Historiografía de la Ciencia. Pues bien,
como hemos anunciado, aquí nos vamos a limitar a los aspectos conceptuales del cambio
teórico, y ni siquiera a todos ellos sino principalmente a los cinemáticos. Esto es, vamos a
centramos en la tipología de los diferentes cambios teóricos y en la morfología estructural
de cada uno.

2. Cambio intrateórico

2 .1 . C a r a c t e r iz a c ió n g e n e r a l


Este es el tipo de desarrollo científico más reconocido y estudiado dentro de la fi­
losofía diacrónica de la ciencia, y para el que se han elaborado modelos (metateóricos) de
un nivel razonable de precisión conceptual. Kuhn ha llamado a este tipo de proceso c ien ­
cia n o rm a l , terminología que se ha popularizado desde entonces. Dentro del enfoque de
Kuhn, este tipo de actividad científica tiene lugar bajo la égida de un p a ra d ig m a , una m a ­
ANÁLISIS DIACRÓNICO DE TEORÍAS 443

triz d iscip lin a r algunos de cuyos constituyentes son paradigmáticos y esenciales. Para La-
katos, el cambio consiste en el desarrollo de un p ro g ra m a de investigación regido por un
núcleo que se desarrolla mediante un cinturón p ro tec to r de hipótesis auxiliares. Laudan, a
su vez, caracteriza estos procesos históricos como una tradición de investigación o de re­
solución de p ro b lem a s , en que se aplican ciertos principios básicos. Dentro de la concep­
ción estructuralista, la estructura de la ciencia normal aparece, como veremos a continua­
ción, descrita en términos de una serie de redes teóricas que cumple ciertas condiciones,
serie que constituye una evolución teó rica .
Todos estos modelos de cambio científico están basados en las nociones corres­
pondientes del análisis sincrónico de cada enfoque particular. Ya hemos explicado en de­
talle dichas nociones sincrónicas subyacentes (cf. cap. 9 y cap. 10, §5), por lo que no es
necesario volver a ellas. Baste hacer notar que la intuición básica común a todos estos en­
foques es que, en el tipo de desarrollo que aquí llamamos cam bio intrateórico , existe una
entidad estructural persistente a través del tiempo, un m arco teórico que permanece inva­
riable a pesar de los cambios y que es justamente el elemento sobre el que descansa la
identidad de la teoría involucrada en el proceso, aquello que permite hablar de “la teoría”
en cuestión, teoría que sigue siendo la misma aunque se produzcan modificaciones más o
menos significativas en ella, tanto a nivel puramente teórico como empírico. Este elemen­
to permanente en el cambio intrateórico es lo que Kuhn llamó primero ‘paradigma’ y,
más tarde, ‘matriz disciplinar’,1lo que Lakatos denomina ‘núcleo duro del programa’ y en
el estructuralismo aparece como “elemento teórico básico” (de una red determinada).
Tanto para Kuhn como para el estructuralismo, este elemento identificatorio de cada teo­
ría a través de los cambios es, a su vez, una entidad de articulación bastante compleja,
como ya se ha señalado en los capítulos correspondientes.
La intuición básica que acompaña a todas estas caracterizaciones es la misma: una
teoría en sentido diacrónico, como entidad que se extiende en el tiempo, es una sucesión
de teorías en sentido sincrónico que comparten un elemento común; la imagen de una teo­
ría en sentido diacrónico es la de una película cuyos fotogramas son los diferentes esta­
dios o versiones por las que la teoría va pasando (cada una de las cuales se considera
aproximadamente estable durante el lapso que dura). Para ello es esencial que, sincrónica­
mente consideradas, las teorías sean entidades dúctiles, con una parte esencial en la que
descanse su identidad y otras partes más específicas o complementarias que se puedan
“perder” sin alterar la esencia.
Si aceptamos la descripción sociohistórica que hace Kuhn de los períodos de cien­
cia normal en una disciplina dada, cuando todos los cambios que se producen ocurren
dentro de la matriz disciplinar aceptada y son por tanto intrateóricos en nuestro sentido,
entonces estos períodos se caracterizan sociológicamente hablando por ser relativamente
homogéneos y “pacíficos”: la disciplina viene representada por una sola co m u n id a d cien­
tífica , dentro de la cual hay consenso acerca de los principios y aplicaciones fundamenta­
les, y las controversias entre los científicos se refieren solamente a la oportunidad o ade­

1. O )a parte paradigmática de ella, según se considere que la matriz en un momento dado es todo
el conjunto de supuestos compartidos o sólo los esenciales (cf. cap. 8, §2).
444 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

cuación de ciertas hipótesis secundarias y aplicaciones concretas. Según Kuhn, el consen­


so básico se rompe únicamente durante el proceso que él denomina revolución cien tífica ,
cuando una teoría fundamental o matriz disciplinar es reemplazada enteramente por otra.
Durante la ciencia normal, la comunidad cambia las leyes especiales y las aplicaciones
concretas, pero no los principios fundamentales ni las aplicaciones paradigmáticas.
Abundan los ejemplos históricos claros de cambio intrateórico, en el sentido aquí
especificado, sobre todo en las disciplinas físico-químicas. Un ejemplo notorio de tal tipo
de desarrollo es el de la astronomía ptolemaica, es decir, la teoría geocéntrica de epiciclos
para explicar el movimiento de los planetas, teoría cuyo desarrollo tiene sus inicios no en
Ptolomeo, sino en Apolonio e Hiparco unos siglos antes. Esta teoría estuvo vigente hasta
fines del siglo xvi, y por tanto cubrió un lapso de casi 2.000 años. Sin embargo, y contra
lo que sugieren algunas descripciones superficiales, no hay que creer que se tratara de un
período de “estancamiento” de la astronomía. Al contrario, durante su larga vida la teoría
sufrió diversos e importantes refinamientos y modificaciones, y estuvo asociada a deter­
minaciones conceptuales y empíricas cada vez más precisas y diferenciadas, todo ello,
claro está, regido por el principio “intocable” geocéntrico-epicíclico.
Otro ejemplo claro de tal desarrollo intrateórico es el de la mecánica clásica de
partículas, iniciada por Newton en los años ochenta del siglo x v i i y que tuvo un desarrollo
relativamente largo y en cualquier caso muy fructífero hasta fines del siglo xix, durante
más de dos siglos. También aquí se dieron durante este período una serie de cambios im­
portantes en la teoría, con la postulación de nuevas leyes y la adquisición de nuevos casos
de aplicación empírica o el abandono de casos propuestos anteriormente. Y, sin embargo,
la teoría siguió siendo la misma, puesto que en ningún momento se cuestionaron las leyes
fundamentales de Newton y sus aplicaciones paradigmáticas (sistema planetario, caída de
graves, proyectiles, etc.).
Podemos añadir algunos ejemplos más dentro de la física, muy plausibles, de
cambio intrateórico en un período que Kuhn llamaría de ciencia normal: el desarrollo
de la teoría del flogisto a lo largo del siglo xvm; el de la teoría del calórico entre la Revo­
lución Francesa y 1830; el de la termodinámica gibbsiana del equilibrio desde 1870 hasta
la Segunda Guerra Mundial; el de la teoría general de la relatividad desde la Primera Gue­
rra Mundial; y sin duda muchos otros. Dentro de las ciencias naturales, pero fuera de las
ciencias físico-químicas, posiblemente no sea tan fácil encontrar muchos ejemplos de
“cambio bajo permanencia”, pero sin duda es plausible caracterizar así en biología el de­
sarrollo de la teoría darwiniana de la selección natural desde mediados del siglo xix y el
de la genética llamada “mendeliana” (es decir, en realidad, “morganiana”), desde la Pri­
mera Guerra Mundial hasta los años cincuenta. En geología, el desarrollo de la teoría de
las placas tectónicas desde los años sesenta parece mostrar también esta estructura.
En el caso de las ciencias sociales se ha argüido con frecuencia, en base a la no­
ción kuhniana de paradigma, que no puede hablarse de períodos de ciencia normal en el
sentido de Kuhn, puesto que tales períodos se caracterizan por estar dominados por un
solo paradigma, y las ciencias sociales en cambio se hallan en una situación
p re -p a ra d ig m á tic a , con múltiples enfoques radicalmente en competencia. Ahora bien,
puede que esta conclusión sea correcta si se toman las ideas de Kuhn al pie de la letra y
ANÁLISIS DIACRÓNICO DE TEORÍAS 445

se hace especial hincapié en los aspectos sociológicos o institucionales de las mismas;


en efecto, la situación sociológica actual de disciplinas tales como la psicología, la eco­
nomía o las ciencias de la cultura se caracteriza por la existencia de diversas comunida­
des científicas en agria competencia dentro de la misma disciplina, que no aceptan los
postulados más básicos de las comunidades rivales. No obstante, si prescindimos de la
caracterización sociológica de la ciencia normal y nos atenemos sólo a su aspecto meto-
dológico-estructural, como desarrollo en que los cambios son meramente internos a
cada teoría, entonces la diferencia entre las ciencias “paradigm áticas” y las
“pre-paradigmáticas” se desvanece, o cuando menos se diluye considerablemente. En
efecto, aun cuando en una disciplina dada existan diversas subcomunidades rivales que
“no se entienden entre sí”, cada una de ellas puede operar con su propia teoría funda­
mental del mismo modo como lo haría una comunidad científica “total” en una etapa de
ciencia normal en el sentido kuhniano, es decir, variando las componentes especiales
de la teoría pero dejando incólume el núcleo fundamental. Tenemos, por así decir, va­
rias teorías “simultáneas”. Así, por ejemplo, es plausible describir el desarrollo histórico
tanto del psicoanálisis como del conductismo en psicología desde principios del si­
glo XX hasta fechas recientes como “cambios intrateóricos” en nuestro sentido, aun
cuando no haya habido el menor acuerdo entre psicoanalistas y conductistas acerca de
los principios fundamentales de la psicología. En ambos casos se fueron introduciendo,
modificando y desechando hipótesis particulares y explicaciones de fenómenos psicoló­
gicos concretos sin afectar los supuestos básicos de partida, aunque claro que estos últi­
mos son completamente dispares en el psicoanálisis y el conductismo.

2 .2 . L a s t e o r ía s c o m o e v o l u c io n e s t e ó r ic a s

Veamos ahora cómo podemos precisar el aspecto estructural esencial de lo que


hemos denominado cam bio in tra teó rico . Para ello utilizaremos el aparato modelo teórico
de la concepción estructural. En el capítulo 10 (§5) presentamos la noción de red teórica
y dijimos que ella expresa de modo plenamente satisfactorio toda la riqueza estructural de
las teorías sincrónicamente consideradas, pero que para abordar los fenómenos diacróni-
cos el análisis debe dar un paso más. Este nuevo y definitivo análisis lo constituye la no­
ción de evolución teó rica . Ya hemos sugerido más arriba que un periodo de cambio intra­
teórico en una disciplina puede reconstruirse como una sucesión (en el tiempo históri­
co) de redes teóricas conectadas entre sí por ciertas condiciones, que explicitaremos en
seguida.
Recordemos que una red teórica es un conjunto de elementos teóricos conectados
entre sí por la relación de especialización. En las redes arbóreas hay un elemento teórico
básico del cual todos los demás elementos teóricos de la red son especial izaciones. Es de­
cir, si N = <{7’,},o> es una red teórica arbórea con n elementos y T0 su elemento básico,
entonces ocurre que para todo T¡ e {T,} T¡ a T0. Recordemos, además, que cada elemento
teórico T consta de un núcleo K (K = <M p , M pp, M , GC>) y de un dominio de aplicacio­
nes /, T = <K, />. El núcleo básico K 0 de T0 viene determinado por las leyes y ligaduras
446 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

fundamentales de la teoría, mientras que h representa el dominio total de aplicaciones in­


tencionales de la teoría.
Podemos entonces reconstruir lo esencial de la idea intuitiva de un cambio intra-
teórico de la siguiente manera: un desarrollo científico de tipo cam bio intrateórico es un
proceso evolutivo gradual que podemos representar formalmente como una sucesión fini­
ta <A/|, jV2, •••> N„> de redes teóricas (donde cada subíndice representa un determinado pe­
ríodo histórico en la evolución de la teoría) que satisface ciertas condiciones de continui­
dad parcial tanto a nivel teórico como aplicativo. Estas condiciones quedan recogidas en
la siguiente definición de evolución teó rica , reconstrucción formal del fenómeno de cam­
bio intrateórico. (En lo que sigue, los supraíndices indican la red a la que los elementos
pertenecen, y los subíndices fijan el elemento teórico concreto de que se trate. Así, *TV
denota el tercer elemento teórico de la segunda red de la sucesión, aunque recuérdese que
los elementos de las redes no están ordenados en secuencias; y análogamente para nú­
cleos y dominios de aplicaciones: 'K ¡’ y 7 32’ denotan, respectivamente, el núcleo y el do­
minio de aplicaciones de dicho elemento.)

D efinición 1 3 .1 :

Sean A2, ..., N„ n redes teóricas (arbóreas). Diremos que E = <NU N 2, ..., N„> es
una evolución teórica syss:
(1) Hay un núcleo K 0 tal que para todo K(¡(1 < i < n ) \ Kb = K 0.
(2) Hay un conjunto l p tal que 0 ^ 4 c / ó n . . . n /§.

K q es el nú cleo básico de la evolución, y /,, el dom inio de aplica cio n es p e rm a n e n ­


te s . Así, pues, en una evolución teórica, la identidad de la teoría a través del cambio la de­
terminan las leyes fundamentales, junto con (eventualmente) las condiciones de ligadura
básicas entre los modelos, y además ciertas aplicaciones reconocidas siempre como tales
a lo largo de la historia de la teoría y que podemos interpretar precisamente como los
“ejemplares paradigmáticos” de los que habla Kuhn. Nótese que no hace falta añadir una
condición intuitivamente obvia, a saber, que el aparato conceptual no varíe, esto es, que
todos los elementos de todas las redes de la evolución tengan los mismos conjuntos M p y
M pp. Eso se deriva de la condición (1) y de que en cada red la relación de especialización
preserva tales conjuntos.
Lo que no queda invariable en el cambio intrateórico son las redes de la sucesión
<Ai, N 2, ..., N„> en su conjunto: tanto las leyes y ligaduras especiales como las aplicacio­
nes no-paradigmáticas pueden cambiar mucho a lo largo de la evolución. Sin embargo,
todas las leyes serán siempre especializaciones de un núcleo común a todas las redes, K q,
y todas las redes compartirán al menos las aplicaciones paradigmáticas. Podríamos refor­
zar la idea de continuidad en el cambio intrateórico con algunas condiciones adicionales,
como por ejemplo que dos redes inmediatamente sucesivas compartan no sólo las aplica­
ciones paradigmáticas, sino incluso algunas de las no-paradigmáticas; pero no está claro
que esta u otras condiciones adicionales plausibles siempre hayan de cumplirse. En cual­
quier caso, aquí hemos escogido la formulación más general (y débil) del cambio intra-
ANÁLISIS DIACRÓNICO DE TEORÍAS 447

teórico, con la cual son compatibles requerimientos de continuidad más fuertes que parez­
can convenientes en un análisis más pormenorizado.
Para fijar las intuiciones sobre la idea que está detrás de la noción formal de evo­
lución teórica y de la reconstrucción propuesta de los cambios intrateóricos vamos a re­
presentar tales evoluciones mediante sucesiones de grafos en los que cada grafo represen­
ta una red teórica. Vamos a considerar como ilustración la evolución de una teoría que
atraviesa por tres fases, es decir, tres períodos históricos sucesivos de una teoría en los
que ocurren cambios importantes tanto a nivel teórico como respecto a las aplicaciones
empíricas, pero que sigue siendo la misma teoría. Por lo tanto, la evolución consistirá en
tres redes: E = < N U N 2, N 3>. Supongamos que, en una primera fase, la teoría (o sea, N i)
consta del núcleo básico K 0 y tres especializaciones del mismo. Cada una de estas espe-
cializaciones tiene su propio dominio de aplicaciones; dos de estos dominios, por ejem­
plo, pueden traslaparse, o sea, hay aplicaciones comunes a núcleos diversos; otro domi­
nio, en cambio, puede que aparezca “aparte”. En cualquier caso, el dominio total de apli­
caciones intencionales abarcará esos dominios parciales más quizá alguna otra aplicación
“suelta” (necesariamente no paradigmática) para la que no se ha contemplado o no se ha
encontrado todavía una ley especial. En la segunda fase de la evolución de la teoría (N 2)
aparecen, digamos, tres especializaciones más y algunas aplicaciones más. En la tercera
fase (N 3) se rechaza, por las razones que sean, una de las anteriores especializaciones jun­
to con una de las aplicaciones que le correspondían; en contrapartida, ese elemento teóri­
co es sustituido por otros dos distintos que se encargan de algunas de las aplicaciones in­
tentadas antes por el núcleo que ha sido eliminado.
Esta situación se recoge en los siguientes gráficos. Los núcleos teóricos van en­
marcados en cuadrángulos, las aplicaciones se representan mediante pequeños puntos,
blancos para las paradigmáticas, negros para las restantes; sus conjuntos se representan
mediante elipses que las contienen. Las flechas continuas representan la relación de espe-
cialización entre núcleos; las flechas discontinuas representan al aplicación de un núcleo
a un dominio de aplicaciones. Dentro de cada red, y para facilitar la visualización, pres­
cindimos de los supraíndices pues queda claro a qué red pertenecen los núcleos y los do­
minios de aplicaciones. Además, no incluiremos la correspondiente flecha entre cada nú­
cleo y su dominio de aplicaciones para todos los núcleos. Salvo en el caso del núcleo bá­
sico, prescindiremos de ella cuando el núcleo tenga especializaciones y consideraremos
por tanto que el dominio de aplicaciones de un núcleo con especializaciones es la unión
de dominios de sus especializaciones. Esto es una idealización, pues puede ocurrir, como
con el núcleo básico, que en un núcleo intermedio se proponga alguna aplicación que to­
davía no se sabe muy bien cómo encajar en una ley especial (v. gráf. págs. siguientes).
Estos tres fotogramas constituyen la película de esta supuesta teoría. De acuerdo
con las estipulaciones históricas que acordamos para el ejemplo, debe quedar claro que se
dan las siguientes relaciones entre los núcleos teóricos de las diferentes redes: K\ = K¡ -
ÁT?; = K í = Kh\ K \ = Kh = K¡; K¡ = K¡; K¡ = K¡; K¡ * ¡Q>\ FQ * K l Es fácil ver que esta
secuencia ejemplifica adecuadamente las condiciones que definen una evolución teórica:
K ü permanece invariable y las cuatro aplicaciones paradigmáticas se preservan en toda la
evolución, aunque cambien los núcleos específicos que se aplican a ellas. Este ejemplo,
448 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

RED W,

RED N,
ANÁLISIS DIACRÓNICO DE TEORÍAS 449

RED N 3

contiene pues todo lo esencial de un cambio intrateórico. Todo cambio intrateórico de la


ciencia real sigue este patrón de nuestra teoría imaginaria; es importante enfatizar que los
casos reales son conceptualmente idénticos a éste, sólo se diferencian de él por su mayor
complejidad, tanto en el número de redes de la secuencia como en el número de elemen­
tos en cada red (para una aplicación de este esquema a casos históricos concretos de teo­
rías reales en evolución, cf. Balzer, Moulines y Sneed, 1987, cap. 5, donde se exponen en
detalle la evolución de la mecánica newtoniana de Newton a Laplace y de la termodiná­
mica desde Gibbs hasta la Segunda Guerra Mundial).

3. Cambio interteórico en general

La estructura de los cambios interteóricos, en los que se produce algún tipo de


“innovación dramática” o revolución, es más difícil de capturar formalmente que la de los
cambios intrateóricos. Ello es debido en parte a razones historiográficas, porque el mate­
rial histórico correspondiente y su interpretación es asunto más sujeto a controversias.
Pero en parte también es debido a razones epistemológicas y metateóricas, porque el estu­
dio sistemático de estos casos presupone una (meta)teoría general de los cambios semán­
ticos en los conceptos científicos y de las complejas relaciones interteóricas típicas de es­
tos casos consideradas en perspectiva diacrónica, y hay que admitir que ésta es una temá-
450 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

tica de la filosofía de la ciencia que apenas ha empezado a abordarse de manera sistemáti­


ca en los últimos años.
Por lo demás, también parece claro que la expresión ‘cambio interteórico ’ engloba ti­
pos bastante distintos de fenómenos diacrónicos. La idea intuitiva de Kuhn según la cual en
una revolución científica se sustituye o elimina completamente un paradigma por otro parece
aplicarse sólo a un número limitado de casos de cambio interteórico, probablemente sólo a
una pequeña miñona. Es bastante ardua la tarea historiográfica de probar la existencia de tales
revoluciones científicas, al menos en el caso de las ciencias avanzadas, si se interpretan di­
chas revoluciones en el sentido kuhniano literal de que una teoría desaparece por completo en
aras de otra nueva, en un plazo relativamente breve y sin que la primera resulte inteligible
(“conmensurable”) desde el punto de vista de la segunda. De hecho, no es fácil encontrar
ejemplos daros de sustitución total de un paradigma por otro en las ciencias físico-químicas.
Sólo la sustitución de la dinámica aristotélica por la newtoniana y de la teoría del flogisto por
la teoría de la oxidación de Lavoisier parecen adecuarse bastante bien a la idea de rupturas ra­
dicales, acompañadas de inconmensurabilidad semántica, propugnada por Kuhn. Con cierta
dosis de buena voluntad quizá también podrían subsumirse bajo este esquema algunos otros
ejemplos importantes que aparecen con frecuencia en la literatura historiográfica: la transición
de la astronomía ptolemaica a la copemicana, de la mecánica cartesiana a la newtoniana o de
la teoría del calórico a la termodinámica fenomenológica.
En cualquier caso, muchos de los ejemplos mencionados por Kuhn y sus seguido­
res como candidatos a revoluciones científicas responden, en realidad, a un esquema de
cambios mucho menos dramáticos: no se trata verdaderamente de rupturas totales, ni al
nivel conceptual, ni al metodológico, ni al aplicativo. Tales casos se distinguen más bien
por las siguientes características:

a) la teoría anterior al cambio es suplantada sólo en p a rte por la posterior;


b) algunos, o incluso muchos, de los conceptos, principios y casos paradigmáti­
cos de aplicación de la primera teoría quedan incorporados, con modificaciones semánti­
cas leves, a la segunda teoría;
c) la primera teoría es reinterpretada como un caso “especial”, “idealizado” o
“aproximado” de la segunda;
d) a nivel sociológico, la comunidad científica afectada por el cambio no queda
dividida en dos comunidades rivales e irreconciliables, sino que una parte de la misma
comunidad, aunque “oficialmente” adherida a la nueva teoría, sigue trabajando con la teo­
ría anterior, al menos a fines didácticos, o para resolver problemas de cierto ámbito res­
tringido o aplicaciones puramente tecnológicas.

A estas características responden, en efecto, muchos de los ejemplos concretos de


“revoluciones científicas” que (generalmente prescindiendo de análisis historiográficos
detallados) se han propuesto en la literatura sobre el tema: la transición de la teoría plane­
taria de Kepler a la mecánica newtoniana, de ésta a la relativista especial y de ésta final­
mente a la teoría general de la relatividad; la transición de la termodinámica fenomenoló­
gica a la mecánica estadística; la transición de la óptica geométrica a la ondulatoria y de
ANÁLISIS DIACRÓNICO DE TEORÍAS 451

ésta a la electrodinámica; la transición de la teoría atómica clásica a la química cuántica;


la transición de la genética “mendeliana” a la teoría cromosómica de la herencia y de ésta
a la biología molecular; la transición de la teoría darwiniana de la evolución a la teoría
“sintética” de Mayr y sus seguidores; y sin duda bastantes casos más.
En vista de estos ejemplos y sus características esenciales, conviene, por lo tanto,
distinguir netamente por lo menos dos grandes tipos de cambio interteórico:

(1) la su p la n ta ció n de teorías acompañada de inconm en su ra b ilid a d (semántica);


(2) la in corporación de teorías sin inconmensurabilidad.

Sólo el primero de estos dos fenómenos corresponde aproximadamente a la noción kuh-


niana de revolución científica (aunque Kuhn mismo veía muchos casos del segundo tipo
como revoluciones). Para abreviar, al primer tipo lo llamaremos simplemente ‘suplanta­
ción’ y al segundo ‘incorporación’ de teorías. Ambos tipos pueden elucidarse formalmen­
te mediante el aparato conceptual del estructural ismo, aunque en el caso de la suplanta­
ción la elucidación es algo más problemática que en el caso de la incorporación. Empece­
mos por esta última.

4. C am bio interteórico com o incorporación

La incorporación de teorías como fenómeno diacrónico está inspirada en un tipo


particular de relación interteórica sincrónica: la reducción (estructural, cf. cap. 11, §3), ya
sea “exacta” o bien “aproximada” (en la inmensa mayoría de casos históricos se tratará
más bien de lo segundo, o sea, de una “reducción aproximada” o “aproximación reducti-
va”, como se la prefiera llamar).
La intuición básica detrás de la noción de reducción estructural se resume en las
tres siguientes condiciones:

a) Existe una correspondencia formal entre los marcos conceptuales respectivos


de la teoría reducida y la reductora, o sea, en perspectiva diacrónica, entre la teoría incor­
porada y la incorporadora.
b) Las leyes fundamentales de la teoría incorporada son implicadas, al menos
aproximativamente, por las leyes fundamentales de la teoría incorporadora reforzadas por
alguna(s) ley(es) especial(es) de esta última.
c) Todas las aplicaciones intencionales exitosas de la teoría incorporada pueden
reinterpretarse (al menos aproximativamente) como aplicaciones intencionales exitosas
de la teoría incorporadora; pero en general no será válida la relación inversa: habrá apli­
caciones intencionales exitosas de la teoría incorporadora que fueron “fracasos” para la
teoría incorporada o incluso que no fueron contempladas en absoluto por esta última.

Veamos cómo pueden precisarse estas intuiciones mediante las entidades que, se­
gún el estructuran smo, componen una teoría cualquiera. Para simplificar y restringir núes-
452 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

tra atención a lo esencial haremos uso solamente de las nociones de conjunto de modelos
potenciales (Mp), conjunto de modelos potenciales parciales (M p p ), conjunto de mode­
los actuales (M) y dominio de aplicaciones intencionales I. Recordemos (cf. cap 10, §5) que
las relaciones entre estos componentes son las siguientes: M p p = r[Mp], M e M p, I c M pp.
Recuérdese también que en las redes teóricas arbóreas, que por lo general representan mo­
delo-teóricamente las teorías científicas, hay siempre un subconjunto M 0 de M p privilegia­
do que es el conjunto básico de modelos actuales de la red, es decir, el conjunto de modelos
determinado por las leyes fundamentales. Por otro lado, y como venimos haciendo, usare­
mos lM¡y como variable para clases de modelos actuales especiales, los determinados por
leyes especiales de la teoría (que, naturalmente, presuponen la validez de las leyes funda­
mentales). Para referimos a la teoría incorporadora, o a cualquiera de sus componentes,
usaremos los signos usuales seguidos de un asterisco: para referimos a la teoría incorpora­
da, o a sus componentes, usaremos los signos usuales solos. Finalmente, usaremos
como subíndice de relaciones conjuntistas para denotar que la relación en cuestión no es
“exacta” sino “aproximada”; así, ‘jc e= A* y ‘A B ' significan, respectivamente, que los
correspondientes casos de pertenencia e inclusión son aproxim ados? Con estos instrumen­
tos en la mano podemos definir ahora la relación de incorporación anunciada (de nuevo,
cf. cap. 11, def. 11.3, p„ es la relación que genera p a nivel no-teórico, entre modelos par­
ciales; e.e, pfi = r (p)).

D efinición 13.2\

Sean TV, TV* redes teóricas. TVes incorporable a TV* syss existe una relación
p c M p * x M p tal que:
(1) p es función, es efectivamente calculable y Rec(p) = M p.
(2) Existen n conjuntos no vacíos Mf, ..., M* incluidos en M * tales que
p [A ftu ...u M * l c» M 0.
(3) 70 n r[M0] & pc[ n n r[M$]].

Estas condiciones definitorias de la incorporación de una red teórica TV(una “teo­


ría” en general) en otra red teórica TV* corresponden intuitivamente a las tres condiciones
intuitivas de una reducción aproximativa presentadas más arriba. La definición formal
aquí presentada, sin embargo, permite establecer una serie de precisiones y clarificaciones
ulteriores. Veamos cuáles son y cuál es su razón de ser.
En primer lugar, es importante notar que la relación de incorporación se establece
entre redes enteras y no entre elementos teóricos aislados, lo cual responde a la idea de
que son teorías en su totalidad y no sólo algunas leyes especiales de las mismas las que
quedan incorporadas en una teoría distinta. Por supuesto que, desde un punto de vista pu­
ramente formal, podríamos contemplar la posibilidad de incorporación de una red teórica
“degenerada”, que constase de un solo elemento teórico; esta posibilidad extrema no que-

2. Esta noción puede precisarse formalmente con instrumentos topológicos (cf. Balzer, Moulines y
Sneed, 1987, cap. VII, o bien, para una exposición más sucinta, Moulines, 1982, cap, 2.9).
ANÁLISIS DIACRÓNICO DE TEORÍAS 453

da excluida formalmente por nuestra definición, pero está claro que no representa los ca­
sos normales.
Ahora bien, aunque la relación de incorporación quede definida entre redes en su
totalidad, la incorporación atañe, por el lado de la teoría incorporada, directa y explícita­
mente sólo al elemento teórico básico T0. Ello no significa una restricción indebida. En
efecto, dado que los demás elementos teóricos de la red incorporada son especializaciones
del elemento básico, podemos decir que la incorporación de este último en una red distinta
“arrastra” consigo, indirectamente, la incorporación de sus especializaciones. Nótese que
esta determinación deja abierta la posibilidad de que, a pesar de que hayamos establecido la
incorporación de N en N * y por tanto de los conceptos y principios básicos de N en los de
N*, no obstante, no dispongamos explícitamente para alguna ley especial de N de su corre­
lato en N *, o simplemente lo ignoremos. Podría quizá argüirse que ello representaría una
situación metodológicamente inaceptable para una “buena” incorporación, y que para que
ésta sea verdaderamente satisfactoria debe indicarse qué elemento(s) teórico(s) especial(es)
de N * corresponde(n) a cada uno de los elementos teóricos especiales de N . Desde un punto
de vista puramente formal, sería fácil añadir una estipulación en este sentido a nuestra defi­
nición general de incorporación. Sin embargo, desde el punto de vista de la praxis real de
las incorporaciones históricamente dadas, no parece necesario ni conveniente añadir esta
condición tan restrictiva. En efecto, en la mayoría de casos se acepta una incorporación
cuando se ha mostrado que ella ha podido establecerse para los conceptos y leyes funda­
mentales, así como las aplicaciones en general, de la teoría a ser incorporada, y no se espe­
ra a que se haya especificado, para cada ley especial de la red incorporada, cuál es su co­
rrelato concreto en la red incorporadora. En teorías con un mínimo de complejidad sería
sumamente tedioso encontrar o construir tales correlatos para cada una de las numerosas le­
yes especiales; ello sólo se lleva a cabo para algunas leyes especiales cuyos correlatos in-
corporadores parecen especialmente interesantes por alguna razón concreta. Así, por ejem­
plo, para aceptar el éxito de la incorporación de la mecánica newtoniana en la mecánica
relativista especial, nadie esperó a ver cómo las numerosas leyes dinámicas especiales de la
mecánica newtoniana (incluyendo complicadas ecuaciones que ni siquiera aparecen en los
manuales de física, sino sólo en los formularios de ingenieros dedicados a problemas mecá­
nicos muy especiales) encontraban su correlato en la mecánica relativista; bastó comprobar
cómo los conceptos y principios fundamentales de la mecánica newtoniana, y a lo sumo al­
gunas otras leyes de alto nivel de generalidad, podían asimilarse a otras relativistas.
Así, pues, para la relación interteórica que estamos analizando aquí, lo único esen­
cial es la incorporación del elemento básico de la teoría anterior al cambio. Esta incorpo­
ración ha de realizarse con respecto a los tres componentes más importantes de dicho ele­
mento: el marco conceptual M p (que, por definición, es el mismo para todos los elemen­
tos de la red N ), las leyes fundamentales recogidas en M 0 (de las cuales todas las demás
leyes de N son especializaciones) y el dominio general I0 de aplicaciones (que abarca to­
dos los casos de aplicación contenidos en la red). A estos tres componentes del elemento
básico se refieren las tres condiciones de la Definición 13.2.
Según la condición (1), la relación de incorporación queda formalmente fijada
como una relación entre los modelos potenciales de ambas teorías que además es una fun~
454 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

ción efectivam ente ca lcu la b le de la clase incorporadora sobre la clase incorporada; en ge­
neral, sin embargo, la relación inversa p_) no será una función. Estas determinaciones de
la relación tienen una serie de consecuencias dignas de ser notadas. En primer lugar, que
p sea efectivamente calculable significa que entre M p* y M p no sólo se estipula la exis­
tencia de una relación cualquiera (lo cual siempre es trivialmente válido), sino que la rela­
ción p escogida debe ser tal que, en un número finito de pasos, pueda determinarse qué
modelo de M p corresponde a cuál de M p * o a la inversa. Que además p cubre todo M p
significa que todo modelo potencial de N tiene al menos un correlato en N * , es decir, que­
da efectivamente incorporado a N *. Pero, por otro lado, como p-1 no es necesariamente
una función, es posible que los modelos potenciales de N tengan varios correlatos distin­
tos en N *. La idea intuitiva es que cada modelo incorporado puede traducirse en versio­
nes diferentes en la teoría incorporadora, lo cual, a su vez, expresa el hecho de que esta
última suele tener mayor poder de diferenciación o de análisis en la representación de los
fenómenos. Por otro lado, el hecho de que el dominio de p esté incluido en M p*, sin ser
necesariamente idéntico a este conjunto, significa que, en general, habrá muchos modelos
potenciales de la teoría incorporadora que no tienen ningún correlato en la teoría incorpo­
rada: intuitivamente, la teoría incorporadora puede tratar de algunos sistemas que caen
por completo fuera del marco conceptual de la teoría incorporada.
La condición (2) es, en lo esencial, una reconstrucción modeloteórica de la idea
intuitiva acerca de la reducción de una teoría a otra según la cual las leyes fundamentales
de la teoría reducida se “deducen” de las leyes fundamentales y algunas de las especia­
les de la teoría reductora. Recordemos el teorema elemental (pero metateóricamente muy
relevante) de la teoría de modelos, según el cual si una fórmula a implica otra p, entonces
los modelos de a , es decir, las estructuras que satisfacen a , constituyen un subconjunto
del conjunto de modelos de p:

a >= p syss M a q Aí p.

La condición (2) reproduce, en lo esencial, esta idea pero generalizándola al caso en que
las leyes de una y otra teoría pertenecen a “lenguajes”, esto es, a marcos conceptuales di­
ferentes aunque correlacionados por la función p. Tomamos primero cierto número de le­
yes especiales incorporadoras a i , ..., a n (puede ser una sola), todas las cuales presuponen
las leyes fundamentales (esto es, las clases de modelos que satisfacen esas leyes especia­
les son subconjuntos de Mo). A continuación construimos su “traducción” al lenguaje de
N medíante p y ello ha de ser suficiente en cualquier caso para implicar las leyes funda­
mentales de N . Al tomar la unión M * kj ... s j M * contemplamos la posibilidad de que, se­
gún el tipo de sistema considerado, se necesiten diversas leyes especiales de N * para lle­
var a cabo la “deducción” de las leyes fundamentales de N. Dado que con frecuencia, si
no casi siempre, la relación de incorporación ha de concebirse como una relación aproxi-
m ativa entre las teorías involucradas, la implicación de una teoría por la otra valdrá en ge­
neral sólo de manera aproximada; en términos modeloteóricos ello se traduce en el hecho
de que las relaciones conjuntistas de la condición (2) en general no se cumplen de manera
exacta sino sólo aproximada. Por supuesto que el caso eventual en que la incorporación
ANÁLISIS DIACRÓNICO DE TEORÍAS 455

valga con exactitud también queda subsumido bajo este esquema, pues c* contiene como
casos especiales aquellos en los que vale c .
La condición (3) se refiere a la parte “empírica” o “base de datos” de una y otra
teoría. Para que la incorporación sea realmente exitosa no basta con la correlación entre
marcos conceptuales y la implicación (aproximativa) de leyes, sino que debe estar garan­
tizado que todas las aplicaciones intencionales exitosas de N quedan englobadas por la
p-traducción de las aplicaciones intencionales exitosas de N * t o más exactamente, por un
entorno topológico de las mismas, pues también aquí debemos tomar en cuenta el fenó­
meno de la aproximación.
Esta condición relativa a las aplicaciones puede parecer quizá demasiado restricti­
va o contraintuitiva en el sentido de que podría ocurrir (y parece haber ejemplos históri­
cos de ello) que algunas aplicaciones intencionales de la vieja teoría sean consideradas
fuera de lugar por la nueva teoría y por tanto no se esperen correlatos pertinentes de aque­
llas en el nuevo dominio de aplicaciones intencionales. Para reflejar esta posibilidad po­
dríamos debilitar de alguna manera la condición (3), por ejemplo, exigiendo sólo que una
porción considerable de 70 n r[M0] sea subconjunto de su correlato aproximativo en iV*.
Sin embargo, aquí mantendremos la formulación estricta de la condición (3), y no sólo a
efectos de simplicidad expositiva sino, además, porque la posibilidad mencionada de que
algunas de las aplicaciones intencionales exitosas de N caigan “en desuso” es menos pro­
bable de lo que parece a primera vista y de lo que algunos ejemplos históricos quizá su­
gieren. En efecto, la relación entre N y N * no ha de ser concebida en el sentido de que N*
recoja toda la evolución de la teoría anterior desde sus inicios y con todos los cambios en
el dominio de aplicaciones que el proceso lleva parejo, sino sólo lo que es la teoría en su
último estadio. Es decir, la red N que hay que incorporar es sólo el último término de
cierta sucesión < N U N 2, ..., N„> que representa una evolución teórica en el sentido de la
Definición 13.1, esto es, N - N„. En tal caso, sí es de esperar que la teoría incorporadora
N * recoja todos los éxitos de aplicación empírica que estaban ya recogidos en la teoría a
ser incorporada; de lo contrario, probablemente no consideraríamos que la incorporación
ha sido verdaderamente exitosa.
Este esquema da cuenta de la siguiente posibilidad históricamente interesante. Su­
pongamos que una teoría dada ha evolucionado hasta llegar a una “fase” (una red) N n, en la
cual es incorporada a una nueva teoría representada por la red N f. Supongamos, no obstan­
te, que a pesar de que la comunidad científica acepte el éxito de esta incorporación, una
parte de la misma sigue desarrollando la primera teoría y que ésta llega a una fase N n+k en la
que ya no se cumple la condición (3) de la incorporación porque se descubren nuevas apli­
caciones exitosas de la primera teoría que no hallan ningún correlato adecuado (exitoso) en
la segunda. En tal caso, sería legítimo abrigar dudas acerca de si la incorporación realmente
puede efectuarse de manera satisfactoria. Y probablemente se seguirían desarrollando am­
bas teorías en paralelo. Puede interpretarse esta situación como la traducción a nuestros tér­
minos del fenómeno histórico que Lakatos describe en términos intuitivos como program as
de investigación en com petencia (cf. Lakatos, 1977); al menos es ésta una interpretación
plausible de algunos de los casos previstos por dicho autor. En efecto, Lakatos sostiene que
la mayoría de los ejemplos de lo que Kuhn considera revoluciones científicas, o cambios de
456 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

paradigma, constituyen en realidad casos de competencia entre programas de investigación


rivales, en los que uno de los programas acaba por ser “superado” (“incorporado”, diríamos
aquí) por el otro, pero sin que esta superación pueda ser nunca definitiva, ya que el progra­
ma aparentemente “perdedor” puede subsecuentemente recobrar fuerzas y mostrar éxitos
empíricos para los que su rival no estaba preparado.
Ahora bien, independientemente de si Lakatos tiene razón en su tesis historiográ-
fica de que existe mayor fundamento histórico para su idea de programas en competencia
que para los cambios de paradigma de Kuhn, está claro intuitivamente que ambas ideas
son netamente distintas. Es por ello conveniente, si no es que necesario, precisarlas de tal
modo que la diferencia resulte detectable en términos exactos; ello, a su vez, puede con­
tribuir a dirimir la cuestión historiográfica de si, en la historia real de la ciencia, hay más
casos “lakatosianos” que “kuhnianos”, o a la inversa (o quizá ni unos ni otros). La intui­
ción lakatosiana es precisable, al menos en parte, mediante nuestra noción formal de in­
corporación de la siguiente manera.

D efinición 13.3:

Sean E = <NU N 2, ..., N„> y E ' = <N\, N r2, ..., N'm> dos evoluciones teóricas distin­
tas en el sentido de Def. 13.1. Diremos que E y E son p ro g ra m a s de investigación
en com p eten cia syss hay N¡ y N i+h de E y A'de E tales que N¡ queda incorporada en
N } pero no existe N'j+k de E que incorpore a N i+h.

Nótese que la definición permite que la competencia se dé en los dos sentidos, con lo cual
tendríamos el caso de una “competencia perfecta” entre programas: cierta fase del uno es
incorporada a una fase del otro, mientras que cierta fase del otro queda incorporada en
una fase del primero; pero ninguno de ambos logra incorporar todas las fases ulteriores
del otro.
Para concluir queda por precisar la idea rival kuhniana de cambio revolucionario o
cambio de paradigma (con inconmensurabilidad concomitante); para ello utilizaremos la
noción de suplantación de teorías.

5. Cam bio interteórico com o suplantación

Según la metateoría de Kuhn, en las genuinas revoluciones científicas se da la su­


plantación total de una teoría (un paradigma o matriz disciplinar) por otra. Ahora bien,
este proceso de suplantación es radical en el sentido de que no sólo se abandona una teo­
ría que hasta ahora se tenía por verdadera y a partir del cambio se la considera falsa: la
suplantación no consiste en una mera falsación o refutación de una teoría y su sustitución
por otra, sino que el cambio va acompañado, si Kuhn está en lo cierto, de un fenómeno
semántico más profundo: la in conm ensurabilidad entre ambas teorías. Ello significa que
ocurre una verdadera ruptura entre los marcos conceptuales de una y otra teoría: no hay
manera de correlacionar sem ánticam ente los conceptos básicos de una teoría con los de la
ANÁLISIS DIACRÓNICO DE TEORÍAS 457

otra, y por lo tanto tampoco puede establecerse ninguna relación lógica entre los princi­
pios de una y otra teoría. Cada teoría se vuelve “ininteligible” para la otra. En consecuen­
cia, no es que una teoría sea, propiamente hablando, falsa respecto de la otra, sino algo
peor: carece de sentido.
La tesis de la inconmensurabilidad de Kuhn (defendida también, independiente­
mente, por Feyerabend, aunque en un contexto algo distinto) ha tenido un gran impacto
en la filosofía diacrónica de la ciencia de las últimas décadas. Se trata de una tesis acerca
de los aspectos semánticos de los cambios interteóricos. Más concretamente, la tesis de
Kuhn es que en la forma de cambio científico que él trata de apresar se da un tipo de rela­
ción especial entre los conceptos básicos antes y después del cambio que es precisamente
lo que él llama “inconmensurabilidad” (la cual, según el propio Kuhn, no debe confundir­
se con la incomparabilidad: dos conceptos o principios pueden ser comparables en el sen­
tido de apresar más o menos eficientemente el mismo tipo de fenómenos y, no obstante,
ser inconmensurables en el sentido de que no pueda traducirse el uno al otro, de que no
haya una base semántica común). Al darse la relación de inconmensurabilidad en un cam­
bio interteórico revolucionario, no sólo cambian de significado los términos básicos de
una y otra teoría, sino también sus respectivos “universos del discurso”; es decir, la onto-
logía fundamental, que sirve de base a la interpretación de los términos y enunciados de
una y otra teoría se vuelve completamente dispar: los científicos portadores de una y otra
teoría “viven en mundos distintos” como dice Kuhn. Ejemplos clásicos de tales cambios
semánticos profundos, que implican cambios ontológicos fundamentales serían: el paso
del concepto ptolemaico de planeta al concepto copemicano; el paso del concepto carte­
siano de res extensa al concepto newtoniano de partícula; el paso del concepto de “aire
deflogistizado” de la química del flogisto al concepto de oxígeno de Lavoisier.
Ahora bien, si examinamos con un poco de atención la idea de la inconmensura­
bilidad como relación ontosemántica entre los conceptos básicos de dos teorías, nos per­
cataremos pronto de que, aun admitiendo la realidad histórica de tales rupturas, ellas no
pueden (como parecen sugerir Kuhn y Feyerabend) ser un asunto de todo-o-nada. Dadas
dos teorías separadas por un cambio revolucionario puede haber mayor o menor incon­
mensurabilidad entre ellas. Dicho en términos más técnicos, la inconmensurabilidad
como relación ontosemántica entre teorías ha de concebirse como concepto com parativo,
como una relación gradual.
La inconmensurabilidad puede atañer sólo a un concepto básico de cada teoría (y a
su correspondiente universo del discurso), o a varios, o quizá incluso a todos (las diversas
posibilidades tienen que ver con cuán “holista” sea el sistema conceptual de las teorías in­
volucradas). Ahora bien, hay que tener en cuenta que, cuantos más conceptos básicos de
dos teorías queden involucrados en la relación de inconmensurabilidad, tanto más radical
será ésta... pero también tanto más desprovista de interés, tanto más inverosímil para des­
cribir un cambio interteórico real en la historia de la ciencia. Pueden detectarse, sin duda,
casos de inconmensurabilidad total entre dos teorías, incluso entre dos teorías que se suce­
den en el tiempo, pero es muy dudoso que tales casos tengan la menor significación para la
filosofía diacrónica de la ciencia. Tomemos, por ejemplo, el siguiente par de teorías: la teo­
ría del catastrofismo en geología y la teoría del valor en la economía marxiana; es muy
458 FUNDAMENTOS DE FILOSOFIA DE LA CIENCIA

plausible admitir que ambas teorías son totalmente inconmensurables; además, la primera
teoría fue abandonada aproximadamente por las mismas fechas (alrededor de 1850) en las
que emergió la segunda. Pero nadie estará dispuesto a hablar aquí de cambio revoluciona-
rio; por supuesto que no es en casos de esta naturaleza en los que piensan Kuhn y sus se­
guidores. Inconmensurabilidad total, incluso acompañada de sucesión temporal inmediata,
no es un buen criterio para detectar revoluciones científicas. Cuando dos teorías “no tienen
nada que ver entre sí”, entonces ciertamente serán todo lo inconmensurables que se quiera,
pero ello no es indicio del fenómeno de suplantación de teorías.
En realidad, si examinamos con atención los ejemplos de revoluciones que han
presentado los adalides de la tesis de la inconmensurabilidad, notaremos que los casos
verdaderamente interesantes de inconmensurabilidad son aquellos en que ésta se da p a r ­
cia lm en te : a lgunos de los conceptos de las dos teorías involucradas están ciertamente co­
rrelacionados pero carecen de una base ontosemántica común (no pueden “traducirse”),
mientras que otros están correlacionados y adem ás son interpretables sobre una base on­
tosemántica común. En términos modeloteóricos podemos decir que, en tales casos, algu­
nas subestructuras de los modelos de una y otra teoría son comunes a ambas, o por lo me­
nos formalmente conectables, mientras que otras subestructuras no lo son (y son las que
causan el problema semántico al tratar de comparar ambas teorías).
Por lo que respecta al contenido proposicional de dos teorías separadas por un
cambio interteórico de suplantación, parece plausible suponer que, como sugieren los “in-
conmensurabilistas”, las leyes fundamentales de la teoría suplantadora no pueden impli­
car (por razones estrictamente lógico-semánticas) las leyes fundamentales de la teoría su­
plantada, y por supuesto que tampoco a la inversa; de lo contrario, no tendría sentido ha­
blar de “suplantación”. En ello estriba la diferencia esencial entre un cambio interteórico
con incorporación y uno con suplantación. Por otro lado, no obstante esta inconmensura­
bilidad a nivel proposicional, si no queremos que la relación entre teoría suplantada y teo­
ría suplantadora se reduzca a un caso de mera inconmensurabilidad trivial como es el de
la relación entre la geología catastrofista y la economía marxiana, tendrá que haber algo
en común entre teoría suplantada y suplantadora: a saber, al menos algunos (tipos de)
aplicaciones intencionales. En ellas, en cuanto que en general son sub estru ctu ra s de los
modelos potenciales de una y otra teoría (y por tanto admiten total disparidad a nivel de
las “superestructuras” teóricas respectivas), radica la clave de la comparabilidad a pesar
de la inconmensurabilidad. En efecto, supóngase que constatamos que algunas de las apli­
caciones intencionales comunes a ambas teorías (como se verá a continuación, ello no su­
pone que los sistemas de datos son literalmente los mismos, sino sólo que son conecta-
bles) y que consideramos especialmente importantes para nuestro conocimiento de la rea­
lidad o para nuestra praxis de manipulación de la misma, resultan ser de tal naturaleza
que no pueden expandirse teóricamente para constituir modelos actuales de una teoría
pero s í pueden convertirse en modelos actuales de la otra. Intuitivamente, ello significa
que esas aplicaciones, aunque pertenecen al campo de lo que ambas teorías se proponen
sistematizar, sólo lo son exitosamente por la segunda teoría. Ello es razón suficiente y
plausible para que suplantemos la teoría menos exitosa por la más exitosa (incluso si para
ello hay que pagar el precio, como sugiere Kuhn, de que algunas aplicaciones intenciona­
ANÁLISIS DJACRÓNICO DE TEORÍAS 459

les de la primera teoría, que se consideran “menos importantes”, quedan relegadas al olvi­
do por la teoría suplantadora). No hay en todo este proceso de suplantación así concebido
nada que suene a “irracionalidad”, como han pretendido muchos críticos de Kuhn. No
sólo es un proceso racionalmente comprensible, sino que los rasgos esenciales del mismo
son formalmente apresables mediante el aparato modeloteórico del que ya hemos hecho
uso en las páginas anteriores de este capítulo. Veámoslo con la definición de suplantación
que se propone a continuación (recuérdese que p c es la relación generada por p a nivel
no-teórico: pc = r(p)).

D efinición 1 3 .4 :

Sean N, TV* dos redes teóricas distintas. Diremos que N es su plantable (in co n m en­
surablem ente) por N * syss existen una relación p e M p* x M p y un conjunto
no-vacío l a tales que:
(1) p no es efectivamente calculable.
(2) p c es función, es efectivamente calculable y Rec(pc) = M pp.
(3) No existen n conjuntos no vacíos M f,..., M *incluidos en M*tales que
p [A ffu ...u A f* | c*M 0.
(4) (i) Ia c I0.n p JO ñ Y (ü) para todo y <= Ia (y e r[Mü] a y € r[M0]).

Comentemos el sentido de estas condiciones. Que p, en cuanto relación entre los


aparatos conceptuales enteros de una y otra teoría, no sea efectivamente calculable signi­
fica que no hay manera de correlacionar sistemáticamente los modelos (y por tanto todos
los conceptos básicos) de una y otra teoría. En esto, y en la condición (3) de no-deducibi-
lidad de las leyes fundamentales de la teoría suplantada a partir de las leyes de la suplan­
tadora, consiste la inconmensurabilidad. Determinamos pues dos factores de inconmensu­
rabilidad distintos: uno conceptual, condición (1), otro proposicional, condición (3). Kuhn
y otros partidarios de la tesis de la inconmensurabilidad también se refieren a veces a es­
tos dos aspectos de la inconmensurabilidad, pero suelen dar la impresión de quererlos re­
ducir a un solo factor. Nótese que aunque estos dos factores de inconmensurabilidad sue­
len ir juntos, estrictamente uno no se sigue de otro, (1) no implica (3); podría ocurrir que
p no fuese calculable pero que p restringida a Mf u ... u M*sí lo fuese. Por tanto, incluso
si de hecho van siempre acompañados, es importante distinguir conceptualmente entre
ambos factores. Por otro lado, por la condición (2), la inconmensurabilidad no es total,
puesto que a nivel no-teórico o “empírico” hay manera de correlacionar efectivamente
las estructuras parciales de una y otra teoría (la base de “datos”) mediante el reducto
no-teórico de p; éste tiene una estructura formal enteramente análoga a la relación de in­
corporación, pues la intuición básica es la misma.
Con respecto a las aplicaciones intencionales de una y otra teoría, en el caso de
la incorporación hemos exigido una condición fuerte de superioridad de la teoría incor-
poradora frente a la incorporada: en lo esencial, que todas las aplicaciones exitosas de
la segunda queden englobadas por la primera también. En el caso de la suplantación, la
460 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

condición homologa respecto a las aplicaciones intencionales es mucho más débil: sólo
exigimos que haya un subconjunto com ún de aplicaciones que hayan representado un
fracaso para la teoría suplantada y resulten un éxito para la teoría suplantadora. A este
subconjunto I ü lo podemos interpretar como el conjunto de las a n o m a lía s (en el sentido
de Kuhn) de que adolece la teoría suplantada (claro que la teoría suplantadora puede te­
ner también sus propias anomalías, pero ellas no están en el punto de mira de la compa­
ración entre ambas teorías). Para expresar esta idea (4) exige de este conjunto dos cosas:
en primer lugar, que esté formado por aplicaciones pretendidas por ambas teorías; y en
segundo lugar, que tales aplicaciones no sean subsumibles bajo las leyes de la suplanta­
da pero sí bajo las de la suplantadora. Aunque esta estipulación respecto a las aplicacio­
nes intencionales es más débil que en el caso de la incorporación, no obstante ella es su­
ficiente para establecer la superioridad de la teoría suplantadora frente a la suplantada:
la primera explica las cosas que la segunda quería explicar pero no podía. Es perfecta­
mente comprensible entonces que la comunidad científica acabe por preferir una teoría
frente a la otra, sobre todo en aquellos casos en los que, por razones cognoscitivas o tec­
nológicas, el conjunto Ia se considere especialmente importante para la comunidad.
Tampoco hay en esta preferencia ningún elemento que sea sospechoso de “irracio­
nalidad”.

6. Consideraciones finales: Las form as del progreso científico

Concluiremos con unas breves observaciones sobre la noción de p ro g reso cien tífi­
co. Aunque las siguientes consideraciones están ya de hecho contenidas en lo dicho ante­
riormente, conviene explicitarlas aquí claramente a modo de conclusión, dado que la de­
batida cuestión del progreso científico pertenece sin duda a la problemática que debe
abordar toda filosofía diacrónica de la ciencia. La idea de progreso en general es muy
controvertida, pero no es éste el lugar para tratarla. Sin duda, hay una relación estrecha
(aunque no una identidad, ni siquiera un condicionamiento absoluto) entre progreso cien­
tífico y progreso técnico. También puede que haya algún tipo de relación interesante entre
progreso científico y progreso moral o político-social, aunque esto ya sea una cuestión
mucho más problemática. Pero el debatir sobre estos temas rompería el marco de este li­
bro. Aquí nos hemos de limitar a hacer algunas sugerencias sobre el modo de precisar lo
que pueda ser el progreso científico sensu stricto.
Algunos autores, inspirados en una interpretación radicalmente relativista de las
nociones kuhnianas, han sacado la conclusión de que la noción de progreso científico es
vacía, que ella proviene sólo de ciertos prejuicios ideológicos calificados de “cientificis-
tas” : el desarrollo de las disciplinas científicas a través de la historia no es progresivo en
ningún sentido objetivamente determinable, sino que más bien es comparable a una su­
cesión de modas. Y así como a nadie se le ocurre describir el paso de la falda corta a la
falda larga (o al revés) como un progreso objetivo en el modo de vestir, así tampoco hay
por qué hablar de progreso objetivo en el conocimiento cuando se pasa de una teoría a
ANÁLISIS DIACRÓNICO DE TEORÍAS 461

otra en una disciplina. Ahora bien, independientemente de la constatación general de


que el relativismo epistémico representa una posición argumentativamente insostenible
(tema en el que no podemos detenernos aquí, cf. para ello Moulines, 1991, cap. II. 1), el
hecho es que si se admiten los análisis de nociones diacrónicas propuestos en este capí­
tulo, es fácil caracterizar de manera plausible y precisa al menos tres distintas formas de
progreso científico, de las cuales, además, pueden detectarse numerosos ejemplos his­
tóricos.

1. En el caso del cambio intrateórico, determinaremos que hay progreso simple­


mente cuando las redes que componen una evolución teórica son cada vez más ramifica­
das y al mismo tiempo su dominio de aplicaciones exitosas cada vez mayor. Podemos
formular estas dos condiciones más precisamente. Denotaremos mediante *| N | * el núme­
ro de elementos teóricos de que consta una red. Supongamos que N¡ y Nj son dos redes de
una determinada evolución teórica E tales que i < y, esto es, N¡ precede a Nj. Diremos que
la transición de N¡ a Nj ha representado un progreso si: (i) \ n ¡\ < \ Nj I o (ii) I¿ n r[M¿] c
ii n r[Mo]. Por la primera condición, el progreso estriba en una mayor capacidad de dis­
criminación y diferenciación de la teoría, lo cual va acompañado en general de un mayor
potencial de explicación y predicción. Por la segunda condición, ese progreso a nivel de
las leyes va acompañado de una mayor aplicabilidad de la teoría. Nótese que no exigimos
que se den ambas condiciones sino sólo alguna de ellas, pues, aunque ambas formas de
progreso suelen ir juntas, a veces se produce progreso sólo en uno de los ámbitos, bien el
teórico, bien el aplicativo.
2. En contra de lo que suponen muchos autores, también en el caso del cambio
interteórico podemos dar cuenta “racionalmente” y objetivamente de lo que significa un
progreso. En efecto, la relación de incorporación representa por sí misma un caso claro de
progreso, por cuanto las leyes de la teoría incorporadora son a la vez más amplias y lógi­
camente más fuertes (tienen más consecuencias) que las leyes de la teoría incorporada; y
además, también el dominio de aplicaciones exitosas de la primera abarca el de la segun­
da (y normalmente otras aplicaciones adicionales).
3. Finalmente, como ya hemos sugerido al final del apartado anterior, incluso en
el caso de la suplantación con inconmensurabilidad, podemos hablar de progreso de ma­
nera natural, al menos al nivel de las aplicaciones: la teoría suplantadora explica las ano­
malías de la teoría suplantada (además de muchas otras cosas).

Estos tres tipos de progreso científico ciertamente no son los únicos que pueden
definirse con precisión. Las condiciones que hemos señalado son suficientes pero no ne­
cesarias para la idea intuitiva de progreso científico en general, tanto si nos restringimos
al cambio intrateórico como si lo hacemos al cambio interteórico. Por ejemplo, una forma
muy importante de progreso científico, en la que no hemos entrado aquí pero que sin
duda es caracterizable formalmente, es la que representa el aumento en el grado de apro­
ximación con el que el núcleo de un elemento teórico se aplica a sus aplicaciones corres­
pondientes (cf. p.ej. Balzer, Moulines y Sneed, 1987, cap. VII). Esta forma de progreso
ha tenido mucha importancia en la evolución de la astronomía y la física, por ejemplo. En
462 FUNDAMENTOS DE FILOSOFÍA DE LA CIENCIA

cualquier caso, basten las formas señaladas para poner de manifiesto que la noción de
progreso científico es precisable según diversos tipos y que es verosímil admitir que ellos
tienen múltiples realizaciones en casos reales de la historia de la ciencia. Las consecuen­
cias que se derivan de cada una de estas formas de progreso para otras nociones más fuer­
tes, como la de p ro g reso hacia la verd a d , y su relación con otros problemas filosóficos
sustantivos, como el del realismo científico, quedan fuera de los límites de esta obra.
A p é n d ic e

RECORDATORIO DE TEORÍA DE CONJUNTOS

1. Conjuntos

1.1. P e r t e n e n c ia , e x t e n s io n a l id a d y c o n j u n t o v a c ío

Los conjuntos, o clases, son colecciones de cosas, son entidades que consisten en tener
otras entidades como miembros. Ejemplos de estas entidades son el conjunto de los filósofos ale­
manes del siglo xix, el conjunto de las letras de este libro, el conjunto de los números primos, el
conjunto de los números primos menores que 10, el conjunto de los conceptos termodinámicos, el
conjunto de las virtudes teologales, el conjunto de las teorías biológicas, el conjunto de los conjun­
tos de tres elementos, etc.
Podemos nombrar estas entidades en lenguaje ordinario, como acabamos de hacer, pero
para abreviar se suele usar el signo ‘{ ... }\ que se lee “el conjunto formado por ...”. Este signo se
puede usar de dos modos: a) poniendo en los puntos suspensivos un nombre de todos y cada uno
de los objetos que constituyen el conjunto; tí) poniendo una variable y dando una condición que
satisfacen todos y sólo los objetos que constituyen el conjunto, e.e. *{x / <p(jc)}’, que se lee “la clase
de objetos tales que cumplen la condición íp” (no toda condición determina un conjunto, pues eso
conduce a paradojas, pero no podemos detenemos aquí en ello). En el primer caso decimos que
nombramos el conjunto por extensión, en el segundo que lo nombramos p o r comprehensión ; ob­
viamente, sólo se pueden nombrar por extensión los conjuntos finitos. Son ejemplos de nombres
de conjuntos por extensión ‘{1, 2, 3, 5, 7}’, ‘{Churchill, Stalin, Róosevelt}’, ‘{fe, esperanza, cari­
dad}’, etc.; y de nombres por comprehensióh *{x / x es una letra de este libro} ‘{x / x es un núme­
ro primo}’, ‘{x/xes un número primo menor que 10}’, *{x/xes una virtud teologal}’, ‘{x/xes
un conjunto con exactamente tres elementos}’, etc.
Para referirse a la relación que se da entre un objeto y un conjunto del que es miembro se
usa el signo de pertenencia *e’, que debe estar flanqueado por un signo de objeto a su izquierda y
por un signo de conjunto a su derecha. En general usaremos letras mayúsculas cursivas para varia­
bles de conjuntos; así, ‘x e A ’ se lee “(el objeto) x pertenece a, es miembro de, es elemento de, (el
conjunto) A”, y su negación ‘r í A’ se lee “x no pertenece a (no es miembro de, no es elemento
de) A”. Son pues ejemplos de afirmaciones conjuntistas verdaderas “3 e (1,2, 3, 5, 7}”, “3 e [x /
x es un número primo}”, “Schopenhauer e {x / x es filósofo alemán del siglo xix}”, “{Churchill,
Stalin, Roosevelt} e {x / x es un conjunto de tres elementos}”, “4 g {1,2, 3, 5,7}”, “4 g {x / x es
un número primo}”, “Stalin g {x/xes un conjunto de tres elementos}”, etc.
464 APÉNDICE

El principio básico que rige la identidad de los conjuntos es el principio de extensionali-


dad, a saber, los conjuntos son extensionales, su identidad depende sólo de su extensión, de cuáles
son los elementos que los constituyen:

Axioma de extensionalidad:

Si dos conjuntos tienen los mismos elementos son el mismo conjunto: VA, B (Vx(x e A
x e B ) —>A = B)

Así, por ejemplo, {1, 2, 3, 5, 7} y {x / x es un numero primo menor que 10} son el mismo
conjunto, pues todo objeto que está en uno está en otro y viceversa; ‘{1,2, 3, 5 ,7 } ’ y ‘ {x/x es un nú­
mero primo menor que 10}’ son nombres diferentes de la misma entidad. Es esencial notar que la
extensionalidad de los conjuntos es una propiedad de las entidades mismas y que, por tanto, no de­
pende de cómo se nombren. Que nombremos un conjunto por comprehensión, apelando a una pro­
piedad que satisfacen sus miembros, no afecta para nada la extensionalidad del conjunto. Las propie­
dades pueden ser intensionales (e.e. puede haber propiedades diferentes que se apliquen a las mis­
mas cosas), pero los conjuntos de cosas que las satisfacen no lo son. Así, {x / x es un número primo
mayor que 2 y menor que 8} y {x / x es un número impar mayor que 2 y menor que 8} son el mismo
conjunto, y { x /x e s un animal racional} y { x /x e s un bípedo implume} también son el mismo con­
junto; y eso independientemente de que las propiedades ser un número primo (entre 2 y 8) y ser un
número impar (entre 2 y 8), o ser un animal racional y ser un bípedo implume, sean diferentes.
Aunque intuitivamente un conjunto es una colección de cosas y no es claro que haya co­
lecciones vacías en sentido intuitivo, es esencial para la teoría poder disponer de un conjunto que
no tenga elementos. Este conjunto al que nada pertenece es el conjunto vacío, y se le denota me­
diante * 0 \

1 .2 . In c l u s ió n y c o n ju n t o p o t e n c ia

Los conjuntos pueden estar en diversas relaciones entre sí. Por ejemplo, dados A y B pue­
de ocurrir que todos los objetos que están en A estén también en B, o que no lo esté ninguno, o que
estén unos pero no otros. De los dos últimos casos nos ocuparemos más adelante. Cuando ocurre
lo primero se dice que el conjunto A está incluido en, o es un subconjunto de, B, y denotamos esta
relación mediante el signo ‘ c ’: A c f i syss^/Vx(x e A x e B). Así, por ejemplo, {1, 2} c {1,
2, 3, 5}, {1, 2, 3, 5} c {1,2,3,5}, {x f x es un número primo menor que 10} c {x / x es un número
primo}, pero no {1,2,8} c {1,2,3,5}, etc. Como se ve, todo conjunto está incluido en sí mismo.
Cuando los elementos de A están en B pero B tiene elementos que no están en A decimos que A
está incluido estrictamente en, o que es un subconjunto propio de, B, y denotamos esta relación
mediante ' c A <= B syss<ie/A ciB a A&B. A sí, {1,2} c {1,2, 3, 5}, pero no {1,2,3,5} cz {1, 2, 3,
5}. Por tanto, todo conjunto está incluido en sí mismo, pero ninguno lo está estrictamente; por otro
lado, es fácil ver que 0 está incluido en todo conjunto y además lo está estrictamente en todo con­
junto diferente de él.
A veces es útil poder hablar de todos los subconjuntos de un conjunto dado. Para ello acu­
ñamos la noción de conjunto potencia o conjunto de las partes de un conjunto. El conjunto poten­
cia, o conjunto de las partes, de un conjunto A, ‘Pot A’ es el conjunto consistente en todos los sub­
conjuntos de A: Pot A = def {5 / B c A}. Así, por ejemplo, si A = {1,2}, Pot A = { 0 ,
{1 }»{ 2 },{ 1,2 }}.
APÉNDICE 465

1 .3 . O p e r a c io n e s b á s ic a s

Dados dos conjuntos podemos formar otros reuniendo los elementos de los primeros de
modo específico. Los modos más comunes son la intersección, la unión y la diferencia, operacio­
nes a las que denotamos, respectivamente, mediante W , ‘u ’ y ‘ - \
La intersección A r \B de dos conjuntos A y B es un nuevo conjunto que tiene por elemen­
tos los elementos comunes a A y & B: A r \ B = & / {x f x e A a x g B).
La unión A u B de dos conjuntos A y B es un nuevo conjunto que tiene por elementos los
elementos de ambos: A u B = {x / x e A v x e B).
La diferencia A-B de dos conjuntos A y B es un nuevo conjunto que tiene por elementos
los elementos de A que no pertenecen a B: A-B = íie/ [ x I x & A a x é B}.
Así, p.ej. si A = {1, 3, 5, 7} y B = {3, 4, 5, 6}, A n B = {3, 5), A u B = {1, 3, 4, 5, 6, 7},
A-B = {1,7} y B-A = {4, 6); si A = [x / x es un mírnero primo} y B = {x / x es un número par}, A n
B = {x / x es un número primo par} - {2}, A u B = {x / x es un número primo o par}, A-B = {x / x
es un número primo impar} y B-A ~ {x / x es un número par no primo} = {x / x es un número par
diferente de 2}.
Nótese que tanto la intersección como la unión son conmutativas y asociativas, mientras
que la diferencia no es ninguna de las dos cosas. Cuando dos conjuntos son tales que no tienen
ningún elemento en común decimos que son disjuntos; por tanto, dos conjuntos son disjuntos si y
sólo si su intersección es el conjunto vacío.

2. Relaciones

2 .1 . Pares ordenados y p r o d u c t o c a r t e s ia n o

Los conjuntos en general se identifican sólo por los elementos que los integran, sin importar
el orden en que se consideran tales elementos. Así, el conjunto de las letras de este libro es el mismo
tal como están que cambiándolas de posición. En general, y si nos restringimos provisionalmente a
conjuntos sólo con dos elementos, el conjunto {x, y} es el mismo conjunto que el conjunto (y, x}.
O de otro modo, si {x, y} = [z, /}, no podemos asegurar que x = z e y = t\ puesto que en los conjuntos
usuales el orden de los elementos no altera el conjunto, lo único que se sigue de {x, y} = {z, t) es
“{x - z e y = t) o (x = t e y = z)”. Sin embargo, como veremos a continuación, a veces es necesario
referirse a conjuntos de elementos en los que sí se quiere que importe el orden. Para ello utilizamos
el signo ‘< ... >’. Para dos objetos, hablaremos del par ordenado <cc,y>; para tres objetos, del trío or­
denado <x,y,z>; y en general, para n objetos, de la n-tupla ordenada <X[, x2, ..., x„>.
La propiedad fundamental de los pares ordenados es que en ellos sí ocurre “<x,y> = <z,t>
syss x = z e y = r”. Esta propiedad se puede obtener definiendo los pares ordenados como conjun­
tos binarios (pares desordenados) de cierto tipo. Hay varias alternativas, todas con la misma conse­
cuencia; la más usual es; <x,y> - áef {{x },{x,y}} (el lector puede comprobar que, así definidos, los
pares tienen efectivamente la propiedad deseada). Los tríos ordenados se pueden entonces definir
así: <x, y, z> = (iCf « x , y>, z>. Y así sucesivamente con las restantes tupias. A partir de ahora nos
limitaremos en general para simplificar a ejemplos binarios, pero todo lo que se diga se puede ge­
neralizar a tupias cualesquiera.
Dados dos conjuntos A y B, a ciertos efectos es útil disponer del conjunto completo de
todos los pares ordenados posibles con primer miembro de A y segundo miembro de B, A este
conjunto se le denomina el producto cartesiano de A y B, y se le denota mediante ‘A x B \
466 APÉNDICE

Formalmente este conjunto es el resultado de realizar una operación entre ambos conjuntos: A x
B - def {ce, y> / x e A a y <z B}. Así, si A - {1,2,3} y B = {a,b}, A x B = {<l,a>,<l,b>,
<2,a>,<2,b>,<3,a>,<3,b>}; si V = {x / x es un varón] y M = [x / x es una mujer}, V x M = {<x,y>
/ x es un varón e y es una mujer}. El producto cartesiano de tres conjuntos A, B y C es el conjunto
de todos los tríos ordenados tales que el primer miembro es de A, el segundo miembro es de B y el
tercero es de C. Y análogamente con los productos cartesianos de cuatro o más conjuntos.

2 .2 . R e l a c io n e s ; d o m in io , r e c o r r id o y c a m p o

Una relación R es cualquier conjunto de pares ordenados, o en general de tupías ordena­


das: si es un conjunto de pares, la relación es binaria; si es un conjunto de tríos, la relación es ter­
naria; y en general, si es un conjunto de n-tuplas la relación es n-aria (por tanto, todo producto car­
tesiano de n conjuntos es una relación n-aria). Así, por ejemplo, P - {<1, a>, <1, b>, <3, ¿»} y
Q - {<x, y> / x es un varón, y es una mujer y x es padre de y} son relaciones; esta última relación
podemos nombrarla abreviadamente mediante *{<x, y> <= V x M I x es padre d e y } \
El dominio de una relación binaria /?, ‘Dom R \ es el conjunto de todos los primeros
miembros de los pares de R\ Dom R = de¡ {jc / 3y <x, y> e /?}. El recorrido (o contradominio) de
una relación binaria R, ‘Rec R \ es el conjunto de todos los segundos miembros de los pares de /?:
Rec R = (¡ef {* / 3y <y, x> e R }. El campo de una relación R es el conjunto de todos los (primeros y
segundos) miembros de los pares de R, esto es, la unión del dominio y el recorrido: Cam R = ltef
(Dom R) u (Rec R). Así, Dom P - {1, 3}, Rec P = {a, b} y Cam P = {1, 3, a, b); Dom Q = [ x f x
es un varón y x es padre de alguna mujer} (s*V), Rec Q = [x! x es una mujer y algún varón es padre
de x} ( - M), Cam Q = {jc/ jc es un varón padre de alguna mujer, o x es una mujer que tiene por pa­
dre algún varón}.

2 .3 . O p e r a c io n e s e n t r e r e l a c io n e s

Las relaciones son cierto tipo de conjuntos, conjuntos de pares, en general tupias, ordena­
dos. En tanto que conjuntos, a ellas se aplican las operaciones generales entre conjuntos (unión, in­
tersección, etc.). Pero además, en tanto que conjuntos de tupias, se pueden definir para ellas ciertas
operaciones especiales. Las más comunes, y útiles, son la restricción a determinado conjunto, la
imagen bajo un conjunto, la conversa (o inversa) y el producto relativo. Para simplificar, nos limi­
taremos a relaciones binarias, e.e. a conjuntos de pares ordenados.
La restricción de una relación R respecto de un conjunto cualquiera A, que se denota me­
diante ‘RIA’, es una nueva relación formada por los pares de R cuyo primer miembro es elemento
de A: RIA =*/ {oe, y> / <x, y> e R a x e A}. La imagen de una relación R bajo un conjunto A,
‘/¡[A]’, es el conjunto de los segundos miembros de los pares de R cuyo primer miembro pertenece
a A, esto es, el recorrido de RIA: R[A] =*/ (y / 3x (<x y> e R a x e A)}= Rec R\A. Así, p.ej., si
R = {<1, a>, < 2 , ¿?>, < 2 , c>, <3, o } y A = {1, 3, 5, 7}, RIA = {<1, a>, <3, c>} y R[A] = [a, c);
si S - {<x, y> / jc es un libro escrito por y} y B = U / ; t e s una novela policiaca}, Slf? = {<x,y> f x
es una novela policiaca escrita por y} y 5[fi] = {jc/ x ha escrito alguna novela policiaca}.
La relación conversa, o inversa, de una relación /?, que denotamos mediante lR~l\ es la re­
lación R “dada la vuelta”, e.e. la relación cuyos pares son los pares de R “invertidos”, intercam­
biando sus miembros: R~1 =*/{<*, y> / <y, jo e R}. Así, para los dos ejemplos anteriores, R~l =
APÉNDICE 467

{<a, 1>, <b, 2>, <c, 2>, <c, 3>} y S-1 = {<x, y> / x ha escrito el libro y}; y si T= {<pc, y>/x es pro­
genitor dey}, T~l = {< x,y> /xes hijodey}.
El producto relativo de dos relaciones R y S, 7?/S\ es la relación “puente” entre R y S. Es
una nueva relación formada por los pares <x, y> tales que x es el primer miembro de un par de R
cuyo segundo miembro es el primer miembro de un par de S que tiene y como segundo miembro; o
más coloquialmente, x tiene a su derecha en R algo que está a la izquierda de y en S. Por tanto,
R/S -¿ej {<x, y> / 3z(<x, z> e R a < z , y> & S)}. Por ejemplo, si R - {<1, a>, <2, b>, <3, o , <3,
e>} y S - {<a, a>, <a, d>, <c, b>, <d, a>, <d> d>, <d, e>}, R/S = {<1, a>, <1, d>, <3, b>}, y S/R =
0 ; si T = {<x, y> / x es primo de y} y U = [<x, y> / x es hijo de y}, entonces T/U = {<x, y> / jces
sobrino de y} y U/T = {<r, y> / * es hijo de un primo de y}.

2 .4 . P r o p ie d a d e s d e l a s r e l a c io n e s

Las relaciones, en tanto que conjuntos de pares, pueden tener propiedades, pueden ser de
cierto tipo en función de qué les ocurra a sus pares conjuntamente considerados. Por ejemplo, una
relación puede ser tal que, siempre que tenga un par, tenga también su par opuesto (p.ej. “ser her­
mano de”), o que no tenga nunca dos pares opuestos (p.ej. “ser progenitor de”), o que todo ele­
mento del campo esté relacionado consigo mismo (p.ej. “ser tan o más alto que”). Las propiedades
más destacadas son las siguientes:

Reflexividad. Todo objeto del campo está relacionado consigo mismo:


R es reflexiva <r^dej \/x(x e Cam R —> <x, x> e R).
Irreflexividad. Ningún objeto está relacionado consigo mismo:
R es irreflexiva e Cam R -» <x, x> g R).
Simetría. Para todo par, el par converso está también en la relación:
R es simétrica <->*/Vx, y(<x,y> e R —» <y, x> e R).
Asimetría . Ningún par está invertido en la relación:
R es asimétrica <r>ílefVx, y(<x, y> e R -> <y, x> sí R).
Antisimetría. Los únicos pares conversos, caso de haber alguno, son los “idénticos” (e.e.
con ambos miembros idénticos); no hay dos pares diferentes invertidos:
R es antisimétrica <-J>cjefVx, y(<x, y> e R a <y, x> e R x = y).
Transitividad. La relación se “hereda”; siempre que un objeto esté relacionado con otro y
éste lo esté con un tercero, el primero también está relacionado con el tercero:
R es transitiva <->rfe/Vx, y, z(<x, y> e R a <y, z> e R <x, z> e R)-
Intransitividad. No hay ninguna secuencia de pares transitivos:
R es intransitiva y, z(<x, y> e R a <y, z> e R <x, z> £ R).
Conexión (débil). Cualesquiera dos objetos del campo diferentes están relacionados, en un
sentido u otro (o en los dos):
R es conexa «-^Vx, y(x e Cam R a y e Cam R a x^y -> <x, y> e R v <y, x> e R).
Conexión fuerte. Cualesquiera dos objetos del campo están relacionados en un sentido u
otro (o en los dos):
R es fuertemente conexa -o^/Vx, y(x e Cam R a y e Cam R —> <x, y> e R v <y, x>
e R).

Así, por ejemplo: R = {<1, 1>, <1, 2 > , < 2 , 2 > , < 2 , 3>, <1, 3>, <3, 3>} es reflexiva, antisimétrica,
transitiva, conexa y fuertemente conexa; S = {<1, 2>, <2, 1>, <2, 3>, <3, 2>} es irreflexiva, simé­
468 APÉNDICE

trica e intransitiva; T = {<1, 2>, <2, 3>, <1, 3>} es irreflexiva, asimétrica, antisimétrica, transitiva
y conexa; U - {<1, 2>, <2, 1>, <2, 2>, <2, 3>} no tiene ninguna de estas propiedades; 0 tiene to­
das las propiedades (pues hace falso el antecedente de todos los definientes); V - {<1, 2>} es irre­
flexiva, asimétrica, antisimétrica, transitiva, intransitiva (en este caso transidvidad e intransitividad
se cumplen ambas porque se cumplen vacuamente) y conexa; W= {<1, 1>) es reflexiva, simétrica,
transitiva, conexa y fuertemente conexa; Q = {<x, y> / x e y tienen los mismos progenitores} es re­
flexiva, simétrica y transitiva; P = {<x, y> i x es más alto que y}, es irreflexiva, asimétrica, antisi­
métrica y transitiva; O = {<x, y> / x ama a y} no tiene ninguna de estas propiedades.
Entre estas propiedades se dan las siguientes implicaciones: simetría más transitividad im­
plican reflexividad; asimetría implica tanto irreflexividad como antisimetría; y conexión (débil)
más reflexividad equivalen a conexión fuerte.

2.5. R e l a c io n e s d e e q u iv a l e n c ia y p a r t ic io n e s

Una relación de equivalencia relaciona individuos que son “equivalentes bajo cierto aspec­
to”, como tener los mismo progenitores, haber nacido en el mismo país o ser del mismo sexo. Las re­
laciones de equivalencia se caracterizan por tener determinado grupo de propiedades: son reflexivas,
pues todo individuo es “equivalente” (en el correspondiente respecto) a sí mismo; son simétricas,
pues si un individuo equivale en cierto respecto a otro, éste también equivale en ese respecto a aquél;
y son transitivas, pues la equivalencia se “hereda”, los equivalentes a un tercero son equivalentes en­
tre sí. Así pues, estas propiedades son las que definen las relaciones de equivalencia:

R es una relación de equivalencia o * //? es reflexiva, simétrica y transitiva.

Son ejemplos de relaciones de equivalencia: R = {<1, 2>, <1, 3>, <3, 1>, <3, 2>, <1, 1>, <2, 2>,
<2, 1>, <2, 3>, <3, 3>, <4, 4 > } ,5 = {<1,1>},!T= {<x,y>/x tiene los mismos progenitores que y},
U - {<r, y> / x ha nacido en el mismo país que y}, V = {<x, y> / x es del mismo sexo que y} o
/ = {<jc, y> i x = y}.
Las relaciones de equivalencia tienen el efecto de dividir el campo de objetos en “clases
de equivalencia”, en grupos disjuntos de individuos equivalentes bajo el correspondiente respecto;
o como se dice técnicamente, generan particiones del campo. Para ver que ello es así necesitamos
antes los conceptos de cocíase de un individuo bajo una relación y de conjunto cociente del campo
bajo la relación.
La cocíase de un individuo x bajo la relación R, ‘[xV es simplemente el conjunto de indi­
viduos que x tiene a su derecha en /?: [x]« =í¡ej {y / <x, y> e R], Así, para los ejemplos anteriores:
[1 ]/f —{1, 2, 3}= [2]R = [3]* , [4]/¡ = {4}; [Picasso] ^ = {x i Picasso ha nacido en el mismo país que
x}, etc. Nótese que esta noción es general, no se exige que la relación sea de equivalencia sino que
está definida para cualquier relación. Por ejemplo, si W - {<1, 2>, <1, 3>, <3, 2>, <2, 4>, <2, 3>,
<3, 4>}, [l]w = {2, 3}, [2]w - {3, 4); si P = {<x, y> i x ama a y ], [Picasso]/* = [y / Picasso ama a
y}. Cuando la relación es de equivalencia, entonces a las coclases se las denomina clases de equi­
valencia.
El conjunto cociente de un conjunto A bajo una relación f?, ‘[A]//?’, es el conjunto de todas
las coclases de los individuos de A bajo la relación R: [A]!R =def {[x]* I x e A}. Lo interesante, por
lo general, es cuando el conjunto A es el campo de R. Así, en los ejemplos anteriores, [{ 1, 2 , 3,
4}]/W = { { 2 , 3}, {3, 4}, [ 2 , 4], 0} y [{ 1, 2, 3, 4 }]/¿? = { { 1 , 2 , 3}, {4}}. El conjunto cociente del
campo de una relación bajo dicha relación se puede considerar como una “división” del campo
APÉNDICE 469

generada por la relación. Así, toda relación “divide” su campo agrupando los individuos entre sí de
diverso modo. Pero, como se observará, para la mayoría de las relaciones, como en el caso de W,
esa “división” es muy imperfecta, hasta el punto de que apenas cabe hablar propiamente de divi­
sión genuina. Sólo con las relaciones de equivalencia tenemos la garantía de que la división gene­
rada es una “buena” división. Este concepto de “buena división” (de un conjunto) es el que expre­
sa la noción de partición (de un conjunto).
Una partición de un conjunto A es un conjunto de subconjuntos de A tales que: a) ningún
individuo está en dos subconjuntos diferentes, b) todo individuo está en algún subconjunto, y (c)
ningún subconjunto es vacío:

H es una partición de A VB(B g H - > B q A a B # 0 ) a Vfi, C(B z H a C<=H- >B


r \C ~ 0 ) a Vx(jc e A 3B(B e H a x e B)).

Así, {{1, 2, 3}, {4}} es una partición de {1, 2, 3,4}, mientras que {{2, 3}, {3,4}, {2,4}, 0 } no lo
es, pues incumple las tres condiciones (aunque bastaría con que incumpliera una sola de ellas).
Las particiones son por tanto las “buenas divisiones” de conjuntos y es inmediato que para
cada conjunto (de dos o más elementos) puede haber varias. Hemos visto una partición del conjun­
to {1, 2, 3, 4}, = {{1, 2, 3}, {4}}, pero hay otras como H2 = {{1, 2}, {3}, {4}} o Hy = {{1, 4},
{2, 3}}. Cuando dos particiones diferentes son tales que los subconjuntos de una son subdivisiones
de los de la otra, decimos que la primera es más fina que la segunda; por ejemplo, H2 es más fina
que H] pero Hy no es ni más ni menos fina que ninguna de las anteriores.
Ahora podemos expresar el hecho mencionado acerca de las relaciones de equivalencia:
toda relación de equivalencia genera una partición, a saber, el conjunto cociente de su campo bajo
ella. Aunque puede haber quizá alguna relación que no sea de equivalencia cuyo conjunto cociente
sea también una partición (p.ej. {<1, 2>, <2, 3>, < 3 ,4>, <4, 1>}), lo distintivo de las relaciones de
equivalencia es que ellas siempre generan particiones; sólo de ellas sabemos en general que su
conjunto cociente es una partición. En realidad es prácticamente equivalente hablar de relaciones
de equivalencia o de particiones. Toda relación de equivalencia genera una partición, su conjunto
cociente. Pero es fácil ver que también toda partición genera una relación de equivalencia. Llame­
mos relación asociada a un conjunto H (de conjuntos), 'R h\ a la relación que consiste en unir los
productos cartesianos de cada elemento de H consigo mismo. Por ejemplo, para H - {{1,2}, {2,
4}}, R h - {<1, 1>, <1, 2>, <2, 1>, <2, 2>, <2, 4>, <4, 2>, <4, 4>}. Por lo general, como en este
caso, si H no es una partición entonces la relación asociada no es de equivalencia; sólo si es una
partición, la relación así generada es una relación de equivalencia (compruébelo el lector con H2 y
Hy). Por tanto, las relaciones de equivalencia generan particiones, sus conjuntos cocientes, y las
particiones generan relaciones de equivalencia, sus relaciones asociadas.

2 .6 . R e l a c io n e s de orden

Las relaciones de orden “ordenan” los individuos del campo según determinado criterio
comparativo, como la edad o la altura de las personas, el peso o la longitud de los objetos, etc. Hay
muchos tipos de relaciones de orden, más o menos fuertes según los casos, pero en todas se han
de dar ciertos hechos mínimos que son los que garantizan que se pueda hablar propiamente de or­
den, por muy débil que éste sea. Estos hechos mínimos asociados a toda idea de orden son básica­
mente dos: a) que no haya “círculos” o “bucles”, y b) que se “herede” o “transmita”. La segunda
condición se plasma siempre del mismo modo, a saber, la relación ha de ser al menos transitiva. La
470 APÉNDICE

primera condición parece exigir que la relación sea al menos antisimétrica y en general así es, pero
como veremos hay un tipo de orden que puede no ser antisimétrico y que a pesar de ello cabe con­
siderarlo como un orden (aunque débil).
En los órdenes antisimétricos tenemos dos tipos de condiciones adicionales. En primer
lugar, según sea la relación reflexiva o irreflexiva; esto es, se permite que haya individuos relacio­
nados consigo mismos, pero se exige que eso ocurra siempre o no ocurra nunca. Los órdenes irre­
flexivos se denominan estrictos, y los órdenes reflexivos, no estrictos. En segundo lugar, depen­
diendo de si la relación es conexa. A los órdenes conexos se les denomina lineales o fuertes , y a
los que quizá no lo son, parciales. La combinación de estas posibilidades genera los siguientes
cuatro tipos de orden.

R es un orden parcial no estricto es reflexiva, antisimétrica y transitiva.


Ejemplos: {<1, 1>, <1, 2>, <2, 2>, <2, 5>, <1,5>, <3, 5>, <3, 3>, <4,5>, <4,4>, <5,
5>}, {<1, 1>, <1, 2>, <2,5>, <1, 5>, <2, 2>, <5,5>), {<x,y>/;c>y}.
R es un orden lineal no estricto es reflexiva, antisimétrica, transitiva y conexa.
Ejemplos: {<1, 1>, <1, 2>, <2, 5>, <1, 5>, <2, 2>, <5, 5>}, {< x,y> ! x > y ) .
R es un orden parcial estricto <r+defR es irreflexiva, antisimétrica y transitiva.
Ejemplos: {<1, 2>, <2, 5>, <1, 5>, <3,5>, <4,5>, <4, 5>}, {<1, 2>, <2, 5>, <1, 5>},
{<x,y> i (el objeto físico) x es más pesado que (el objeto físico) y}, {<x,y> íx> y}.
R es un orden lineal estricto <r^defR es irreflexiva, antisimétrica, transitiva y conexa.
Ejemplos: {<1, 2>, <2, 5>, <1, 5>}, (<x,y> f x>y).

En esta lista falta un tipo de orden que es muy débil pero que cabe todavía considerarlo or­
den y que, como hemos anunciado, no es antisimétrico. Un ejemplo de ello es la “versión no es­
tricta y conexa” de “ser más pesado que”, a saber, “ser tan o más pesado que”. Intuitivamente, si
“ser más pesado que” se puede considerar una relación de orden, entonces parece que “ser tan o
más pesado que” también lo será, y sin embargo en este caso la relación no es antisimétrica, pues
hay pares de individuos diferentes tales que el primero es tan o más pesado que el segundo y éste
es tan o más pesado que aquél, a saber, cuando objetos diferentes son igual de pesados. A estos ór­
denes se les denomina débiles :

R es un orden débil <r^defR es reflexiva, transitiva y conexa.


Ejemplos: (además de los del orden lineal no estricto:) {<1, 2>, <1, 1>, <2, 1>, <2,
2>, <2, 4>, <1, 4>, <1, 3>, <2, 3>, <3, 3>, <3, 4>, <4, 4>}, {<x, y> i (el objeto físi­
co) x es tan o más pesado que (el objeto físico) y}.

3. Funciones

3.1. F u n c io n e s ; im a g e n

En las relaciones, un mismo objeto puede “tener a su derecha” varios objetos diferentes;
por eso no podemos por lo general, para cada individuo, hablar de “el que está a su derecha”. En la
relación “ser más alto que” no tiene sentido hablar de “el más alto que Napoleón”, pues hay varios.
Para ello sería necesario que la relación fuese de un tipo especial, a saber, tal que cada individuo
del dominio sólo estuviera relacionado con un único individuo del recorrido; en términos coloquia­
les, que no haya dos pares ordenados diferentes con idéntico primer miembro. A estas relaciones
APÉNDICE 471

especiales que tienen esta propiedad se las denomina funciones (y para ellas se suelen usar como
variables las letras cursivas \ f , ‘g \ ih \ ...).

/e s una función -e>^//es una relación a Vx, y, z (<c, z> e / a <y, z> e /- > x = y).

Así, por ejemplo,/ = {<1, 2>, <2, 3>, <3, 3>, <4, 1>}, g = {<x, y> i x tiene por madre ay} y h =
{<x, y> / y } son funciones; mientras que {<1, 2>, <2, 3>, <3, 3>, <,4, 2>, <4, 1>}, {<*, y> / *
es hermano de y } y {<x, y> / * = y2} (siendo x & y números reales cualesquiera) no lo son.
En tanto que relaciones, a las funciones se les aplica las mismas nociones de dominio, re­
corrido, etc., que a aquéllas. Por el tipo especial de relaciones que son, se puede definir para las
funciones la noción de “el que está relacionado con” a que hemos hecho referencia. Ésta es la no­
ción de imagen de un objeto bajo una función. La imagen del objeto x bajo la función/(en cuyo
dominio está a), / / ) ’, es el objeto y que está a la derecha de jcen/: siendo/una función,//) el
objeto y tal que <x, y> e /. Así, en los ejemplos anteriores,7(2) = 3, g(Edipo) = Yocasta, h(-3) - 9.

3.2. B iy e c c io n e s

Una función se caracteriza porque cada objeto del domino sólo está relacionado con uno
del recorrido, pero lo inverso puede no ser cierto, como en el caso de la anterior función /, en la
que el 3 es imagen tanto de 2 como de 3. Por tanto, no siempre la relación inversa de una función
es a su vez una función. A las funciones en que ello sí pasa las denominamos biyectivas o biunívo-
cas , porque cada objeto del dominio está relacionado con un único objeto del recorrido y a la vez
cada objeto del recorrido está relacionado con un único objeto del dominio.

/e s una función biyectiva - o ^ /e s función a / -1 es función.

Así, por ejemplo, {<1, 2>, <2, 3>, <4, 1>}, {<x, y> / x es cónyuge de y) (en sociedades monóga­
mas) y {<x, y> / x + 8 = y} son funciones biyectivas, mientras que {<1, 2>, <2, 3>, <4, 2>} y {<x,
y > / x tiene por madre ay} no lo son.

3 .3 . Com p o s ic ió n d e f u n c io n e s

En tanto que conjuntos, a las funciones se aplican las operaciones generales entre con­
juntos, y en tanto que relaciones, a ellas se aplican las operaciones generales entre relaciones.
Por ser un tipo especial de relaciones, se pueden definir operaciones específicas para ellas. La
más importante es la composición, que se puede definir a partir del producto relativo de relacio­
nes. La idea es que la función compuesta de dos funciones / y g, lg ° f , es una nueva función tal
que la imagen de un individuo x se obtiene aplicándole primero/y aplicando después g al resul­
tado así obtenido; esto es, g°j\x) es la imagen bajo g de la imagen de x bajo/: g°f=<ief { < x ,y > /y
= I- Por ejemplo, s i/= {<1, 2>, <2, 2>, <3, 1>} y g = {<1, a>, <2, c>, <4, a> , <6, b>), g °f
(1) = g(/fl)) = g( 2) = c, y la composición completa es g°f= {<1, o , <2, c>, <3, n>}; si h - {<x,
y> / y = a: -t- 8} y j = {<x,y> / y - 3 x 2} (en ambos casos sobre todos los números reales), j°h (-6)
= j(h(-6)) - y(2) = 12, y la composición completa es j°h = {<x, y> I y = 3(x + 8)2}. El lector pue­
de comprobar que la composición entre funciones no es más que el producto relativo en el orden
opuesto: g ° f~ f/g .
472 APÉNDICE

4. Sistemas y morfismos

4 .1 . S is t e m a s

Un sistema o una estructura A es una secuencia o tupia ordenada consistente en un con­


junto de individuos, llamado el universo del sistema, y una serie de relaciones y/o funciones sobre
dicho dominio: A - <A, R t, ..., R„,f\, Una estructura expresa un modo en que puede com­
portarse una parte de la realidad, es un mundo o situación posible en el que ciertos individuos, los
miembros del universo, se comportan de cierto modo, guardan ciertas relaciones y están vincula­
dos por ciertas funciones. Así, por ejemplo, tenemos las siguientes estructuras, constituidas todas
ellas, además del universo, por una relación binaria y una función monaria (N es el conjunto de los
número naturales, P el de los naturales pares y Z el de los enteros):

A = <{ 1, 2 } , {<1, 1>, <1, 2>, < 2 , 2 > }, {<1, 2 > , < 2 , 1>}}
B = <{a, b }, {<£i, a>, <a, b >, <b, b>}, {<<2, b>, <b, £*>}}
C = <{+, *}, {<+, *>, <+, +>}, {<+, +>, <*, *>}}
N - <N, {<x, y>/ x< y), {<x, y> I y = x + 1 }>
P -< P , { < x,y> /x< y}, {<x,y>ly = x + 2}>
Z = <Z, {<x, y> / x < y}, {<x, y> i y - x + 1}>

4 .2 . M o r f is m o s

A veces dos sistemas pueden parecerse mucho, tanto que son como dos versiones diferen­
tes de los mismos hechos; p.ej. A y B se parecen tanto que en ambos “pasa lo mismo”, sólo que en
lugar de 1 y 2 tenemos a y b. Decimos entonces que los sistemas son isomorfos, o que existe un
isomorfismo entre ambos. Un isomorfismo es una función biunívoca que “traduce” un sistema al
otro. En nuestro caso, una función que traduce A a B es h\ = {<1, a>, < 2 , b>}: si en A cambiamos
1 por o y 2 por b> obtenemos B. N y P también guardan esta relación (antes de ver la noción técni­
ca, procure el lector hallar un isomorfismo que realice la traducción en ese caso).
Para que pueda existir un isomorfismo entre dos sistemas es necesario que los sistemas
sean del mismo tipo lógico, que sean homólogos: que tengan el mismo número de relaciones y
funciones; y que se correspondan la ariedad de las relaciones/funciones de un sistema con las del
otro. En nuestro caso, los seis sistemas son del mismo tipo. En general:

Dos sistemas A -< A , R u .... RnJ u y B = <B, S u .... g \ , .... g*t> son homólogos
syssdef
(1) n = n, y m - m \
( 2 ) R¡ tiene la misma ariedad que S, (1 < i < «), y
(3) fj tiene la misma ariedad que gj (1 < j < m).

Veamos ahora la noción de isomorfismo:

Sean A = <A, R ly..., Rn, f it y B = <B, S i , ..., S„, g \ ,..., g,„> dos sistema homólogos, h
es un isomorfismo de A en B syss*/
(1) h es una función biyectiva con Dom h= A y Rec h = B.
(2 ) Si k elementos a\, ..., ak de A están relacionados mediante R¡, sus correspondientes
APÉNDICE 473

imágenes bajo h en B están relacionados mediante S¡ (k es la ariedad de R¡, y S¡,)\


Para todo ai, ak de A : <a) t ak > e R¡ syss <h(at) , h(ak)> e S¡.
(3) Si fj asigna a k elementos a i , a * de A otro elemento a \ gj asigna a las imágenes de
a t, ..., ak bajo h la imagen de a' bajo h (k es la ariedad de f¡ y gj):
Para todo ..... ak, a' de A \f} (a¡, ..„ ak) = a' syss g} (h{a {),...» h{ak)) = h{a’).

Dos sistemas son isomorfos si son tales que existe un isomorfismo entre ambos. Nótese
que, aunque dos sistemas sean isomorfos, no toda biyección entre sus dominios necesariamente es
un isomorfismo; sólo se exige que al menos una lo sea. Es posible que haya más de una que lo sea,
pero es posible también que alguna biyección no lo sea. Por ejemplo, la biyección hi = {<1, b>,
<2, a>} no es un isomorfismo entre A y B (sí lo sería si la relación de A incluyera ademas el par
<2, 1> y la relación de B el par <b, a>, compruébelo el lector). A y C no son isomorfos porque
ninguna biyección de A en C es un isomorfismo (compruébelo el lector). N y P son isomorfos por­
que existe al menos una función que es un isomorfismo entre ambos, a saber, h3 = [<x,y> e N x P
i y —2x}. N y Z no son isomorfos, pues, aunque los naturales y los enteros son biyectables, ningu­
na de tales biyecciones preserva la relación “menor que” ni la función “sumar uno”.
Entre sistemas homólogos cabe una relación de semejanza más débil que la de isomor-
fía, la relación de homomorfía. De los homomorfismos no se exige que sean biyectivos. Un ho-
momorfismo de A en B es una función de A en B que cumple las condiciones (2) y (3) de la defi­
nición anterior. A y B son homomorfos si existe un homomorfismo de A en B. Por ejemplo, N es
homomorfo a Z bajo la función identidad (compruebe el lector que A no es ni siquiera homo-
morfo a C). En los homomorfismos puede haber elementos del universo del sistema de llegada
que sean imagen de más de un original o que no lo sean de ninguno; en los isomorfismos no pue­
de pasar ninguna de estas cosas, pues son biyecciones entre los universos completos. Los iso­
morfismos son pues un caso especial de homomorfismos, son homomorfismos biyectivos que
agotan los universos. Nótese que siempre que existe un isomorfismo h de A en B existe otro de
B en A, simplemente la función /rJ inversa de h\ pero no ocurre lo mismo con los homomorfis­
mos, p.ej. Z no es homomorfo a N.
REFERENCIAS BIBLIOGRAFICAS

Achinstein, P. (1968): Concepts o f Science. A Philosophical Analysis, J. Hopkins P., Baltimore.


— (1971): Law and Explanation. An Essay in the Philosophy o f Science, Clarendon P., Oxford.
— (1983): The Nature o f Explanation, Oxford U.P., Nueva York.
— (1984): “The Pragmatic Character of Explanation”, en Asquith y Kitcher (eds.) (1985), PSA
1984, Philosophy of Science Association, East Lansin, vol. 2.
Adams, E. (1959): “The Foundations of Rigid Body Mechanics and the Derivation of Its Laws
from Those of Particle Mechanics”, en Henkin, Suppes y Tarski (eds.) (1959), The Axiomatic
Method , North Holland, Amsterdam, 250-265.
Agassi, J. (1981): Science and Society, Reidel, Dordrecht.
Alexander, H. G. (1958): “The Paradoxes of Confirmation”, British Journal fo r the Philosophy o f
Science 9, 277-233.
Aristóteles, Física ; tr. esp. de F. Samaranch, Aguilar, Madrid, 1964.
—, Refutaciones Sofísticas1,tr. esp. de M. Candel, Gredos, Madrid, 1982.
Armstrong, D. (1978): Universals and Scientiftc Realism. Cambridge U.P., Cambridge. Vol. I: No-
minalism and Realism ; vol. II: A Theory o f Universals.
— (1983): What is a Law o f Nature?, Cambridge U.P., Cambridge.
Ayer, A. J. (1956): “What Is a Law of Nature?”, Revue International de Philosophie 10; reimpreso
en Concept o fa Person, Macmillan, Londres, 1963, cap. 8.
Bacon, F. (1620): Novum Organum; tr. esp. de C. Litrán, Fontanella, Barcelona, 1979.
Balzer, W. (1982): Empirische Theorien: Modelle, Strukturen, Beispiele, Vieweg, Wiesbaden.
— (1985): Theorie und Messung, Springer, Berlín.
Balzer, W. y Moulines, C. U. (eds.) (1996): Structuralist Theory o f Science, Walter de Gruyter,
Berlín.
Balzer, W.; Moulines, C. U. y Sneed, J. D. (1987): An Architectonic fo r Science. The Structuralist
Program, Reidel, Dordrecht.
— (eds.) (1998): Structuralist Representation o f Knowledge, Rodopi, Amsterdam.
Bar-Hillel, Y. (1968): “Inductive Logic as ‘the’ Guide of Life”, en Lakatos (ed.) (1968), 66-69.
Barnes, B. (1985): About Science, Blackwell, Oxford.
— (1972): Sociology o f Science, Penguin, Middlesex.
Bartelborth, T. (1996): “Scientific Explanation”, en Balzer y Moulines (eds.) (1996), 23-44.
Bayes, T. (1763): “An Essay Towards Solving a Problem in the Doctrine of Chances”, Philosophi­
cal Transactions o fth e Royal Society, vol. 53, 370-418.
476 REFERENCIAS BIBLIOGRAFICAS

Beauchamp, T. y Rosenberg, A. (1981): Hume and the Problem o f Causality, Oxford U.P., Oxford.
Belnap, N. y Steel, J. B. (1976): The Logic o f Questions and Answers, Yale U.P., New Haven.
Berka, K. (1983): Measurement. Its Concepts, Theories and Problems , Reidel, Dordrecht.
Bernoulli, J. (1713): A rs Conjectandi, Basi lea.
Beth, E. W. (1949): “Analyse Sémantique des Théories Physiques”, Synthese vol. 7, 206-207.
— (1960): “Semantics of Physical Theories”, Synthese vol. 12, 172-175.
Black, M. (1954): Problems ofA nalysis, Nueva York.
Bloor, D. (1976): Knowledge and Social Imagery, Routledge and Kegan Paul, Londres.
Boltzman, L. (1974): Theoretical Physics and Philosophical Problems: Selected Writings, Reidel,
Dordrecht.
Boyd, R. (1983): “On the Current Status of the Issue of Scientific Realism”, Erkenntnis 19,45-90.
Boyd, R.; Gasper, P. y Trout, J. (eds.) (1991): The Philosophy o f Science, MIT P., Londres.
Braithwaite, R. B. (1953): Scientific Explanation, Cambridge U.P., Cambridge.
Bridgman, P. W. (1927): The Logic ofM odern Physics, Macmillan, Nueva York, 1961.
— (1931): Dimensional Analysis, Yale U.P., New Haven.
— (1936): The Nature o f Physical Theory, Princeton U.P., Princeton.
— (1938): “Operational Analysis”, Philosophy o f Science 5, 114-131.
— (1951a): “The Operational Aspect of Meaning”, Synthese 8,251-259.
— (19516): “The Nature of Some of Our Physical Concepts”, British Journal fo r the Philosophy
o f Science 1, 257-272; 2, 25-44 y 142-160.
Brody, B. (1972): “Towards an Aristotelian Theory of Scientific Explanation”, Philosophy o f
Science 39,20-31.
— (1974): “More on Confirmation and Explanation”, Philosophical Studies 26, 73-75.
Bromberger, S. (1962): “An Approach to Explanation”, en Butler (ed.) (1962), Analytical Philo­
sophy. Second Series, Basil Blackwell, Oxford, 72-105.
— (1966): “Why-questions”, en Colodny (ed.) (1966), 86-111.
Brown, H. I. (1977): Perception, Theory and Commitment. The New Philosophy o f Science, Prece-
dent P., Chicago.
Brown, J. R. (ed.) (1984): Scientific Rationality: The Sociological Turn, Reidel, Dordrecht.
Bunge, M. (1973): La ciencia: su método y su filosofía, Siglo Veinte, Buenos Aires.
Campbell, N. (1920): Physics: The Elements, Cambridge U.P., Cambridge.
Carnap, R. (1928): Der logische Aufbau der Welt, Weltkreis, Berlín.
— (1934a): The Unity o f Science, Routledge and Kegan Paul, Londres.
— (19346): Logische Syntax der Sprache, Springer, Viena.
— (1936): “Testability and Meaning I”, Philosophy o f Science 3, 416-471.
— (1937): “Testability and Meaning II”, Philosophy o f Science 4, 1-40.
— (1947): “On the Application of Inductive Logic”, Philosophy and Phenomenological Research
8, 133-147.
— (1950): Logical Foundations o f Probability, U. Chicago P., Chicago.
— (1952): The Continuum o f Inductive Methods, U. Chicago P., Chicago.
— (1956): “The Methodological Character of Theoretical Terms”, en Feigl y Scriven (eds.)
(1956), Minnesota Studies in the Philosophy o f Science I, U. Minnesota P., Minneapolis.
— (1960): “The Aim of Inductive Logic”, en Nagel, Suppes y Tarski (eds.) (1962), Proceedings
o fth e 1960 International Congress fo r Logic, Methodology and Philosophy o f Science, vol. 1,
Stanford U.P., Stanford, 303-318.
— (1963): “Intellectual Autobiography”, en Schilpp (ed.) (1963), 1-84.
— (1966): Philosophical Foundations o f Physics, Basic Books, Nueva York.
REFERENCIAS BIBLIOGRÁFICAS 477

— (1968): “Inductive Logic and Inductive íntuition”, en Lakatos (ed.) (1968), 258-267.
Carnap, R. y Jeffrey, R. (eds.) (1971): Studies in Inductive Logic and Probabüity, U. California P.,
Berkeley.
Cartwright, N. (1983): How the Laws ofPhysics Lie, Clarendon P., Oxford.
— (1989): Natura's Capacities and Their Propensities, Oxford U.P., Oxford,
Chalmers, A. (1976): What is this Thing Called Science , Queensland U.P., Brisbane,
— (1990): Science and Its Fabrication, Open U.P., Bristol.
Churchland, P. M. (1981): “Eliminative Materialism and Propositional Attitudes”, The Journal o f
Philosophy 78, 67-90.
—- (1984): Matter and Conciousness , MIT P., Cambridge.
Churchland, P. M. y Hooker, C. (eds.) (1985): Images o f Science , U. Chicago P., Chicago.
Churchman, C. W. y Ratoosh, P. (eds.) (1959): Measurement: Definitions and Theories , Wiley,
Nueva York.
Cohén, L. }. (1989): An Introduction to the Philosophy o f Induction and Probabüity , Clarendon P,,
Oxford.
Cohén, L. J. y Hesse, M. (eds.) (1980): Applications o f Inductive Logic, Oxford U.P., Nueva York.
Colodny, R. (ed.) (1966): M ind and Cosmos, U.P. of America, Lanham.
Craig, W. (1953): “On Axiomatizability within a System”, The Journal o f Symbolic Logic 18,
30-32.
— (1956): “Replacement of Auxiliary Expressions”, Philosophical Review 65, 38-55.
Dalla Chiara, M. L. y Toraldo di Francia, G. (1973): “A Logical Analysis of Physícal Theories”,
Rivista di Nuevo Cimento 2:3, 1-20.
— (1976): “The Logical Dividing Line between Deterministic and Indeterministic Theories”, Stu-
dia Lógica 35, 1-5.
Davidson, D. (1970): “Mental Events”, en Davidson (1980), Essays onActions and Events, Oxford
U.P., Nueva York, 207-224.
Diederich, W. (1981): Strukturalistische Rekonstruktionen, Vieweg, Braunschweíg.
— (1989): “The Development of Structuralism”, Erkenntnis 30, 363-386.
Diez, J. A. (1989): “La ‘Revuelta Historicista’ en Filosofía de la Ciencia”, Arbor 526, 69-96.
— (1992): Metrización y Teoricidad. Una Reconstrucción Estructuraüsta de la Teoría de la Me-
trización Fundamental, Tesis Doctoral, U. Barcelona.
— (1993): “Comentario a Foundations o f Measurement, vols. II y III (D. Krantz, D. Luce,
P. Suppes, A. Tversky)”, Theoria 19, 163-168.
— (1994a): “Measurement Theory, procedimientos de medición fundamentales y semántica de
conceptos métricos”, Agora 13, 73-91.
— (19946): “Comentario a The Advancement o f Science (P. Kitcher)”, Theoria 20, 212-216.
— (1997a): “A Hundred Years of Numbers. An Historical Introduction to Measurement Theory.
Part I: The Formation Period”, Studies in History and Philosophy o f Science 28 1, 167-181.
— (19976): “A Hundred Years of Numbers. An Historical Introduction to Measurement Theory.
Part II: Suppes and the Mature Theory”, Studies in History and Philosophy o f Science 28 2,
237-265.
— (1997c): “The Theory-Net of Interval Measurement Theory”, en Ibarra y Mormann (eds.)
(1997), Representaüon o f Scientific Rationality. Formal Philosophy o f Science in Spain, Poz-
nan Studies vol. 61, Rodopi, Amsterdam.
— (1998): “Descripción, prescripción e interpretación. La polémica entre Popper y Kuhn sobre la
falsación y la ciencia normal”, en C. Solís (ed.), Homenaje a T. S. Kuhn (en curso de publica­
ción).
478 REFERENCIAS BIBLIOGRÁFICAS

Dilworth, C. (1994): Scientific Progress, Kluwer, Dordrecht.


— (1995): The Metaphysics o f Science, Kluwer, Dordrecht.
Dretske, F. (1977): “Laws of Nature”, Philosophy o f Science 44, 248-268.
Dupré, J. (1993): The Disorder ofThings, Harvard U.P., Cambridge.
Duhem, P. (1914): La théorie physique. Son object. Sa structure, Chevalier & Riviére, París.
Earman, J. (1992): Bayes or But? A Critical Examination o f Bayesian Confirmation Theory , MIT
P., Cambridge.
— (1983): Testing Scientific Theories, U. Minnesota P., Minneapolis.
Eberle, R.; Kaplan, D. y Montague, R. ( 1 9 6 1 “Hempel and Oppenheim on Explanation”, Philo­
sophy o f Science 28,418-428.
Echeverría, J. (1989): Introducción a la metoa úogía de la ciencia . La filosofía de la ciencia en el
siglo XX, Barcanova, Barcelona.
— (1995): Filosofía de la Ciencia, Akal, Madrid.
Ellis, B. (1966): Basic Concepts o f Measurement, Cambridge U.P., Londres.
Estany, A. (1990): Modelos de cambio científico, Crítica, Barcelona.
— (1993): Introducción a la Filosofía de la Ciencia, Crítica, Barcelona.
Falguera, J. A. (1992): “La noción de modelo en los análisis de la concepción estructurar, Agora
U Il, 97-105.
Falguera, J. L. (1993): “El enredo de los modelos en los análisis de las ciencias factuales”, Agora
12/11,171-178.
Feigl, H. (1958): The “M ental ” and the “Physical”, U. Minnesota P., Minneapolis.
— (1970): “The ‘Orthodox’ View of Theories: Remarks in Defense as Well as Critique”, en Feigl (ed.)
(1979), Minnesota Studies in the Philosophy o f Science IV, U. Minnesota P., Minneapolis, 3-16.
Fetzer, J. H. (1981): Scientific Knowledge. Causation, Explanation and Corroboration, Reidel,
Dordrecht.
Fetzer, J. H. y Almeder, R. (1993): Glossary o f Epistemology/Philosophy o f Science , Paragon,
Nueva York.
Feyerabend, P. K. (1963): “How to Be a Good Empiricist”, en Baumrin (ed.) (1963), Philosophy
o f Science. The Delaware Seminar, Interscience P., Nueva York, 3-39.
— (1964): “On the Meaning of Scientific Terms”, The Journal o f Philosophy 61; reimpreso en
Feyerabend (1981), Realism, Rationalism and Scientific Method, Cambridge U.P. Nueva York,
97-103.
— (1965): “Problems of Empiricism”, en Colodny (ed.) (1965), Beyond the Edge o f Certainty,
U.P. of America, Lanham, 145-160.
— (1970a): “Against Method”, en Radner y Winokur (eds.) (1970), Minnesota Studies in the Phi­
losophy o f Science IV, U. Minnesota P., Minneapolis, 17-30.
— (1970¿>): “Consolations for the Specialist”, en Lakatos y Musgrave (eds.) (1970), 385-389.
— (1975): Against Method, New Left Books, Londres.
— (1981): “An Attempt at a Realistic Interpretation of Experience”, en Feyerabend (1981), Rea­
lism, Rationalism and Scientific Method, Cambridge U.P., Nueva York, 17-36.
Finetti, B. de (1937): “La previsión: ses lois logiques, ses sources subjectives”, Ann. Inst. H. Poin-
c a r é l, 1-68.
— (1970): Theory o f Probability, Wiley, Londres, 1974; edición inglesa del original italiano.
— (1972): Probability, Induction and Statistics: The Art ofGuessing, Wiley, Londres.
Fisher, R. A. (1956): Statistical Methods and Scientific Inference , Oliver and Boyd, Londres.
Fleck, L. (1935): Entstehung und Entwicklung einer wissenchaftlichen Tatsache , Benno Schwabe,
Basilea.
REFERENCIAS BIBLIOGRÁFICAS 479

Frege, G. (1879): Begriffsschrift, G eorg O lm s, M ildesheim , 1961.


Fodor, J. (1968): Psychological Explanation , Random House, Nueva York.
— (1974): “Special Sciences (or: the Disunity of Science as a Working Hypothesis)”, Synthese
28, 97-116.
— (1975): The Language ofThougkt, Harper & Row, Nueva York.
— (1991): “Hedged Laws and Psychological Explanations”, Mind 100,19-33.
Forge, J. (ed.) (1987): Measurement, Realism and Objectivity , Reidel, Dordrecht.
Friedman, M. (1974): “Explanation and Scientific Understanding”, The Journal o f Philosophy 71,
5-19.
García Carpintero, M. (1995): “El funcionalismo”, en Broncano (ed.) (1995), La mente humana,
Trotta, Madrid, 43-76.
— (1996): Las palabras, las ideas y las cosas , Ariel, Barcelona.
Giere, R. (1979): Understanding Scientific Reasoning , Holt, Reinhart and Winston, Nueva York.
— (1988): Explaining Science, U. Chicago P., Chicago.
— (1991): Understanding Scientific Reasoning, Holt, Reinhart and Winston, Nueva York; nueva
edición, sustancialmente modificada, de Giere (1979).
— (ed.) (1992): Cognitive Models o f Science, U. Minnesota P., Minneapolis.
Glymour, C. (1980): Theory and Evidence, Princeton U.P., Princeton.
Goodman, N. (1955): Fact, Fiction and Forecast, Harvard U.P., Cambridge.
Greeno, J. G. (1970): “Evaluation of Statistical Hypotheses Using Information Transmitted”, Phi­
losophy o f Science 37, 279-293.
Grice, H. P. (1957): “Meaning”, Philosophical Review 66, 377-388.
Grünbaum, A. (1968): Geometry and Chronometry in Philosophical Perspective, U. Minnesota P.,
Minneapolis.
Hackett, D. (1970): Historian*s Fallacies, Harper and Row, Nueva York.
Hacking, I. (1965): Logic o f Statistical Inference, Cambridge U.P., Cambridge.
— (1975): The Emergence o f Probabiüty, Cambridge U.P., Cambridge.
— (1983): Representing and Intervening, Cambridge U.P., Cambridge.
Hansson, B. (1974): Explanations-OfWhat?, Stanford (mimeografía).
Hanson, N. R. (1958): Patterns o f Discovery, Cambridge U.P., Cambridge
— (1967): “Observation and Interpretation”, en Morgenbesser (ed.) (1967), Philosophy o f Science
Today , Basic Books, Nueva York, 89-99.
— (1971): Observation and Explanation: A Guide to Philosophy o f Science, Harper and Row,
Londres.
Harré, R. (1981): Great Scientific Experiments, Phaidon, Oxford.
Helmholtz, H. von. (1921): Schriften zur Erkenntnistheorie , Julius Springer, Berlín.
— (1930): Counting and measuring, Van Nostrand, Princeton.
Hempel, C. G. (1943): “A Purely Syntactical Definition of Confirmation”, The Journal o f Symbo-
lic Logic 8, 122-143.
— (1945): “Studies in the Logic of Confírmation”, Mind, 54, 1-26 y 97-121.
— (1949): “The Logical Analysis of Psychology”, en Block (ed.) (1980), Readings in Philosophy
o f Psychology, Harvard U.P., Cambridge, vol. 1.
— (1952): Fundamentáis ofC oncept Formation in Empirical Science, U. Chicago P., Chicago.
— (1958): ‘The Theoretician’s Dilemma: A Study in the Logic of Theory Construction”, en
Feigl, Scriven y Maxwell (eds.) (1958), Minnesota Studies in the Philosophy o f Science 11, U.
Minnesota P., Minneapolis, 37-97.
— (1959): “The Logic of Functional Analysis”, en Hempel, 1965, cap. XI.
480 REFERENCIAS BIBLIOGRÁFICAS

— (1962): “D eductive-N om ological versus Statistical E x p la n a ro n ” , en Feigl y M axw ell (eds.)


(1962), Minnesota Studies in the Phiíosophy o f Science. III, U. M in n eso ta P., M inneapolis,
98-170.
— (1965): Aspects o f Scientific Explanation and Other Essays in the Phiíosophy o f Science, Free
P., Nueva York.
— (1966a): Phiíosophy o f Natural Science, Prentice-Hall, N. Jersey.
— (1966¿>): “Recent Problems of Induction”, en Colodny (ed.) (1966), 112-134.
— (1967): “Scientific Explanation”, en Morgenbesser (ed.) (1967), Phiíosophy o f Science Today,
Basic Books, Nueva York, 79-88.
— (1970): “On the ‘Standard Conception’ of Scientific Theories”, en Radner y Winokur (eds.),
(1970), Minnesota Studies in the Phiíosophy o f Science IV, U. Minnesota P., Minneapolis,
142-163.
— (1973): “The Meaning of Theoretical Terms: A Critique of the Standard Empiricist Construal”,
en Suppes, Henkin, Joja y Moisel (eds.) (1973), Logic, Methodology and Phiíosophy o f
Science , 4, North Holland, Amsterdam, 367-378.
— (1974): “Formulation and Formalization of Theories”, en Suppe (ed.) (1974), 244-254.
— (1981): “Tums in the Evolution of the Problem of Induction”, Synthese 46, 389-404.
— (1988): “Provisoes: A Problem Conceming the Inferential Function of Scientific Theories”,
Erkenntnis 28, 147-164.
Hempel, C. G. y Oppenheim, P. (1948): “Studies in the Logic of Explanation”, Phiíosophy o f
Science 15, 567-579.
Hesse, M. (1966): Models and Analogies in Science, U. Notre Dame P., Notre Dame.
Hintikka, J. (1965): “On a Combined System of Inductive Logic”, Acta Philosophica Fennica,
XVIII, 21-30.
— (1966): “A Two-Dimensional Continuum of Inductive Methods”, en Hintikka y Suppes (eds.)
(1966), Aspects o f Inductive Logic , Reidel, Dordrecht, 113-132.
— (1968): “Induction by enumeration and induction by elimination”, en Lakatos (ed.) (1968),
191-216.
Hooker, C, (ed.) (1978): Physical Theories as Logico-Operational Structures, Reidel, Dordrecht.
Howson, C. y Urbach, P. (1989): Scientific Reasoning. The Bayesian Approach, Open Court, La
Salle.
Hume, D. (1748): An Enquiry Conceming Human Understanding-, tr. esp. de F. Duque, Ed. Nacio­
nal, Madrid, 1977.
Humphreys, P. (1981): “Aleatory Explanation”, Synthese 48,437-472.
— (1983): “Aleatory Explanation Expanded”, en Asquith y Nickles (eds.) (1983), PSA 1982, Phi-
losophy of Science Association, East Lansing, vol. 2,208-223.
— (1989): The Chances o f Explanation, Princeton U.P., Princeton.
Ibarra, A. y Mormann, T. (1992): “L’explication en tant que généralisation théorique”, Dialéctica
46, 151-168.
— (1997): “Theories as Representations”, en Ibarra y Mormann (eds.) (1997), Representation o f
Scientific Rationality. Formal Phiíosophy o f Science in Spain , Poznan Studies vol. 61, Rodopi,
Amsterdam.
Jeffrey, R. (1965): The Logic o f Decisión, McGraw-Hill, Nueva York.
— (1969): “Statistical Explanation vs, Statistical Inference”, en Rescher (ed.) (1969), Essays in
Honor o f C ari G. Hempel , Reidel, Dordrecht, 104-113.
— (1980): Studies in Inductive Logic and Probability, U. California P., Berkeley.
Jeffreys, H. (1957): Scientific Inference, Cambridge U.P., Cambridge.
REFERENCIAS BIBLIOGRÁFICAS 481

Johnson-Laird, P. N. (1983): Mental Models, Harvard U.P., Cambridge.


Kant, I. (1781-1787): Kritik der reinen Vernunft, tr. esp. de P. Ribas, Alfaguara, Madrid, 1978.
— (1802): Opus Postumunv, tr. esp. de F. Duque, Ed. Nacional, Madrid, 1983.
Kaplan, D. (1961): “Explanation Revisited”, Philosophy o f Science 28, 428-436.
Kemeny, J. (1955): “Fair Bets and Inductive Logic”, The Journal ofSym bolic Logic 20, 263-273.
— (1963): “Carnap’s Theory of Probability and Induction”, en Schilpp (ed.) (1963), 711-738.
Kemeny, J. y Oppenheim, P. (1956): “On Reduction”, Philosphical Studies 7, 6-19.
Keynes, J. M. (1921): A Treatise on Probability, Macmillan, Londres.
Kim, J. (1963): “On the Logical Conditions of Deductive Explanation”, Philosophy o f Science 30,
286-291.
— (1984): “Concepts of Supervenience”, Philosophy and Phenomenological Research 45, 153-176.
— (1987): “Explanatory Realism, Causal Realism and Explanatory Exlusion”, en French, Vehling
y Wettstein (eds.) (1988), Midwest Studies in Philosophy, 12, U. Minnesota P., Minneapolis,
225-239.
— (1993): Supervenience and Mind, Cambridge U.P., Nueva York.
— (1996): Philosophy o f Psychology, Westview P., Colorado.
Kitcher, P. (1976): “Explanation, Conjunction and Unification”, The Journal o f Philosophy 73,
207-212.
— (1981): “Explanatory Unification”, Philosophy o f Science 48, 507-531.
— (1987): “Van Fraassen on Explanation”, The Journal o f Philosophy 84, 315-330.
— (1989): “Explanatory Unification and the Causal Structure of the World”, en Kitcher y Sal­
món (eds.) (1989), 410-506.
— (1993): The Advancement o f Science. Science without Legend, Obiectivity without Illusions,
Oxford U.P., Oxford.
Kitcher, P. y Salmón, W. (1987): “Van Fraassen on Explanation”, The Journal o f Philosophy 84,
315-330.
— (eds.) (1989): Scientific Explanation , U. Minnesota P,, Minneapolis.
Kneale, W. (1949): Probability and Induction, Clarendon P., Oxford.
— (1950): “Natural Laws and Contrary-to-fact Conditionals”, Analysis 10.
Knowles, D. (ed.) (1990): Explanation and Its Limits, Cambridge U.P., Cambridge.
Knorr-Cetina, K. (1981): The Manufacture o f Knowledge , Pergamon, Oxford.
— et al. (eds.) (1980): The Social Process ofScientific Investigation , Reidel, Dordrecht.
— y Mulkay, M. (eds.) (1983): Science Observed: Perspectives on the Social Study o f Science,
Sage, Hollywood.
Kolmogorov, A. N. (1950): Foundations o fth e Theory o f Probability, Chelsea, Nueva York.
Krantz, D.; Luce, D.; Suppes, P. y Tverski, A. (1971): Foundations o f Measurement 1, Academic
P., Nueva York.
Kuhn, T. S. (1961): “The Function of Measurement in Modern Physics”, Isis 52, 161-190.
— (1962-1970): The Structure ofScientific Revolutions, U. Chicago P., Chicago (1.a ed. de 1962;
2.a ed., incluyendo el Postscriptum, de 1970).
— (1970a): “Logic of Discovery or Psychology of Research?”, en Lakatos y Musgrave (eds.)
(1970), 1-24.
— (19706): “Reflections on My Critics”, en Lakatos y Musgrave (eds.) (1970), 231-278.
— (1970c): Second Thoughts on Paradigms, U. Illinois P., Urbana.
— (1975): “Theory Change as Structure Change”, Erkenntnis 10, 179-200.
— (1977): The Essential Tensión , U. Chicago P., Chicago.
— (1981): What Are Sc'tentific Revolutions ?, MIT P., Cambridge.
482 REFERENCIAS BIBLIOGRÁFICAS

Kuipers, T. (1978): Studies in Inductive Probability and Raüonal Expectation, Reidel, Dordrecht.
Kuipers, T. y Mackor, A. (eds.) (1995): Cognitive Patterns in Science and Common Sense, Rodo-
pi, Amsterdam.
Kyburg, H. (1970): Probability and Inductive Logic , Macmillan, Londres.
— (1974): The Logical Foundaüons o f Statistical Inference , Reidel, Dordrecht.
— (1983): Epistemology and Inference , U. Minnesota P., Minneapolis.
Kyburg, H. y Nagel, E. (eds.) (1963): Induction: Some Current Issues , Wesleyan U.P., Middle-
town.
Kyburg, H. y Smokler, H. (eds.) (1964): Studies in Subjective Probability, Wiley, Nueva York.
Lakatos, I. (1968a): “Changes in the Problem of Inductive Logic”, en Lakatos (ed.) (1968), 315-417.
— (19686): “Criticism and the Methodology of Scientific Research Programmes”, Proceedings o f
the Aristoteüan Society, 69, 149-186.
— (1970): “Falsificaron and the Methodology of Scientific Research Programmes”, en Lakatos y
Musgrave (eds.) (1970), 91-196.
— (1971): “History of Science and its Rational Reconstructions”, en Buck y Cohén (eds.) (1971),
P5A 1970, PhÜosophy of Science Association, East Lansign, 91-135.
— (1974a): “Popper on Demarcation and Induction”, en Schilpp (ed.) (1974), 241-273.
— (19746): “The Role of Crucial Experiments in Science”, Studies in the History and Philosophy
o f Science 4, 309-325.
— (1977): The Methodology o f Scientific Research Programmes. Philosophical Papers, 1, Cam­
bridge U.P., Cambridge.
— (1968): The Problem o f Inductive Logic, North Holland, Amsterdam.
Lakatos, I. y Musgrave, A. (eds.) (1970): Criticism and the Growth o f Knowledge, Cambridge
U.P., Cambridge.
Laplace, P. S. de (1795): Es sai philosophique sur les probabilités, V. Courcier, París.
Latour, B. (1987): Science in Action, Harvard U.P., Cambridge.
Latour, B. y Woolgar, S. (1979): Laboratory Life: The Social Construction o f Scientific Facts,
Sage, Hollywood.
Laudan, L. (1977): Progress and Its Problems, U. California P., Berkeley
— (1981): Science and Hypothesis, Reidel, Dordrecht.
— (1984): Science and Valúes, U. California P., Berkeley.
— (1990): Science and Relativism, U. Chicago P., Chicago.
Leplin, J. (ed.) (1984): Scientific Realism , U. California P., Berkeley.
Lewis, D. (1969): Convention, Harvard U.P., Cambridge.
— (1970): “How to Define Theoretical Terms”, en Lewis (1983), Philosophical Papers I, Oxford
U.P., Oxford, 78-95.
— (1972): “Psychofisical and Theoretical Identifications”, Australasian Journal o f Philosophy
50, 249-258.
— (1973a): “Causation”, en Lewis (1986), Philosophical Papers II, Oxford U.P., Oxford, 159-213.
— (19736): Counterfactuáis, Harvard U.P., Cambridge.
— (1983): “New Work for a Theory of Universals”, Australasian Journal o f Philosophy 61, 343-377.
— (1986): “Causal Explanation”, en Lewis (1986), Philosophical Papers II, Oxford U.P.,
Oxford, 214-240.
Lipton, P. (1991): Inference to the Best Explanation , Routledge and Kegan Paul, Londres.
— (ed.) (1995): Theory, Evidence and Explanation, Darmounth, Aldershot.
Locke, J. (1690): An Essay Concerning Human Understanding\ tr. esp. de E. García, Ed. Nacional,
Madrid, 1980.
REFERENCIAS BIBLIOGRÁFICAS 483

Losee, J. (1972): An Histórical Introduction to the Philosophy o f Science , Clarendon, Oxford.


Luce, D. y Raiffa, H, (1957): Games and Decisions, Wiley, Nueva York.
Luce, D.; Krantz, D.; Suppes, P. y Tversky, A. (1990): Foundations o f Measurement 3, Academíc
P., Nueva York.
Mackie, J. L. (1966): “The Direction of Causation”, Philosophical Review 75,441-466.
— (1974): The Cement o f the Universa: A Study o f Causation, Oxford U.P., Oxford.
Masterman, M. (1970): “The Nature of Paradigm”, en Lakatos y Musgrave (eds.) (1970), 59-89.
Maxwell, G. (1961): “The Ontological Status of Theoretical Entities”, en Feigl y Maxwell (eds.)
(1962), Minnesota Studies in the Philosophy o f Science 111, U. Minnesota P., Minneapoíis, 3-27.
Mayr, R. (1991): Principies ofSystematic Zoology, McGraw-Hill, Nueva York.
McKinsey, J.; Sugar, A. y Suppes, P. (1953): “Axiomatic Foundations of Classical Particíe Me­
chanics”, Journal o f Rational Mechanics and Analysis 2, 253-272.
McKinsey, J. y Suppes, P. (1953): “Transformations of Systems of Classical Mechanics”, Journal
o f Rational Mechanic and Analysis 2, 273-289.
— (1955): “On the Notion of Invariance in Classical Mechanics”, British Journal fo r the Philo­
sophy o f Science 5, 290-302.
McLaughlin, B. P. (1984): “Type Dualism, Type Epiphenomenalism and the Causal Priority of the
Physical”, Philosophical Perspectives 3, 109-135.
Mellor, D. (1971): The matter o f chance, Cambridge U.P., Cambridge.
Merton, R. (1973): The Sociology o f Science, Free P., Nueva York.
Michelson, A. (1881): “The Relative Motion of the earth and the luminiferous ether”, American
Journal o f Science, 3rd. Ser. 22.
Mili, J. S. (1904): A System o f Logic; Raciocinative and Inductive, Longmans, Londres.
Mises, R. von (1957): Probability, Statistics and Truth, Macmillan, Nueva York; edición inglesa
del original alemán de 1928.
Mormann, T. (1996): “Categorial Structuralism”, en Balzer y Moulines (eds.) (1996), 265-286.
Mosterín, J. (1978): “La estructura de los conceptos científicos”, en Conceptos y Teorías en la
Ciencia, Alianza, Madrid, 11-40.
Moulines, C. U. (1973): La Estructura del Mundo Sensible . Sistemas Fenomenalistas, Ariel, Bar­
celona.
— (1975): “A Logical Reconstruction of Simple Equilibrium Thermodynamics”, Erkenntnis 9,
101-130.
— (1979): “Theory-Nets and the Evolution of Theories: The Example of Newtonian Mechanics”,
Synthese 41, 417-439.
— (1980): “Intertheoretic Approximation: The Kepler-Newton Case”, Synthese 45, 387-412.
— (1982): Exploraciones Metacientíficas , Alianza Editorial, Madrid.
— (1985a): ‘Theoretical Terms and Bridge Principies”, Erkenntnis 22, 97-117.
— (19856): “Tipología Axiomática de Teorías Científicas”, Crítica 17,41-67.
— (1991): Pluralidad y Recursión. Estudios Epistemológicos, Alianza, Madrid.
Moulines, C. U. y Diez, J. A. (1994): “Theories as Nets: Combinatorial Measurement Theory”, en
P. Humphreys (ed.) (1984), Patrick Suppes, Mathematical Philosopher, Kluwer Ac. P., Dor-
drecht, 275-297.
Mulkay, M. J. (1985): Science and the Sociology ofKnowledge, Alien and Unwin, Londres.
Mundy, B. (1986): “On the General Theory of Meaningful Representation”, Synthese 67, 391-437.
Musgrave, A. (1973): “Falsification and Its Critics”, en Suppes (ed.) (1973), Proceedings o f the
1971 Bucharest International Congress fo r Logic, Philosophy and Methodology o f Science,
Elsevier, Amsterdam.
484 REFERENCIAS BIBLIOGRÁFICAS

Nagel, E. (1961): The Structure o f Science, Harcourt, Nueva York.


Nagel, E.; Suppes, P. y Tarski, A. (eds.) (1962): Logic, Methodology and Philosophy o f Science:
Proceedings o fth e 1960 International Congress, Stanford U.P., Stanford.
— (1966): Logic, Methodology and Philosophy o f Science: Proceedings o fth e 1964 International
Congress, North Holland, Amsterdam.
Narens, L. (1985): Ahstract Measurement Theory , MIT P., Cambridge.
Newton, I. (1687): Philosophiae Naturalis Principia Mathematica\ tr. esp. de A. Escohotado, Ed.
Nacional, Madrid, 1982.
Neumann, J. von y Morgenstern, O. (1944): Theory ofG am es and Economic Behavior , Princeton
U.P., Princeton.
Neyman, J. y Pearson, E. (1967): Joint Statistical Papers, U. California P., Berkeley.
Nicod, J. (1930): Foundaüons ofG eom etry and Induction, Harcourt, Nueva York.
Niiniluoto, I. (1977): “On the Truthlikeness of Generalizations”, en Butts y Hintikka (eds.) (1977),
Basic Problems in Methodology and Linguistics, Reídel, Dordrecht.
— (1982): “What Shall we Do with Verisimilitude?”, Philosophy o f Science 49, 181-197.
— (1984): Is Science Progressive?, Reidel, Dordrecht.
— (1987): Truthlikeness, Reidel, Dordrecht.
Oppenheim, P. y Putnam, H. (1958); “Unity of Science as a Working Hypothesis”, en Feigl, Scri-
ven y Maxwell (eds.) (1958), Minnesota Studies in the Philosophy o f Science II, ü. Minnesota
P., Minneapolis, 3-36.
Palacios, J. (1956): Análisis Dimensional, Espasa Calpe, Madrid.
Peirce, C. S. (1931-1958): Collected Papers, Harvard U.P., Cambridge.
Pitt, J. (ed.) (1988): Theories o f Explanation, Oxford U.P., Oxford.
Poincaré, H. (1902): La Science et Vhypothése, Alean, París.
— (1908): Science et méthode, París.
Pollock, J. (1990): Nomic Probability and the Justification o f Induction, Oxford U.P., Nueva York.
Popper, K. R. (1935-1958): The Logic o f Scientific Discovery, Hutchinson, Londres (ed. inglesa
revisada de 1958 del original alemán de 1935).
— (1956): “The Propensity Interpretation of Probability”, British Journal fo r the Philosophy o f
Science 10, 25-42.
— (1956-1983): Realism and the Aim o f Science, Hutchinson, Londres.
— (1963): Conjectures and Refutations, Routledge and Kegan Paul, Londres.
— (1970): “Normal Science and Its Dangers”, en Lakatos y Musgrave (eds.) (1970), 51-58.
— (1972): Objective Knowledge, Clarendon P., Oxford.
— (1974a): “Unended Quest: An Intellectual Autobiography”, en Schilpp (ed.) (1974), 3-181.
— (19746): “Replies to My Critics”, en Schilpp (ed.) (1974), 961-1197.
Przelecki, M. (1969): The Logic ofEmpirical Theories, Routledge & Kegan Paul, Londres.
Putnam, H. (1962): “What Theories Are Not”, en Nagel, Suppes y Tarski (eds.) (1962), 240-251.
— (1963): “Brains and Behavior”, en Putnam (1975), Philosophical Papers vol. 2, Cambridge
U.P., Cambridge, 325-341.
— (1967): ‘The Nature of Mental States”, en Putnam (1975), Philosophical Papers vol. 2, Cam­
bridge U.P., Cambridge, 429-440.
— (1975): “The Meaning of ‘Meaning’”, en Putnam (1975), Philosophical Papers vol. 2, Cam­
bridge, U.P., Cambridge, 215-271.
— (1978): Meaning and the Moral Sciences, Routledge and Keagan Paul, Londres.
— (1980): “Models and Reality”, The Journal ofSym bolic Logic 45,464-482.
— (1981): Reason, Truth and History, Cambridge U.P., Cambridge.
REFERENCIAS BIBLIOGRÁFICAS 485

— (1983): Realism and Reason. Philosophical Papers, vol. 3 , Cambridge U.P., Cambridge.
— (1987): M anyFaces o f Realism, Open Court, La Salle.
— (1988): Representation and R eality , MIT P., Cambridge.
Quine, W. 0.(1951): “Two Dogmas of Empiricism”, en Quine (1953), cap. II.
— (1953): From a Logical Point ofV iew , Harper and Rowe, Nueva York.
— (1960): Word and Object, MIT P., Cambridge.
— (1975): “On Empirically Equivalen! Systems of the World”, Erkenntnis 9, 313-328.
— (1991): “Two Dogmas Retrospect”, Journal ofPhilosophy 21, 265-274.
Railton, P. (1978): “A Deductive-Nomological Model for Probabilistic Explanation”, Phllosophy
o f Science 45, 206-226.
— (1980): Explaining Explanation , Tesis doctoral, Princeton.
Ramsey, F. (1926): “Truth and Probability”, en Ramsey (1931), 52-94.
— (1928): “Reasonable Degree of Belief’, en Ramsey (1931), 97-102.
— (1929): “Theories”, en Ramsey (1931), 112-136.
— (1931): The Foundations o f Mathematics, Routledge and Kegan Paul, Londres.
Reichenbach, H. (1928): The Philosophy ofSpace and Time, Dover, Nueva York, 1958.
— (1935): The Theory o f Probability, U. California P., Berkeley, 1949.
— (1938): Experience and Prediction, U. Chicago P., Chicago.
— (1959): Modern Philosophy o f Science, Humanities P., Nueva York.
Rescher, N. (ed.) (1969): Essays in Honor o f Cari G. Hempel, Reidel, Dordrecht.
Resnik, M. (1987): Chotees, U. Minnesota P., Minneapolis.
Rivadulla, A. (1991): Probabilidad e Inferencia Científica, Anthropos, Barcelona.
Rubén, D. (1990): Explaining Explanation, Routledge and Kegan Paul, Nueva York.
— (1993): Explanation, Oxford U.P., Oxford.
Russell, B. (1948): Human Knowledge. Its Scope and Limits, Alien & Unwin, Londres.
Ryle, G. (1949): The Concept o f Mind, Bames & Noble, Nueva York.
— (1956), Dilemmas, Cambridge U.P., Cambridge.
Salmón, W. (1966): “The Foundations of Scientifíc Inference”, en Colodny (ed.) (1966), 135-275.
— (1967): The Foundations o f Scientifíc Inference , Pittsburgh U.P., Pittsburgh.
— (1970): “Statistical Explanation”, en Colodny (ed.) (1970), The Nature and Function ofScien-
tific Theories, U. Pittsburgh P., Pittsburgh, 173-231.
— (1971): Statistical Explanation and Statistical Relevance, U. Pittsburgh P., Pittsburgh.
— (1977): “Hempel’s Conception of Inductive Inference xn Inductive-Statistical Explanations”,
Philosophy o f Science 44, 180-185.
— (1978): “Why ask ‘Why”\ Proceedings andAddresses o f the American Philosophical Associa-
tion, 51, 683-705.
— (1980): “Probabilistic Causality”, Pacific Philosophical Quarterly 61,50-74.
— (1984): Scientifíc Explanation and the Causal Structure o f the World, Princeton U.P., Princeton.
— (1989): “Four Decades of Scientifíc Explanation”, en Kitcher y Salmón (eds.) (1989), 3-219;
publicado como libro en U. Minnesota P., Minneapolis, 1990.
Salmón, W. et al. (1992): Introduction to Philosophy o f Science, Prentice Hall, Englewood.
Savage, L. J. (1954): The Foundations o f Statistics, Wiley, Nueva York.
Savellos, E. y Yalfin, Ü. (eds.) (1995): Supervenience. New Essays, Cambridge U.P., Cambridge.
Schiffer, S. (1991): “Ceteris Paribus Laws”, M ind 100, 1-17.
Schilpp, P. A. (ed.) (1963): The Philosophy o fR u d o lf Carnap, Open Court, La Salle.
— (1974): The Philosophy ofK arl Popper, Open Court, La Salle.
Scriven, M. (1959): “Explanation and Prediction in Evolutionary Theory”, Science, 30, 477-482.
486 REFERENCIAS BIBLIOGRÁFICAS

— (1962): “Explanations, Predictions and Laws”, en Pítt (ed.) (1988), 51-74.


Sellars, W, (1963): Science, Perception and Reality , Routledge and Kegan Paul, Londres.
— (1967): Science and Metaphysics, Routledge and Kegan Paul, Londres.
Shapere, D. (1965): “The Problem of Theoretical Ternas’\ en Shapere (ed.) (1965), “Introduction”.
— (ed.) (1965): Philosophical Problems o f Natural Science, Macmillan, Londres.
Sintonen, M. (1989): “In Search of the Rationale”, en Kitcher y Salmón (eds.) (1989), 220-252.
Skyrms, B. (1966): Choice and Chance, Wadsworth, Belmont.
Smart, J. J. C. (1959): “Sensations and Brain Proceses”*Philosophical Review 68, 141-156.
— (1964): Between Science and Philosophy. An Introduction to the Philosophy o f Science, Ran-
dom House, Nueva York.
Sneed, J. D. (1971): The Logical Structure o f Mathematical Physics, Reidel, Dordrecht; segunda
edición revisada de 1979.
Sosa, E. y Tooley, M. (eds.) (1993): Causation, Oxford U.P., Oxford.
Stegmüller, W. (1970): Theorie und Erfahrung, Springer, Heidelberg.
— (1973): Theorienstrukturen und Theoriendynamik, Springer, Heidelberg.
— (1979): The Structuralist View ofTheories, Springer, Berlín.
Stevens, S. S. (1946): “On the Theory of Scales of Measurement”, Science 103, 667-680.
— (1951): “Mathematics, Measurement and Psychophysics”, en Stevens (ed.) (1951), Handbook
o f Experimental Psychology , Wilwy, Nueva York, 1-49.
— (1957): “On the Psychophysical Law”, Psychological Review 6 4 , 153-181.
— (1959): “Measurement, Psychophysics and Utility”, en Churchman y Ratoosh (eds.) (1959),
18-63.
Strawson, P. (1952): Introduction to Logical Theory, Methuen, Londres.
Suppe, F. (1967): The Meaning and Use ofM odels in Mathematics and the Exact Sciences, Tesis
doctoral, Michigan.
— (1972): “What is Wrong with the Received View on the Structure of Scientific Theories?”,
Philosophy o f Science 39, 1-19.
— (1974): “The Search for Philosophical Understanding of Scientific Theories”, en Suppe (ed.)
(1974), 1-241.
— (ed.) (1974): The Structure o f Scientific Theories, U. Illinois P., Urbana.
— (1989): The Semantic Conception ofTheories and Scientific Realism, U. Illinois P., Urbana.
Suppes, P. (1954): “Some Remarks on Problems and Methods in the Philosophy of Science”, Phi­
losophy o f Science 21, 242-248.
— (1957): Introduction to Logic, Van Nostrand, Nueva York.
— (1960): “A Comparison of the Meaning and Use of Models in Mathematics and the Empirical
Sciences”, Synthese 12, 287-301.
— (1962): ”Models of Data”, en Nagel, Suppes y Tarski (eds.) (1962), 252-261.
— (1967): “What is a Scientific Theory?”, en Morgenbesser (eds.) (1967), Philosophy o f Science
Today , Basic Books, Nueva York, 55-67.
— (1970a): A Probabilistic Theory o f Causality, North Holland, Amsterdam.
— (1970¿>): Set-Theoretical Structures in Science , Stanford University, Stanford.
— (1974a): ‘The Structure ofTheories and the Analysis of Data”, en Suppe (ed.) (1974), 266-283.
— (19746): “The Axiomatic Method in the Empirical Sciences”, en Henkin (ed.) (1974), Procee -
dings o f the Tarski Symposium, American Mathematical Society, Providence, 465-479.
— (1979): “The Role of Formal Methods in the Philosophy of Science”, en Asquith y Kyburg
(eds.) (1979), Current Research in Philosophy o f Science, Philosophy of Science Association,
East Lansing, 16-27.
REFERENCIAS BIBLIOGRÁFICAS 487

— (1984): Probabilistic Metaphysics, Blackwell, Oxford,


— (1989): “Representación Theory and the Analysis of Structure”, Philosophia Naturalis 25,
254-268.
— (1993): Models and Methods in the Philosophy o f Science: Selected Essays, Kluwer, Dor-
drecht.
Suppes, P. y Estes, W. (1959): “Foundations of Linear Models”, en Bush y Estes (eds.) (1959),
Studies in Mathematical Learning Theory , Stanford U.P., Stanford, 400-414.
Suppes, P.; Krantz, D.; Luce, D. y Tversky, A. (1989): Foundations o f Measurement 11, Academic
P., Nueva York.
Thagard, P. (1988): Computational Philosophy o f Science, MIT P., Cambridge.
Tooley, M. (1977): ‘The Nature of Laws”, Canadian Journal o f Philosophy 7, 667-698.
— (1989): Causation: A Realistic Approach, Clarendon P., Oxford.
Torretti, R. (1990): Creative Understanding, U. Chicago P., Chicago.
Toulmin, S. (1961): An Inquiry into the Aims o f Science^ Indiana U.P., Bloomington.
— (1970): Human Understanding /, Princeton U.P., Princeton.
Van Fraassen, B. (1970): “On the Extensión of Beth’s Semantics of Physical Theories”, Philo­
sophy o f Science 37, 325-339.
— (1972): “A Formal Approach to the Philosophy of Science”, en Colodny (ed.) (1972), Para-
digms and Paradoxes , U. Pittsburgh P., Pittsburgh, 303-366.
— (1977): “The Pragmatics of Explanation”, American Philosophical Quarterly 14, 1143-1150.
— (1980): The Scientific Image, Clarendon P., Oxford.
— (1985): “Salmón on Explanation”, The Journal o f Philosophy 82, 639-651.
— (1989): Laws and Symetry , Clarendon P., Oxford.
Venn, J. (1886): The Logic o f Chance, Londres.
Von Wright, G. H. (1951): A Treatise on Induction and Probability , Rotledge and Kegan Paul,
Londres.
— (1957): The Logical Problem o f Induction, Macmillan, Nueva York.
Watkins, J. (1968): “Non-Inductive Corroboration”, en Lakatos (ed.) (1968), 61-66.
Whewell, W. (1847): Philosophy o f the Inductíve Sciences, Parker, Londres.
— (1858): Novum Organum Renovatum , Parker, Londres.
— (1989): Theory o f Scientific Method, Hackett, Indianapolis.
Whitehead, A. N. y Russell, B. (1910): Principia Mathematica, Cambridge U.P., Cambridge.
Wittgenstein, L, (1921): Trac tatas Logico-Philosophicus, Routledge and Kegan Paul, Londres,
1961.
— (1958): Philosophische Bemerkungen, Blackwell, Oxford.
Wojcicky, R. (1977): ‘Towards a General Semantic of Empírica! Theories”, en Butts (ed.) (1977),
Historical and Philosophical Dimensions o f Logic, Methodology and Philosophy o f Science ,
Reidel, Dordrecht, 31-39.
— (1979): Topics in the Formal Methodology o f Empirical Science, Reidel, Dordrecht.
Wright, L. (1973): “Function”, Philosophical Review 22, 139-168.
— (1976): Teleological Explanations, U. California P., Berkeley.
INDICE ONOMASTICO

Achinstein, P., 247, 301, 305 Bridgman, P. W. 115, 202, 287, 290
Adams, E., 33, 67, 328, 334, 337, 338, 339, Brody, B., 251
340, 341,343,350, 351,357 Bromberger, S., 247
Apolonio, 63, 64, 81, 82, 444 Brown, H. I., 27
Aristóteles, 26, 27, 45, 63, 129, 222, 224
Armstrong, D., 128,151, 166, 171
Calipo, 63
Arquímedes, 27, 63, 73
Campbell, N„ 30, 224, 287, 290
Austin, J. L., 247
Cantor, G., 280
Ayer, A. J., 168
Carnap, R., 30, 160, 161, 287, 288, 290, 294,
295n, 296, 300, 301, 302, 394, 402, 404,
Bacon, F., 27, 395 407, 408, 409, 410, 411, 413, 414, 415, 416,
Baliani, 65 417,418,419,427,428, 431
Balzer, W., 214, 327, 350, 365, 379, 449, 452n, Cartwright, N., 156, 166, 177
461 Cassirer, E., 29
Bar-Hillel, Y., 410 Celsius, O., 117, 118
Barnes, B., 11 Churchland, P. M., 390
Bartelborth, T., 261 Cohén, L. J., 394
Bayes, T., 162,405,406 Comte, A., 29
Beauchamp, T., 144 Copérnico, N., 64, 81, 89, 312
Belnap, N., 247 Coulomb, Ch., 155
Berka, K., 180 Craig, W., 298
Berkeley, G., 28 Crick, F. H., 69, 348
Bernoulli, J., 162
Beth, E. W., 342 D’AIembert, J., 28
Birkhoff, G., 346 Dalla Chiara, M. L., 33, 327, 341
Black, M., 403 Darwin, Ch., 312
Bloor, D., 11 Davidson, D., 390
Bohr, N., 319, 321,323 Dedekind, R., 279
Borges, J. L., 102 Descartes, R., 28, 390
Boyie, R., 181,233, 234, 256 Diderot, D., 28
Brahe, T., 64, 65, 81, 85, 88, 89, 181, 183, Diez, J. A., 187, 192, 258,433
303 Dretske, F., 171
Braithwaite, R. B., 164, 287, 296, 403 Duhem, P., 29, 301,302, 368
490 ÍNDICE ONOMÁSTICO

Eberle, R., 230 Hegel, G. W., 29


Eccles, 390 Helmholtz, H. von, 29, 208
Echeverría, J.t 27, 395 Hempel, C. G., 30, 59, 62, 72, 74, 75, 88, 100,
Ehrenhaft, 83, 183 137, 167, 168, 180, 214, 222, 223, 224, 225,
Einstein, A., 71, 73, 77, 82, 164,183, 312 226, 227, 228, 229, 230, 231, 232, 233, 234,
Ellis, B., 195 235, 236, 237, 238, 240, 241, 242, 245, 246,
Estes, W., 341 247, 250, 251, 255, 256, 259, 261, 262, 263,
Euclides, 27 287, 290, 293, 300, 301, 305, 316, 331, 355,
Eudoxo, 63 383, 398, 399, 399n, 400,401, 408, 409,410
Heráclides de Ponto, 64
Fahrenheit, 117, 118 Herschel, J., 30
Falguera, J. L., 283 Hertz, H., 30
Feigl, H., 30, 256, 385 Hess, H., 70
Fetzer, L H., 165 Hesse, M., 292ra, 394
Hilbert, D., 30, 288
Feyerabend, P. K., 31, 32, 303, 309, 318, 431,
432,457 Hintikka, J., 160,410, 417
Hiparco, 63,444
Finetti, B. de, 162,404
Fisher, R. A., 404 Hooke, R., 156, 181
Fitzgerald, G. F., 69 Howson, C., 404
Fleck, L., 31, 311 Hume, D., 28, 167, 172, 255, 397, 403, 406,
Fodor, J., 133, 152, 384, 388, 389 407,415, 421
Foucault, J. B., 68, 88 Humphreys, P., 246, 251, 253, 255
Francia, T. di, 33, 327, 341 Huygens, Ch., 68
Franklin, R., 69
Frege, G., 30, 92, 281, 282, 287
Fresnel, A., 68 Jeffrey, R., 243, 246,404
Jeffreys, H., 160, 394
Friedman, M., 256, 258
Jevons, W„S., 30
Johnson-Lair, P. N., 11
Gal ileo, 65, 136, 139, 149, 154, 155, 181, 233,
255, 256, 303, 323
García-Carpintero, M., 384 Kant, I., 28, 29,91,403
Gibbs, J., 449 Kaplan, D,, 230
Kelvin, W. T., 117
Giere, R., 33, 62, 77, 327, 333, 341, 347, 348,
349,437 Kemeny, J., 375, 410
Glymour, C., 394 Kepler, J., 27, 89, 136, 137, 139, 140, 149, 154,
155, 181, 183, 233, 234, 256, 303, 374,450
Goodman, N„ 30, 142, 168, 399,400,401,437
Greeno, J. G., 243 Keynes, J. M., 160,404,419
Grice, H. P., 21 Kim, J., 230, 253ra, 388, 390
Kitcher, P., 169, 170, 223, 250, 256, 257, 258,
259, 260, 261
Hackett, D., 45 Kneale, W„ 394
Hacking, I., 165, 177 Knorr-Cetina, K., 11
Halley, E., 66, 71, 72, 74, 85 Kolmogorov, A. N., 160
Hamilton, W., 379 Krantz, D„ 196, 199, 202,215
Hanson, N. RM300, 302, 303, 309, 431 Kuhn, T. S., 20, 31, 32, 177, 181, 183, 184,
Hansson, B., 247 304, 305, 309, 310, 311, 312, 313, 314, 315,
ÍNDICE ONOMÁSTICO 491

316, 317, 318, 320, 321, 323, 324, 350, 351, Moulines, C. U., 192, 314, 327, 350, 358, 360,
357, 360, 361, 363, 431, 432, 433, 434, 435, 365, 379,440, 449,452«,461
436, 437, 441, 442, 443, 444, 446, 450, 451, Mulkay, M. I., 11
455,456,457, 458, 459,460 Musgrave, A., 419
Kuipers, T., 410,417
Kyburg, H., 162, 394,404
Nagel, E., 30, 32, 137, 263, 264, 287, 290,
292n, 300, 301, 375, 394
Lagrange, J. L„ 320, 378, 379 Neumann, J. von, 346,437
Lakatos, I., 20, 31, 32, 304, 305, 309, 310, 318, Neurath, O., 30, 302
319, 320, 321, 322, 324, 350, 351, 357, 360, Newton, I., 28, 68, 137, 140, 148, 155, 182,
363, 394, 416, 418, 430, 431, 432, 433, 434, 256, 312, 320, 323, 336, 340, 361, 374, 375,
435,436,441,442,443,455,456 378, 378, 379,435, 444,449
Laplace, P. S. de, 162, 183,435,449 Neyman, J., 404
Latour, B., 11 Nicod, I , 398, 399,400,408,409
Laudan, L., 309, 310, 320, 321, 322, 323, 324, Niiniluoto, I., 419,426
441,443
Lavoisier, A., 66, 82,420,450,457
Leibniz, G. W., 390 Ohm, G., 204,233, 301
Leverrier, V. J., 67 Oppenheim, P., 137, 222, 224, 227, 228, 230,
Lewis, D., 20, 21, 147,170, 251, 253, 255, 298, 234, 262, 375
384
Lorentz, H., 69
Losee, J., 27 Palacios, J., 202
Luce, D., 437 Pascal, B., 65, 66
Pauli, W., 255
Peano, G., 267,279, 287
Mach, E., 30 Pearsons, E., 404
Mackie, J. L., 144, 147,168 Peirce, C. S., 30, 164
Malebranche, N., 390 Périer, 66
Margenau, H., 290 Planck, M., 204,215
Marx, K., 321 Platón, 63,91,222
Masterman, M,, 313 Poincaré, H., 29
Maxwell, G., 68, 82, 89, 301, 321, 323 Polányi, M.,31
Mayr, R., 104,451 Pollock, J., 165,404,406
McKinsey, J., 334 Popper, K. R., 20, 30, 32, 62, 77, 92, 161,
McLaughlin, B. P., 390 165, 222, 224, 293, 302, 304, 318, 393,
Mellor, D., 165 395, 398, 402, 407, 407, 416, 416, 417,
Merton, R., 11 419, 420, 421, 422, 423, 424, 425, 426,
Michelson, A., 68, 69,71, 72, 74, 80, 81, 82, 88 427, 428, 429, 430, 431, 432, 433, 434,
Mili, J. S., 29, 222, 224, 256, 395 435, 436
Millikan, 83, 183 Prout, W., 319
Mises, R. von, 164, 165 Przelecki, M., 33, 327, 341
Mohs, F., 112, 188 Ptolomeo, 444
Montague, R., 230 Putnam, H., 169, 300, 301, 305, 383, 384
Morgenstern, O., 437
Morley, E., 68, 69, 88
Mosterín, J., 180 Quine, W. O., 129, 297, 302, 368, 371, 378
492 ÍNDICE ONOMÁSTICO

Raiffa, H., 437 Stegmüller, W„ 33, 180, 327, 350


Railton, P., 243, 255, 259 Stevens, S. S., 121, 122
Ramsey, F., 160, 161, 162, 287, 290, 296, 297, Stevin, S., 27
298 Strawson, P., 402
Rankine, W., 117 Sugar, A., 334
Réaumur, R., 117 Suppe, F., 33, 327, 333, 341, 346, 347
Regiomontano, 181 Suppes, P., 32, 165, 327, 328, 333, 334, 334,
Reichenbach, H., 30, 160, 164, 287, 395, 406, 335, 337, 338, 338n, 339, 340, 341, 342,
407,419 343, 346, 346, 350, 351,361
Resnik, M., 437
Rivadulla, A., 394,426
Thagard, P„ 11
Rosenberg, A., 144
Rubén, D., 222, 223 Tooley, M., 128,144, 147,171
Torricelli, EM65, 66
Russell, B., 30, 164, 282,406
Ryle, G., 305, 383 Toulmin, S., 303, 309,431

Urbach, P., 404


Salmón, W., 10, 62, 77, 223, 239, 240, 243,
244, 245, 246, 250, 251, 253, 255,405, 428
Savage, L. J„ 162,404 Van Fraassen, B., 33, 134, 166, 222, 247, 248,
Schelling, F. W., 29 249, 250, 327, 330, 333, 341, 342, 343, 344,
Schiffer, S., 152 345, 346, 347, 378
Schlick, M., 30 Venn, J., 164
Schrodinger, E., 314
Scriven, M., 239, 243
Sellars, W., 169, 170 Watkins, J., 419
Semmelweis, I. P., 67, 74 Watson, J., 69, 348
Shapere, D., 301 Wegener, A., 70
Sintonen, M., 223 Whewell, W., 30, 395
Skyrms, B., 403 Whitehead, A. N„ 30, 282
Smart, J. J. C., 385 Wittgensteín, L., 30, 383
Smokler, H., 162 Wójcicki, R., 33, 327, 341
Sneed, J. D., 33, 327, 340, 350, 365, 379, 449, Woolgar, S., 11
452n, 461 Wright, L., 223, 262, 264, 265
Sosa, E., 144, 147
Stahl, G. E„ 66
Steel, J. B., 247 Young, T., 68
INDICE TEMATICO EXPANDIDO

Prólogo

C a p í t u l o 1. Introducción. Naturaleza y función de la filosofía de la ciencia


1. La ciencia como objeto. Los estudios sobre la ciencia (Saber implícito y saber explíci­
to. Teorizar. Teorizaciones de primer orden y de segundo orden. Teorizaciones sobre la
ciencia: historia, sociología, psicología y filosofía de la ciencia. Filosofía de la ciencia y
análisis conceptual).
2. La ciencia como objeto de estudio filosófico. La filosofía de la ciencia (Saber ciencia
y saber sobre ciencia. Prácticas que siguen reglas. Reglas, convenciones y normas. La prác­
tica científica, descripción y prescripción. Interpretación de los constructos científicos. Des­
cripción, prescripción e interpretación en la Filosofía de la Ciencia).
3. Nuestro tema: Filosofía general de la ciencia empírica (Ciencias empíricas y ciencias
formales. Ciencias naturales y ciencias sociales. Filosofía general de la ciencia y filosofía
especial de las ciencias. Filosofía general de la ciencia empírica).
4. Panorama sucinto de la historia de la filosofía de la ciencia (La Antigüedad. La Revo­
lución Científica y la Modernidad. Fundamentación de las ciencias naturales y las ciencias
formales. El Círculo de Viena y el Grupo de Berlín. La Concepción Heredada. La Revuelta
Historicista. Las concepciones semánticas).

C a p ít u l o 2. Argumentos deductivos y argumentos inductivos


1. Argumentos, validez y verdad. L l. Razonamientos , argumentaciones , argumentos e in­
ferencias (Apoyo entre afirmaciones. Pretensión argumentativa. Inferencias, premisas y
conclusión). 1.2. Corrección , validez y verdad (Afirmaciones, verdad y falsedad. Argumen­
tos, corrección e incorrección. Corrección formal y corrección material). 1.3. Fuerza de los
argumentos: argumentos deductivos e inductivos (Inferencias y otros discursos persuasivos.
Pretensión deductiva y pretensión inductiva. Apoyo deductivo y apoyo inductivo).
2. Argumentos deductivos. 2.1. Validez deductiva (Lógica deductiva. Forma lógica y
constantes lógicas. Patrones argumentativos). 2.2. Falacias (Petición de principio. Falacias
formales. Ambigüedad e imprecisión. No atinencia. Premisas ocultas).
3. Argumentos inductivos. 3.1. Argumentos inductivos y form a de premisas y conclusión
(Conclusión universal o particular. Premisas particulares o universales. Premisas generales
494 ÍNDICE TEMÁTICO EXPANDIDO

o estadístico-probabilistas). 3.2. Validez inductiva (Lógica inductiva. Apoyo gradual.


Aspectos formales y materiales de la validez inductiva). 3.3. Falacias (Afirmación del con­
secuente. Insuficiencia de datos. Conyunción de conclusiones. Ambigüedad inductiva).

C a p ít u l o3. Contrastación de hipótesis


1. Algunos episodios históricos. 1.1. Mecánica aristotélica. 1.2. Esferas homocéntricas.
1.3. Rotación de la Tierra . 1.4. Paralaje estelar . 1.5. Fases de Venus. 1.6. El barómetro de
TorricelU. 1.7. El cometa Halley. 1.8. Flogisto. 1.9. Fiebre puerperal. 1.10. N eptunoy Vul-
cano. 1.11. Las teorías de la luz . 1.12. El éter y los experimentos de Michelson y Morley.
1.13. E lA D N . 1.14. La extinción de los dinosaurios. 1.15. Deriva continental. 1.16. Relati­
vidad general.

2. Elementos de la contrastación. 2.1. Hipótesis (H) y Supuestos Auxiliares (SA) (Hipóte­


sis y contrastación. Hipótesis subsidiarias y supuestos auxiliares. Intención contrastadora).
2.2. Predicción (P) y Condiciones Iniciales (Cl) (Predicción, implicación contrastadora.
Predicciones particulares. Condiciones antecedentes o iniciales). 2.3. Datos, experimenta­
ción y observación (Predicciones, hechos y datos. Datos y observación. Observación expe­
rimental y observación no experimental).
3. Condiciones para la contrastación. 3.1. Condición relativa a la ocurrencia de la pre­
dicción (Implicación-derivación de la predicción. Implicación material e implicación lógi­
ca. Ocurrencia esencial. Explicación). 3.2. Condición relativa a la no ocurrencia de la pre­
dicción (Improbabilidad de la predicción. Ni implicación deductiva ni implicación inducti­
va. Dependencia del contexto y relativización pragmática).
4. Resultado de la contrastación. 4.1. Evidencia negativa (refutación). Estrategias ad hoc
(Predicción falsa. Modus tollens . Aceptación de SA y CI. Rechazo de la hipótesis. Justifica­
ción deductiva. Estrategias ad hoc, rechazo de SA o GL Dependencia del contexto y relati­
vización pragmática). 4.2. Evidencia positiva (confirmación) (Predicción verdadera. Impro­
babilidad de la hipótesis, predicción verdadera y justificación inductiva). 4.3. Algorit­
mo-resumen. 4.4. Predicciones inadecuadas (Vaguedad e imprecisión. Predicción múltiple
disyuntiva. Predicciones sucesivas). 4.5. Contrastaciones cruciales (Experimentos crucia­
les. Contrastación simultánea de hipótesis contrarias).
5. Consideraciones finales.

C a p ít u l o4. Los conceptos científicos


1- ¿Qué os un concepto? (Conceptos como entidades abstractas. Conceptos y objetos; apli­
cación y subsunción. Conceptos vacíos. Conceptos y predicados lingüísticos; expresión.
Conceptos y conjuntos; representación. Extensión e intensión. Conceptos cualitativos y
conceptos cuantitativos).
2. Conceptos clasificatorios (Clasificaciones. Conceptos clasificatorios y particiones. Je­
rarquías de clasificaciones, árboles clasificatorios).
3. Conceptos comparativos (Comparaciones. Conceptos comparativos y relaciones de or­
den. Coincidencia y precedencia).
4. Conceptos métricos: estudio preliminar (Matematización y medición. Magnitudes.
Conceptos métricos y representaciones numéricas. Conceptos métricos y conceptos compa­
INDICE TEMÁTICO EXPANDIDO 495

rativos. Escalas (proporcionales, de intervalos, ordinales, ...) y transformaciones (similares,


lineales, monótonas,...).

C a p ít u l o5. Las leyes científicas


1. Tipos de generalizaciones y de leyes. 1.1. Leyes y regularidades. 1.2. Tipos de regulari­
dades (Regularidades y modalidad. Modalidad conceptual. Modalidad nómica. Modalidad
epistémica. Regularidades nómicas y regularidades fácticas-accidentales). 1.3. Tipos de le­
yes (Leyes de sucesión y leyes de coexistencia. Leyes probabilistas y leyes no probabílis-
tas. Leyes estrictas y leyes ceteris paribus o interferibles).
2. Leyes y regularidades accidentales. 2.1. Generalidad pura e irrestricción. 2.2. No va­
cuidad. 2.3. Confirmación. 2.4. Predicción. 2.5. Explicación. 2.6. Causalidad. 2.7. Apoyo a
contrafácticos. 2.8. Intensionalidad. 2.9. Proyectabilidad y clases naturales. 2.10. Objetivi­
dad y descubribilidad. 2.11. Sistematicidad.
3. Acaecimientos, causalidad y leyes causales. 3.1. Acaecimientos y relaciones causales
(Objetos y acaecimientos. Estados y procesos. Acaecimiento-causa y acaecimiento-efecto.
Factores causales. Causa total. Causalidad y dependencia contrafáctica), 3.2. Leyes causales
(Causalidad y propiedades generales. Propiedades causalmente relevantes. Leyes causales y
multiplicidad causal. Leyes no causales).
4. Cláusulas ceteris paribus y leyes no estrictas. 4.1. Análisis de las leyes no estrictas
(Incompletud, reducción epistémica. Nomicidad interferible primitiva. Interpretación
probabilista). 4.2. Leyes no estrictas y ciencias especiales (Macroprocesos y procesos bási­
cos. Ciencias especiales. Constitución, fisicalismo, reducción y superveniencia. Constitu­
ción, mecanismos e interferibilidad). 4.3. Leyes no estrictas y ciencia básica (Ciencia bási­
ca y cláusulas ceteris paribus. Cláusulas ceteris paribus e idealizaciones. Cláusulas ceteris
paribus y leyes locales. Cláusulas ceteris paribus y leyes parciales).
5. Probabilidad y leyes probabilistas. 5.1. Leyes probabilistas (Regularidades probabilis­
tas accidentales y nómicas. Leyes probabilistas interferibles y no interferibles. Probabilidad
condicionada). 5.2. Probabilidad lógica, probabilidad subjetiva y probabilidad objetiva
(Probabilidad lógica y lógica inductiva; probabilidad lógica y leyes probabilistas. Proba­
bilidad subjetiva y grado de creencia racional; principio de indiferencia; probabilidad subje­
tiva y evidencia epistémica; probabilidad subjetiva y leyes probabilistas. Probabilidad obje­
tiva, frecuencias y propensiones; límites de frecuencias; secuencias finitas y secuencias po­
tencialmente infinitas; propensiones y frecuencias observadas).
6. La naturaleza de las leyes (Condición de implicación de regularidades factuales y con­
dición de distinción respecto de regularidades factuales). 6.1. Regularitivismo humeano
(Proyección epistémica. Condiciones sintácticas, semánticas y pragmáticas. Leyes, integra­
ción teórica, simplicidad y fuerza). 6.2. Regularitivismo realista (Leyes y lenguaje. Predi­
cados, propiedades y clases naturales). 6.3. Necesitativismo (Universales. Necesitación; rea­
lismo).

C a p ít u l o 6 . La medición en la ciencia
1. Magnitudes. Medición y metrización. 1.1. Magnitudes, cualidad y cantidad (Propieda­
des y magnitudes. Cantidades, valores, escalas. Relaciones comparativas. Magnitudes ex­
tensivas, intensivas, crecientes, decrecientes e internas. Modo de combinación, magnitudes
496 ÍNDICE TEMÁTICO EXPANDIDO

aditivas). 1.2. Estructura de la medición: medición directa e indirecta; medir y metrizar


(Medición y metrización. Medición directa y medición indirecta. Procedimientos de medi­
ción. Metrización, metrizar).
2. Función de la medición (Recolección de datos y ciencia normal. Formulación de leyes.
Contrastación. Error admisible. Anomalías).
3. Metrización fundamental (*). 3.1. Metrización fundamental y magnitudes (Representa­
ción numérica, escalas, invarianza. Escalas ordinales. Condiciones de mensurabilidad). 3.2.
Teoría de la metrización. Estructuras, representación, unicidad, escalas (Metrización fun­
damental. Procedimiento de comparación. Sistemas comparativos; métricas. Representa­
ción numérica. Teorema de Representación. Teorema de Unicidad. Escalas (proporcionales,
de intervalos, de intervalos logarítmicos, de intervalos absolutos, de proporciones logarít­
micas) y transformaciones (similares, lineales, exponenciales, lineales simples, exponencia­
les simples)). 3.3. Tipos de métricas (Métricas combinatorias. Métricas de intervalos. Mé­
tricas conjugadas. Métricas algebraico-conjuntistas).
4. Metrización derivada (*). 4.1. Metrización derivada y teorías cuantitativas (Metriza­
ción derivada, fórmulas conectoras y leyes cuantitativas. Leyes y teorías cuantitativas). 4.2.
Metrización derivada y definiciones (Definiciones que no presuponen leyes. Dimensiones,
análisis dimensional. Escalas, escalas derivadas. Introducción de un concepto métrico deri­
vado sin eliminabilidad. Definiciones que presuponen leyes).
5. Procedimientos de medición directa (*). 5.1. Ejemplos de procedimientos de medición
directa (Masa; escala MKS, escala cegesimal. Temperatura; escala Celsius, escala Fahren-
heit). 5.2. Forma general de los procedimientos de medición directa (Sistema comparativo.
Objetos estándar. Valores convencionales. Función-representación. Teorema de Represen­
tación y Unicidad. Métodos de medición directa).
6. Procedimientos de medición indirecta (*) (Medición indirecta y modelos de teorías
cuantitativas. Magnitudes-ayuda. Objetos-ayuda. Determinación. Carga teórica de la medi­
ción. Valores proporcionales y valores irracionales. Fallos sistemáticos).
7. Consideraciones finales.

C a p ít u l o 7 . La explicación científica
1. Explicación y explicación científica (Sentidos de ‘explicar’. Preguntas “¿Por qué?”.
Explicación científica. Intensionalidad. Explanandum, explanans y relación explicativa).
2. Cobertura legal inferencial. 2.1. Forma general de la explicación mediante cobertura legal
inferencial (Explicación, esperabilidad e inferencia. Leyes, esperabilidad nómica. Condiciones
antecedentes). 2.2. Explicación nomológico-deductiva particular (Explicación y predicción. Pro­
blemas: generalizaciones inesenciales; precedencia temporal; simetría; efectos de causa común;
inrelevancia; explicaciones teleológicas y funcionales. Explicación y causalidad). 2.3. Explicación
nomológico-deductiva general (Problemas: autoexplicación). 2.4. Explicación deducti-
vo-estadística. 2.5. Explicación inductivo-estadística (Leyes probabilistas. Argumentos inducti­
vos. Problemas: irrelevancia estadística; baja probabilidad; ambigüedad inductiva. Requisito de
evidencia total. Requisito de máxima especificidad. Clases estadísticamente homogéneas).
3. Relevancia estadística (Clase de referencia. Partición homogénea. Homogeneidad epis-
témica; homogeneidad objetiva. Partición relevante. Probabilidad, relevancia explicativa y
ÍNDICE TEMÁTICO EXPANDIDO 497

alcance explicativo. Desplazamiento [‘screening ojf], Causas propiciativas y causas resis­


tivas).
4. Pragmática de la explicación (P-preguntas. Clase de contraste. Tema. Relevancia expli­
cativa).
5. Explicación y causalidad (Historia causal. Causa total, causa parcial e información cau­
sal. Relevancia causal. Causas propiciativas y causas resistivas. Problemas: sucesos par­
ticulares probabilistas; hechos generales; explicaciones no causales).
6. Unificación teórica (Independiente aceptabilidad. Cuerpo de creencias, ^-partición.
Inferencia unificadora. Patrón argumentativo. Esquema argumental. Clasificación. Sistema­
tización; base de sistematización. Almacén explicativo. Comparación de sistematizaciones.
Problemas: hechos particulares; simetrías e irrelevancias; explicaciones estadísticas; causa­
lidad).
7. Apéndice: Explicación teleológica y funcional (*) (Rasgo, disposición. Función. Entor­
no. Proceso. Sistema; organización del sistema. Explicaciones funcionales, explicaciones
ideológicas y causalidad).

C a p ít u l o8. Análisis sincrónico de teorías I. Concepción axiomática: las teorías como


cálculos interpretados
1. Teorías axiomáticas. 1.1. Cálculos y teorías axiomáticas: términos primitivos, axiomas
y teoremas; definiciones y términos derivados. 1.2. Ejemplo: teorías del parentesco. Reduc­
ción y equivalencia. 1.3. Aritmética, teoría de conjuntos y lógica proposicional.
2. Teorías y modelos (Estructura. Interpretación. Modelo, realización. Realización posible;
realización efectiva).
3. Caracterización general de las teorías empíricas como cálculos interpretados. 3.1.
Teorías form ales y teorías empíricas (Concepción Heredada. Términos teóricos. Definición
implícita. Convencionalismo. Formalismo. Observación; observación directa). 3.2. Cálcu­
los interpretados: vocabulario; axiomas y reglas de correspondencia (Términos teóricos.
Términos observacionales. Contenido-interpretación empírica. Reglas de correspondencia,
definiciones coordinativas, postulados de significación, enunciados interpretativos, defini­
ciones operacionales. Entidades teóricas. Vocabulario: formal, teórico, observacional.
Enunciados teóricos. Enunciados observacionales).
4. Las reglas de correspondencia y la cuestión de la eliminabilidad de los términos teó­
ricos. 4.1. Ineliminabilidad de los términos teóricos (Reglas de correspondencia y defini­
ciones explícitas. Enunciados reductivos; eliminativismo. Propiedades categóricas, propie­
dades disposicionales. Enunciados de reducción parcial. Analítico/sintético). 4.2. Elimina­
bilidad a lo Ramsey. 4.3. Eliminabilidad a lo Craig.
5. La distinción teórico/observacional y la naturaleza de la base empírica. 5.1. Entida­
des teóricas y distinción teórico/observacional (Entidades fenoménicas; qualia ; fenomenis-
mo. Entidades observables. Observación directa; observación indirecta). 5.2. Neutralidad
teórica de los términos observacionales y carga teórica de los hechos (Experien­
cia-observación neutra. Interpretación teórica. Holismo. Carga teórica de los hechos. Cono­
cimiento de fondo. Nuevos Filósofos de la Ciencia). 5.3. Observación y base empírica (Da­
tos; base empírica; base de contrastación. Teórico/no-teórico. Observacional/no-observacio-
498 INDICE TEMÁTICO EXPANDIDO

nal. Vocabulario preteórico; vocabulario teórico. Principios internos; principios puente.


Aplicación e interpretación empírica).
6. Consideraciones finales.

C a p ít u l o 9.Análisis sincrónico de teorías II. Concepciones historicistas: las teorías como


proyectos de investigación
1. La revuelta historicista y la naturaleza sincrónica de las teorías (Nueva Filosofía de
la Ciencia. Cambio y evolución de teorías. Análisis diacrónico y sincrónico de teorías).
2. Los paradigmas-matrices disciplinares de Kuhn. 2.1. Ciencia normal y ciencia revo­
lucionaria (Resolución de enigmas. Anomalías. Crisis científica. Ciencia no-normal, cien­
cia extraordinaria. Revolución científica). 2.2. Paradigmas qua matrices disciplinares (Pa­
radigmas. Generalizaciones simbólicas; leyes paradigmáticas; principios guía. Modelos;
modelos ontológicos y heurísticos. Valores; precisión, simplicidad, fecundidad, compatibi­
lidad. Ejemplares; aplicaciones empíricas. Ejemplares paradigmáticos. Significado empíri­
co. Inconmensurabilidad).
3. Los programas de investigación de Lakatos (Conocimiento de fondo. Teoría interpre­
tativa; teoría explicativa. Heurística positiva; heurística negativa. Núcleo del programa de
investigación; cinturón protector. Programas progresivos, estancados y regresivos).
4. Las tradiciones de investigación de Laudan (Compromisos metafísicos; normas episté-
micas. Articulación teórica. Resolución de problemas: problemas empíricos; problemas
conceptuales. Evolución de las tradiciones. Coexistencia de tradiciones).
5. Consideraciones finales.

C a p ít u l o 10. Análisis sincrónico de teorías III. Concepciones semánticas: las teorías como
entidades modeloteóricas
1. Teorías, enunciados y modelos. 1.1. Axiomas y modelos (Equivalencia e identidad de
teorías. Identificación sintáctica. Identificación semántica o modeloteórica). 1.2. El enfoque
modeloteórico (Definición de modelos. Aplicaciones empíricas. Afirmaciones empíricas.
Complejidad teórica).
2. La noción de teoría de Suppes (Escuela de Stanford. Axiomatización mediante predica­
do conjuntista. Axiomas impropios; axiomas propios. Realizaciones posibles; realizaciones
efectivas, modelos. Ejemplo: mecánica de partículas).
3. Adams y las aplicaciones intencionales (Interpretación pretendida. Medición funda­
mental. Modelos pretendidos. Afirmación empírica. Autojustifícación. Modelos de datos).
4. La familia semanticista. 4.1. Van Fraassen: espacios de estado; base empírica y obser -
vabilidad (Estados, espacios de estados; trayectorias y leyes de sucesión; regiones y leyes
de coexistencia. Subestructuras empíricas. Empiricidad y observabilidad. Adecuación em­
pírica. Empirismo constructivo. Equivalencia empírica; incompatibilidad teórica. Infrade-
terminación de la teoría por la experiencia. Antirrealismo). 4.2. Suppe: sistemas relacionar
les; fenómenos, datos y teorías (Sistemas relaciónales; espacios de estados; leyes. Alcance
pretendido; datos, observación. Verdad empírica; verdad teórica. Cuasi-realismo). 4.3. Gie-
re; modelos e hipótesis teóricas (Modelo teórico. Hipótesis teóricas. Similitud. Realismo
ÍNDICE TEMÁTICO EXPANDIDO 499

construc tivista). 4.4. Sneed y la concepción estructuralista (Teoricidad relativa. Aplicacio­


nes pretendidas. Datos. Ligaduras. Relaciones interteóricas).
5. La concepción estructuralista de las teorías. 5.1. El núcleo K (Modelos potenciales y
modelos actuales. Condiciones de ligadura; ligadura global, T-teoricidad y modelos parcia­
les; procedimiento de determinación). 5.2. Aplicaciones intencionales (Aplicaciones y mo­
delos parciales. Carga teórica de los datos. Determinación intencional y paradigmática del
dominio de aplicaciones). 5.3. Las teorías como elementos teóricos (Contenido y aserción
empírica. Contenido teórico y contenido empírico. Aserción empírica. Subsunción o encaje
teórico). 5.4. Especiaüzación. Las teorías como redes teóricas (Matrices disciplinares;
complejidad de las teorías. Especiaüzación teórica, redes teóricas, redes conectadas, redes
arbóreas; elemento teórico básico). 5.5. Vínculos interteóricos y holones (Leyes mixtas, le­
yes-puente y vínculos interteóricos. Vínculos y núcleo; vínculo global. Holones teóricos).
6. Consideraciones finales.

C a p ít u l o11. Relaciones interteóricas


1. Concepto general de relación interteórica (Relaciones interteóricas. Relaciones inter­
teóricas e identidad de teorías. Holismo; tesis Duhem-Quine).
2. Teorización (Términos T-no teóricos. Teorías subyacentes. Base empírica, contrastación
y teorización. Teorización total y teorización parcial. Fundacionismo y coherentismo. Su­
bestructuras. Determinación).
3. Reducción (Reduccionismo. Revoluciones científicas, inconmensurabilidad. Reducción
exacta; reducción aproximativa. Reducción y cambio teórico. Condiciones de conectabili-
dad y derivabilidad. Constitución).
4. Equivalencia (Equivalencia y reducción. Equivalencia fuerte o estricta. Equivalencia dé­
bil o empírica).
5. Apéndice: Ciencia especial y ciencia básica; reducción, múltiple realizabilidad y su­
perveniencia (*). 5.1. Distinciones previas: términos generales, conceptos expresados y
entidades denotadas; acaecimiento-ejemplar y acaecimiento-tipo. 5.2. Identidad concep­
tual. Reduccionismo semántico. 5.3. Identidad de tipos o propiedades. Reduccionismo
ontológico. 5.4. Múltiple realizabilidad. 5.5. Dualismo de propiedades con identidad de
ejemplares y superveniencia. 5.6. Dualismo de propiedades con identidad de ejemplares y
epifenomenismo. 5.7. Eliminativismo. 5.8. Dualismo de ejemplares.

C a p ít u l o 12. La evaluación de teorías y el problema de la inducción


1. Evaluación epistémica. El problema de la inducción. 1.1. Inferencias ampliativas y
justificación inductiva (Inducción. Contexto de descubrimiento y contexto de justificación.
Justificación, inducción e inferencias ampliativas. Inducción por enumeración. Inducción
estadístico-probabilista. Inducción por eliminación. Inferencia a la mejor explicación. Mé­
todo hipotético-deductivo. Principio de uniformidad de la naturaleza. Justificación parcial,
probabilidad). 1.2. Las paradojas de la confirmación y el nuevo enigma de la inducción
(Confirmación por instancias. Confirmación cualitativa; paradojas. El nuevo enigma de la
inducción; proyectabilidad, propiedades naturales; predicados atrincherados (*entrenched ’),
integración teórica. Principio de simplicidad de la naturaleza. Infradeterminadón de la teo­
ría por la experiencia).
500 ÍNDICE TEMÁTICO EXPANDIDO

2. Aproximaciones al problema de la inducción. 2. i. La inducción como pseudoproble-


ma. 2.2. Justificación inductiva de la inducción. 2.3. Principios sintéticos a priori. 2.4.
Inducción como deducción encubierta. 2.5. Justificación a priori de la inducción; lógica
inductiva. 2.6. Probabilidad, bayesianismo y teoría matemática de la inferencia estadística.
2.1. Postulacionismo. 2.8. Defensa pragmática. 2.9. Rechazo de la inducción.
3. Justificacionismo, grado de confirmación y lógica inductiva (*). 3.1. La teoría sintác­
tica de Hempel (Criterio cualitativo de confirmación. Confirmación directa. Evidencia con­
firmatoria, disconfirmatoria y neutral. Verificación, refutación). 3.2. El programa inducti-
vista de Carnap (Criterio cuantitativo de confirmación; grado de confirmación. Peso proba-
bilista. Implicación parcial. Lógica inductiva. Inducción y probabilidad; probabilidad
condicionada). 3.3. Probabilidades anteriores (Descripción de estado. Grado de apoyo evi-
dencial; principio de indiferencia. Descripción de estructura). 3.4. Problemas y discusión
(Lenguaje cuantitativo. Dependencia del lenguaje; completud expresiva del lenguaje. Arbi­
trariedad; apriorismo; intuición inductiva. Ateoricismo; grado de confirmación y leyes;
confirmación cualificada por casos; fiabilidad; cociente de apuesta racional. Condiciones de
aplicación y guía para la racionalidad; condición de evidencia total; cociente de apuesta ra­
cional; grado de apoyo evidencial).
4. Falsacionismo, grado de corroboración y verosimilitud (*). 4.1. Antiinductivismo (Ló­
gica inductiva y probabilidad. Contenido informacional e improbabilidad. Probabilidad
condicionada a la evidencia y probabilidad absoluta). 4.2. Falsacionismo (Confirmación y
Refutación. Conjeturas y refutaciones. Modus tollens. Problema lógico de la inducción;
problema metodológico de la inducción. Falsacionismo; epistemología negativa). 4.3. Gra­
do de corroboración (Evidencia favorable y evaluación de hipótesis. Contenido, improbabi­
lidad; falsabilidad, corroborabilidad; explicatividad. Medida de la severidad de los tests.
Corroboración cualitativa. Medida cuantitativa de corroboración; grado de corroboración.
Grado de corroboración y probabilidad). 4.4. Verosimilitud (Refutación; verdad/falsedad.
Proximidad a la verdad. Contenido de verdad; contenido de falsedad). 4.5. Problemas y dis­
cusión (Verosimilitud. Severidad de los tests y falsación. Corroboración e implicación.
Ateoricismo. ¿Antiinductivismo?; grado de corroboración y grado de corroborabilidad; gra­
do de corroboración y probabilidad. Carga teórica de los hechos y límites de la falsación).
5. Complejidad de las teorías, anomalías y falsación. 5.1. El contrainductivismo de Feye-
rabend (Neoempirismo. Método contrainductivo. Epistemología pluralista; anarquismo
epistemológico. Mito de la racionalidad. Tiranía de los expertos. Tenacidad y prolifera­
ción). 5.2. Kuhn y Laicatos: complejidad de las teorías, inmunidad y falsación (Anomalías.
Observación e interpretación. Carga teórica de los hechos. Falsacionismo ingenuo; falsacio­
nismo sofisticado. Ciencia normal; ciencia revolucionaria. Complejidad teórica; evolución
teórica. Cambio intrateórico; cambio interteórico).
6. Consideraciones finales.

C a p ít u l o 13.Análisis diacrónico de teorías. El cambio teórico


1. La perspectiva diacrónica en filosofía de la ciencia (Teorías científicas, desarrollo his­
tórico. Historia de la ciencia y filosofía de la ciencia. Análisis sincrónico, análisis diacróni­
co. Revuelta historicista. Paradigma, matriz disciplinar; programa de investigación; tradi­
ción de investigación. Identidad a través de cambio, continuidad a través de la ruptura;
cambio intrateórico, cambio interteórico. Cinemática y dinámica de teorías).
ÍNDICE TEMÁTICO EXPANDIDO 501

2. Cambio intrateórico. 2.1. Caracterización general (Paradigma, matriz disciplinar; pro­


grama de investigación; tradición de investigación. Evolución teórica. Cambio intrateórico.
Marco teórico. Red teórica, elemento teórico básico. Comunidad científica. Revolución
científica). 2.2. Las teorías como evoluciones teóricas (Red teórica; cambio intrateórico;
evolución teórica. Especialización. Núcleo básico. Dominio de aplicaciones paradigmáti­
cas; ejemplares paradigmáticos).
3. Cambio interteórico en general (Revolución científica. Sustitución de paradigmas.
Inconmensurabilidad. Suplantación; suplantación parcial. Cambio semántico. Aproxima­
ción, idealización. Suplantación con inconmesurabilidad. Incorporación sin inconmensura­
bilidad).
4. Cambio interteórico como incorporación (Reducción; aproximación reductiva. Impli­
cación teórica; aplicaciones intencionales. Incorporación y marco conceptual. Incorpora­
ción, redes teóricas y elemento teórico básico. Incorporación y leyes. Incorporación y apli­
caciones intencionales. Programas de investigación en competencia).
5. Cambio interteórico como suplantación (Inconmensurabilidad; cambio semántico.
Inconmensurabilidad total; inconmensurabilidad parcial. Suplantación y marcos conceptua­
les.. Suplantación y leyes. Suplantación y aplicaciones intencionales. Anomalías).
6. Consideraciones finales: Las formas del progreso científico.

A p é n d ic e .Recordatorio de teoría de conjuntos.


1. Conjuntos. 1.1. Pertenencia, extensionalidad y conjunto vacío. 1.2. Inclusión y conjunto
potencia. 1.3. Operaciones básicas.
2. Relaciones. 2.1. Pares ordenados y producto cartesiano. 2.2. Relaciones; dominio, reco­
rrido y campo. 2.3. Operaciones entre relaciones. 2.4. Propiedades de las relaciones. 2.5.
Relaciones de equivalencia y particiones. 2.6. Relaciones de orden.
3. Funciones. 3.1. Funciones; imagen. 3.2. Biyecciones . 3.3. Composición de funciones.
4. Sistemas y morfísmos. 4 . 1. Sistemas. 4.2. Morfismos.
Referencias bibliográficas
índice onomástico
índice temático expandido
Im preso en el mes de octubre d e 1999
en Talleres LIBERDÚPLEX, S. L.
Constitución, 19
08014 Barcelona

También podría gustarte