Documentos de Académico
Documentos de Profesional
Documentos de Cultura
FILOSOFÍA DE LA CIENCIA
Tras Khun se comienza siempre por el estudio de la historia, pues sobre la base del estudio de
la historia se nos presenta una imagen de la ciencia más rica, con más elementos de inicio,
con más variables que no son susceptibles de análisis lógico. Por ejemplo, el concepto de
comunidad científica, aplicación paradigmática, factores psicológicos (tienen que ver con la
motivación, persuasión, etc). Con esto, la imagen dinámica que aparece en la ciencia, para
Khun no tiene nada que ver con la imagen dinámica del empirismo lógico, sino que es una
imagen que no tiene nada que ver con la acumulación y el progreso, pues se produce un
cambio abrupto. Con esa historia se ve que se producen discontinuidades que impiden hablar
de un crecimiento del conocimiento científico lineal, progresivo y acumulativo. Esto parece
una forma de relativismo y muchos filósofos vieron en Khun una amenaza relativista, pero
esto es algo que él se apresura a desmentir. El problema es que Khun ataca la visión
tradicional del conocimiento científico como paradigma del conocimiento humano. Así, en la
interpretación de Khun encontramos dos posturas que forman las dos grandes escuelas:
Interpretación moderada
Interpretación radical
Popper vivió y trabajó en el mismo tiempo que los empiristas lógicos, en los años 30, antes
de la diáspora,. No pertenecía al Círculo de Viena, pero mantenía un diálogo constante con
alguno de sus componentes. Las ideas de Popper no casaban bien con las del Círculo de
Viena, tenía una visión dinámica de la ciencia y no sincrónica, como es el caso del Círculo.
En el año 59 se tradujo al inglés su “Lógica de la investigación científica”, obra con la que
Popper alcanzó gran resonancia internacional, porque fue el interlocutor crítico de Khun en
los años 60. Fue visto como el flotador que permitía hacer frente al desafío kuhniano sin
perder la racionalidad científica tradicional.
Además de todos estos, hay otros autores que también, sobre la base de una lectura
conservadora de Khun, trataron de rescatar el enfoque formalista del empirismo lógico en el
diseño de un nuevo lenguaje de filosofía de la ciencia. Se trata de los enfoques semánticos,
conectados con la visión historicista porque introducen un componente dinámico, y con el
empirismo lógico porque introducen el formalismo. En España, dentro de las visiones
semánticas, tenemos el estructuralismo.
Por otro lado, la interpretación radical es un cajón de-sastre, se trata de ir más allá. Aquí están
el filósofo D. Bloor, el sociólogo D. Barnes, el historiador Shapin, el economista C. Freman,
realizando estudios sobre ciencia y género, sobre innovación.
El empirismo lógico consideraba que la ciencia era saber metódico, tienen una concepción a-
histórica, alejada de la pragmática y de lo humano. Para ellos, podemos analizar lo que se
llama ciencia en distintas disciplinas formadas por teorías científicas que están constituidas
por un conjunto de enunciados, con lo que el cuerpo teórico de esas teorías puede
establecerse axiomáticamente, es decir, hay una reconstrucción axiomática de la teoría.
Pensaban que todas las ciencias descansaban sobre los contenidos de la física matemática.
Ahora bien, ¿qué clase de críticas podrían hacer más daño a esta visión de la ciencia? Hay
que tener en cuenta que la clave está en la relación entre el suelo de la experiencia y el
cuerpo teórico. Hay que dudar del respaldo concluyente de los sentidos y de cualquier
generalización teórica que proyecte hacia el futuro. Los empiristas lógicos afirman que no
pueden tener garantías no significativas susceptibles de justificación. Así, cambiaron el
discurso matemático riguroso por otro basado en la probabilidad. Pero, si no sólo ponemos en
duda la posibilidad del respaldo lógico concluyente, sino también el respaldo metodológico
concluyente, el empirismo lógico tiene muchas dificultades, y por esta línea va la crítica de
Khun con el denominado “argumento de la infradeterminación”. También hay que tener en
cuenta el dudar de las fronteras entre lo teórico y lo observable, algo que forma parte de la
crítica de Khun mediante el “argumento de la carga teórica de la observación”. Estos dos
argumentos son ataques al modo en que el empirismo lógico entiende la relación entre los
dos mundos, el teórico y el experiencial, atacan al desarrollo de la ciencia moderna.
Este es un argumento que tuvo mucha importancia a finales de los años 50, ya que amenazó a
algunos de los presupuestos más importantes de la visión de la ciencia del empirismo lógico.
Por ejemplo, la imagen acumulativa de la ciencia, imagen en la cual las teorías sucesoras
engullen a las anteriores, es decir, la ciencia se construye sobre lo construido y, así, se
2
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Lo que vemos depende de lo que esperamos ver, es decir, de las expectativas en las que son
manejados los términos observacionales, y esto puede hacer que se vean cosas que no
existen. Por ejemplo, el descubrimiento de los rayos-n: estos rayos tuvieron una existencia de
unos años hasta que se descubrió que eran producto de las expectativas teóricas de los físicos
franceses que los estaban investigando, por lo que hubo que buscar a físicos de otro
continente para que probaran que no existían. El problema de los rayos-n era que se movían
en los umbrales de la percepción humana. Otro ejemplo se da en biología con las diferencias
raciales: se consideraba que los negros eran inferiores, y esto es producto de un filtro
cultural. Otro ejemplo es la teoría de la violencia como clave para la evolución humana. De
este modo, podemos decir que no hay un mundo sólido de hechos que no esté filtrado por
nuestras teorías, y esto es lo que expresa el argumento de la carga teórica, lo que tampoco
significa que valga cualquier cosa. Si no hay términos observacionales sin carga teórica, no
hay un asidero externo que sirva para valorar comparativamente dos teorías y, entonces, no
podemos decir de un modo no trivial que una teoría es mejor que otra. Esto es algo que
dificulta la defensa de la carga acumulativa de la ciencia presupuesta por el empirismo.
3
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
difundida es la que habla de dos teorías que cubren un mismo dominio de experiencia y son
lógicamente inconexas. Por ejemplo, Feyerabend habla de incomparabilidad afirmando que,
para que esto sea el caso, no deben cumplirse las relaciones conjuntistas de inclusión,
exclusión y solapamiento. Esta definición está cercana al positivismo, aunque sea para ir
contra él, y lo hace en términos positivistas. Khun da una definición que va más allá de la
diferencia lingüística de las teorías y habla de métodos. Hanson utiliza una visión también
más fuerte, no limitándola al contenido proposicional de las teorías, sino incluyendo
percepciones diferentes además de conceptos distintos.
En este caso, el comportamiento de los cuerpos confirma las teorías de ambos, pero son
teorías inconmensurables porque los términos descriptivos son diferentes: el término “caída”
no es el mismo. Mary Hesse se pregunta si se puede diseñar un experimento crucial que nos
permita decidir qué teoría es adecuada: según la interpretación débil, sí, aunque no sería fácil;
pero según la fuerte, no, porque hablan de mundos distintos. Mary Hesse propone un
experimento crucial: supongamos que contratamos a un tipo con una alfombra mágica,
subimos en ella a Anaxímenes y a Aristóteles y los trasladamos a las Antípodas, al otro lado
de la tierra; supongamos que los dos están de acuerdo en que se hallan en las Antípodas
debido a la posición de las estrellas fijas; supongamos que allí cada filósofo deja caer un
cuerpo. Bien, Aristóteles diría que cae, por lo que su teoría es cierta, mientas que
Anaxímenes diría que sube, por lo que su teoría es falsa; esto es, tienen diferente concepción
del movimiento. Por tanto, según Mary Hesse, a pesar de la inconmensurabilidad de las
teorías, hay modo de diseñar experimentos cruciales que nos permitan distinguir
justificadamente entre teorías.
4
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Las condiciones de posibilidad del experimento de Mary Hesse suponen que tiene que haber
puntos en común entre la teoría de Anaxímenes y la de Aristóteles para poder realizar un
experimento crucial que tenga valor en ambos casos. Se está presuponiendo que hay un
conocimiento teórico común que, por ejemplo, nos permite localizar la posición de ambos
según las estrellas fijas. Además, tienen otro punto en común, la experiencia fenomenológica,
pues ambos observan lo mismo, ambos ven cómo el cuerpo se desplaza desde el lugar en que
lo sueltan hacia sus pies, aunque después, en virtud de las distintas visiones del mundo, uno
lo llame caída y otro subida, pero su referente es el mismo. Así que el experimento de Hesse
no se puede utilizar, porque presupone un cierto conocimiento. No obstante, a favor de este
ejemplo podemos decir que muestra que los términos descriptivos, aunque sean los mismos,
con significados diferentes, es posible encontrar criterios epistemológicos para la valoración
comparativa de esas teorías.
En todas las ciencias hay controversias y disputas que marcan la vanguardia de lo que es
conocimiento. Por ejemplo, S. Cole distingue entre lo que él llama conocimiento nuclear y
conocimiento de frontera. La imagen que se nos presenta de la ciencia es que es algo exacto
sobre lo que hay consenso, y esto es así en lo que Cole denomina el conocimiento nuclear.
Hay leyes y principios que en su momento fueron disputas, pero que ahora son principios
fuertes de la ciencia a la que pertenecen, son lo que se llaman hechos. Ahora bien, hay más
cosas: hay disputas acerca de la correcta interpretación de unos datos que suelen ser finitos, y
esto último es el conocimiento fronterizo. Por ejemplo, la física que encontramos en los
libros de texto es física ya discutida, la controversia es el núcleo de la actividad científica real
y aparece, entre otros lugares, en las revistas.
Esas alternativas teóricas están igualmente confirmadas por la evidencia empírica disponible.
No hay nada en T0 epistemológicamente relevante que determine qué alternativa es más
adecuada desde el punto de vista del éxito pasado de T0.
5
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Hay algo en la segunda condición que vincula este argumento con la carga teórica de la
observación. Aquí se dice que la evidencia empírica debe ser equivalente, y hay que
preguntarse qué evidencia empírica es la adecuada, pues si se tiene en cuenta la evidencia
empírica desde el punto de vista de las teorías alternativas, el argumento de la carga teórica
de la observación podría aplicarse. No sólo el problema de la infradeterminación se presenta
en episodios particulares de la historia de la ciencia, sino que puede aparecer en conjunción
con el argumento de la carga teórica de la observación: cuando los términos descriptivos de
las teorías alternativas no son compatibles, no se habla de lo mismo.
Pero puede ser que necesitemos otros elementos de juicio. Si la experiencia no nos basta y
tampoco la lógica, puesto que las teorías no son contradictorias, estamos rebasando el ámbito
de los elementos de juicio de naturaleza epistémica que nos permitirían dar una explicación
racional. La lógica y la experiencia son insuficientes para determinar un curso de acción, por
eso se dice que está infradeterminado. El problema de la infradeterminación es lógico y
epistemológico; en la práctica, los científicos manejan un conjunto finito de evidencia, pero
el problema surge con las teorías. Kuhn dirá que lo que determina un curso de acción u otro
es un factor social, no epistémico. Hay muchos autores que dicen que hay que repensar el
concepto de conducta racional.
6
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Esta tesis de la infradeterminación de las teorías, aunque se asocie a Kuhn y Feyerabend, fue
anticipada por Quine a través de la tesis de la indeterminación de la traducción, según la cual
es posible elaborar dos o más manuales de traducción de un mismo lenguaje que sean
incompatibles entre sí y que, sin embargo, cumplan satisfactoriamente las condiciones que
garanticen su eficacia. La conclusión es que no hay una base objetiva para hacer la
traducción de una manera u otra. Esto, dicho en términos científicos, viene a ser lo siguiente:
ante un mismo campo de evidencias, resulta posible elaborar teorías científicas que son
equivalentes con la experiencia pero incompatibles entre sí. Esta tesis es una de las
tendencias fundamentales en la filosofía de la ciencia actual. La idea es mostrar a Quine
como un autor revolucionario y precursor en lo que serán las tendencias fundamentales en la
filosofía de la ciencia posterior y actual.
Tomando como referencias bibliográficas “La relatividad ontológica y otros ensayos” y “Del
estímulo en la ciencia”, en las que se muestra la teoría de la naturalización de la filosofía,
vamos a centrarnos en las reflexiones de Quine sobre la comunidad científica: la crítica al
concepto tradicional de ciencia. La concepción tradicional de la ciencia tiene como objetivo
diferenciar el conocimiento legítimo del que no lo es, y esto lo hace según un criterio de
racionalidad: el principio de verificación, que supone que un enunciado o proposición es
científico si y sólo si puede ser empíricamente verificada, siendo en caso contrario una
pseudo-proposición. Del principio de verificación se deduce que, para los positivistas
lógicos, el único conocimiento legítimo es el fundamentado en la experiencia, y, más
concretamente, admiten dos tipos de proposiciones: las analíticas y las sintéticas.
Así, la ecuación lógica + experiencia nos permite distinguir el conocimiento científico del
que no lo es. El conocimiento científico se dividiría en enunciados analíticos (verdaderos por
su forma lógica) y enunciados sintéticos (verdaderos en función de su correspondencia con
los hechos empíricos o experiencia). Esta distinción entre enunciados analíticos y sintéticos
constituye el primero de los dogmas criticado por Quine y, en consecuencia, el objeto de sus
críticas.
7
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Quine en ningún momento desarrolla argumentos definitivos, no prueba que no pueda haber
definiciones satisfactorias de verdad analítica, sino que dice que las que hay hasta ahora no
sirven, pues “ofrecen ilusión de que explican, pero no lo hacen porque los términos que
emplean están tan requeridos de explicación como aquello que se intenta explicar”. Autores
que han intentado explicar la noción de analítico han recurrido a términos que también
requieren explicación; por ejemplo, significado, sinonimia, reglas semánticas, necesidad,
mundo posible, etc., son términos que necesitan de tanta explicación o más que aquél que
tratan de explicar. Para Quine, hay que tener en cuenta los factores que determinan la
analiticidad porque de otro modo esta distinción analítico/sintético será un dogma metafísico.
Por tanto, el principio de verificación no tiene unas consecuencias tan obvias como los
positivistas consideraron en su momento.
El segundo de los dogmas sería el del reductivismo: todos los enunciados con sentido son, en
último término, reductibles a la experiencia; esto es, todos los enunciados se refieren a la
experiencia sensible o, cuando menos, son reductibles a términos que se refieren a la
experiencia. Lo que es dogmático no es el verificacionismo, sino que esto es la afirmación de
que todo enunciado con sentido es reductible a la experiencia.
Quine estaría de acuerdo con esto, pero lo que no acepta es el reductivismo, es decir, la
afirmación de que todos los enunciados de forma aislada se llevan al tribunal de la
experiencia. Frente a este reductivismo, Quine adopta otra forma de reductivismo, aunque de
carácter holista: el holismo de Quine. Según la teoría verificacionista, todo enunciado aislado
posee un ámbito de experiencias que lo confirman o lo invalidan. Quine estaría de acuerdo
con esto, pero con un matiz: no acepta esta visión molecular del verificacionismo y apuesta
por una versión holista. Su opinión es que los enunciados no se someten al tribunal de la
experiencia individualmente, sino de forma corporativa. Frente al verificacionismo molecular
de los positivistas, tenemos el verificacionismo holista de Quine, el cual cree que son los
conjuntos de hipótesis, no las hipótesis aisladas, lo que contrastamos empíricamente. El
holismo sostiene que los objetos de contrastación empírica no son las hipótesis teóricas
aisladas, sino amplios cuerpos de teoría. Lo que Quine está haciendo es poner en duda uno de
los pilares del positivismo lógico, el conocimiento inductivo.
8
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Versiones holistas contemporáneas que recogen esta cuestión de Hume han insistido en este
hecho destacado por Hume: un número finito de observaciones no puede servir de base
suficiente para probar una hipótesis general. La dificultad señalada por la tradición holista
radica en que las hipótesis no se llevan aisladamente al tribunal de la experiencia, sino en
relación con una regla. Esto es, un conjunto de hipótesis entre las que se encontrarían las
hipótesis auxiliares, los aparatos de medida, etc. El primer autor que habla del holismo es
Duhem, físico francés a partir del cual desarrolla Quine la tesis del holismo, la cual pretende
hacer frente a las dificultades que surgen a partir del problema de la inducción. Esto se
conoce como la tesis de Duhem-Quine: no es una hipótesis la que se lleva al tribunal de la
experiencia, sino un conjunto de hipótesis.
El holismo fue formulado inicialmente por Duhem, aunque Quine añade ciertas
peculiaridades, de las cuales la más importante es la que hace referencia a las posibilidades
de revisión de las teorías. Lo normal es que se comience por las hipótesis menos importantes.
Para Duhem, en caso de que la revisión sea necesaria, debe comenzarse por hipótesis de
economía, psicología, historia, etc., y dejar intactas las hipótesis nucleares (matemáticas,
física, etc.). Por tanto, Duhem considera que las teorías tienen un carácter monista aunque
con matices, y en caso de revisión iríamos a las hipótesis menos importantes. Pero Quine no
estaría de acuerdo con esto, sino que revisaría todas las hipótesis sin hacer distinción.
La posición de Quine es vista por muchos autores como el inicio del giro naturalista. En el
tratamiento de los dogmas se ve su carácter revolucionario, y en el naturalismo se aprecia su
carácter anticipador. El naturalismo supone que todo lo que existe y sucede en el mundo es
susceptible de ser explicado por la ciencia, por los conocimientos de que disponemos aquí y
ahora sin necesidad de métodos trascendentales o a priori. La naturalización de la
9
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
El giro naturalista es una de las corrientes fundamentales en la ciencia actual, aunque recibe
críticas como afirmar que el naturalismo llevado al extremo nos lleva al relativismo.
Relativista se consideraba a Feyerabend porque reconoce que la única verdad que se puede
admitir en ciencia es que todo vale, y no tenemos por qué esperar que la ciencia haya de
actuar con reglas fijas y generales. Ante esta acusación de relativismo, los naturalistas dirían
que ellos están en contra de criterios objetivos intemporales, es decir, que los criterios
normativos estarían sujetos a cambio y evolución.
10
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
mismo mar al que no pueden convertir en tierra firme y deben estudiar sobre la marcha. Al
decir esto, entre otras cosas, apuesta por una interdisciplinariedad del conocimiento. Así, se
deja de soñar con una filosofía primera más firme que la propia ciencia y en la cual la ciencia
pudiera basarse. La idea es defender la ciencia desde dentro, además de los frutos que el
conocimiento científico nos ha dado hasta el momento. Desde el año 1968, Quine usa de
forma recurrente el eslogan de que no hay lugar para una filosofía primera. Este rechazo de
Quine va asociado a su defensa de una filosofía naturalizada y a la idea de que la ciencia es
continua con la filosofía natural.
11
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
razonamiento deductivo
inferencia inductiva
simplicidad
poder predictivo.
Ante la pregunta por el consenso, el método es el que explica los consensos que se establecen
en ciencia, y esto se da porque se dice que la naturaleza es de una determinada forma, que es
así. Este no es el sentido relativista, no tiene cabida. Pero, ¿en qué medida abre Kuhn el
relativismo? Kuhn dice que hay distintas formas de desarrollo temporal de la ciencia:
Acumulativo: a través de pequeños pasos de aumento del conocimiento.
Debemos tener en cuenta que Kuhn tiene en cuenta determinados factores psico-sociales
como son el factor político, económico, etc., que tienen una eficacia increíble a la hora de
elegir hipótesis por parte del científico. Afirma que no hay un conjunto de valores
compartidos que puedan tener los científicos, y esto puede llevar a un relativismo. Ahora
bien, hay distintos tipos de relativismo:
Relativismo fuerte: añade que tales juicios convencionales son arbitrarios con respecto a
cualesquiera utilidades epistémicas o virtudes cognitivas.
En el relativismo débil podemos decir que la conducta del científico en determinado contexto
cultural propio de una tradición de investigación es racional, y se llama así porque se pone en
un contexto cultural particular en el cual se comparten unos criterios epistémicos. Pero en el
relativismo fuerte esto no se da, pues negaría incluso la posibilidad de justificación local.
Mientras que el relativismo débil afirma la necesidad de contextualizar los modelos de
justificación (disciplina histórica y/o social), el relativismo fuerte niega siquiera la
posibilidad de justificación local. El contexto cultural puede tener muchos formatos:
laboratorio, línea de investigación, conjunto de disciplinas, cultura occidental, etc., es un
12
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
contexto de descubrimiento/justificación
método científico
el progreso acumulativo de la ciencia
valores y ciencia en la concepción heredada
ciencia y política pública
La obra de Khun supuso un revulsivo para este modelo. Kuhn no era filósofo de formación,
sino un químico que se dedicó a la historia de la ciencia rechazando su imagen idealizada en
busca de una ciencia real. La historia científica no se ha realizado mediante un proceso
acumulativo de la ciencia, sino mediante cambios bruscos. De este modo, la historia de la
ciencia tendría el siguiente esquema:
13
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
predicciones
aplicaciones
extensión de aplicaciones
precisión
coherencia
amplitud
simplicidad
fertilidad
El artículo de Ayer titulado “¿Qué es una ley de la naturaleza?” se divide en dos partes. En la
primera parte habla de lo que no es una ley de la naturaleza, y pone varios ejemplos de lo que
se consideran leyes de la naturaleza, como por ejemplo que la órbita de un planeta alrededor
del Sol es una elipse. Las leyes de la naturaleza no son:
Hume expone que no podemos conocer lo que hay entre dos elementos si no conocemos
antes estos objetos. Lo que ocurre con las leyes de la naturaleza es que no vinculan dos
objetos independientes; por ejemplo, “la magnetita (elemento) atrae al hierro y al acero”,
donde hierro y acero son propiedades a=a. Otro ejemplo es “la aceleración de un cuerpo es
igual a la fuerza que actúa sobre él por su masa”, donde si sustituimos fuerza por su
definición estaríamos ante una tautología.
∀x (Px → Qx) “Todos los planetas tienen órbitas elípticas”. Pero tendríamos que aceptar por
verdaderas oraciones del tipo “Todos los caballos alados son mansos”.
Tienen que tener esta estructura: ∀x (Px → Qx) ∧ ∃x Px. Pero Ayer afirma que debemos
tener leyes sobre cosas que no existen, por lo que no podemos aceptar esta estructura.
Toda ley científica tiene que aceptar casos posibles, generalización de hecho: “Todos los
presidentes de la tercera República francesa son varones” ∀x (Px →Vx).
14
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Hay que distinguir las generalizaciones de hecho de las generalizaciones de la ley. Ante esto,
Ayer afirma que el radio de acción de las leyes científicas es infinito, y decir esto implica los
subjuntivos condicionales, por ejemplo, en “todos los planetas tienen órbitas elípticas”, lo
que implica decir que cualquier cosa que sea un planeta tendría órbitas elípticas. Hasta aquí
llegan todas las explicaciones positivistas clásicas, pero Ayer va más allá afirmando que lo
que diferencia las generalizaciones de ley de las de hecho es la actitud de la persona que las
enuncia. Por ejemplo, “todos los planetas tienen nombres latinos”, si esto es verdadero, no
estamos dispuestos a admitir que cualquier ejemplar que x=a y Pa tuviera una propiedad.
Si admitimos que tiene una proposición característica R (x =a = Marte; Pa = ser un planeta; R
= tener un nombre que aparece en un escrito del s.7 a. de n.e. Si admitimos lo que hay entre
(), no podemos admitir la propiedad L (ser latino), con lo que sería falso. Así, el poder tener
R es lo que diferencia a las generalizaciones de hecho de las generalizaciones de ley. Por
ejemplo, una generalización de ley sería “el agua hierve a 100ºC” o ∀x (Ax → Hx).
Para que alguien tome una proposición de la forma “si algún objeto es P también es Q” como
una ley natural es suficiente:
que, suponiéndole dispuesto a explicar satisfactoriamente las posibles excepciones, crea que,
en sentido no trivial, todo aquello que de hecho posee P posee también Q.
que su convicción de que el objeto que posea P también posee Q no esté dispuesta a ser
debilitada por el descubrimiento de que aquél posee igualmente alguna otra propiedad R, con
tal de que:
Hempel viene a decir más o menos lo que Ayer, pero la definición es más clara. Para Hempel,
las leyes científicas son enunciados de forma universal ∀x (Px → Qx) que afirman la
existencia de una conexión uniforme entre hechos empíricos, y afirma que hay razones para
pensar que es verdadero. Hempel llama a las generalizaciones de hecho generalizaciones
accidentales, y una de las características que las separan de las leyes científicas es que sirven
para justificar condiciones catastróficas. Por ejemplo, “si hubiéramos puesto una vela, se
habría fundido”. Podemos también justificar condicionales subjuntivos: dejamos en supuesto
si un hecho se ha dado o no. En contrafácticos nos encontramos con hechos que no han
ocurrido.
15
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Un lugar común de la reflexión clásica sobre la ciencia era el método H-D para el desarrollo
del conocimiento: comprobación de hipótesis y derivación de hipótesis contrastadoras.
Los enunciados poseían unas ciertas características formales: contenían constantes y términos
descriptivos. La interpretación empírica de los términos descriptivos es desempeñada por lo
que ellos llaman principios-puente o reglas de correspondencia, las cuales conectan los dos
vocabularios, el teórico y el observacional (Vo y Vt). De este modo, los enunciados
característicos de las teorías científicas podían pertenecer, en virtud de sus componentes, a
uno de estos dos niveles lingüísticos (Vo y Vt). La conexión está en los principios puente o
reglas de correspondencia.
Esta es una visión ideal. Los empiristas lógicos se dan cuenta de que es imposible derivar los
enunciados generales de la biología a partir de los de la física matemática, pero entendían que
esto se debía a limitaciones del conocimiento humano, y que con el desarrollo de las ciencias
16
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
se van acercando cada vez más a este ideal. Esta tendencia aún existe hoy día. Para los
empiristas lógicos, la matemática y las pruebas concluyentes de la matemática son el
paradigma del conocimiento. De este modo, uno de los presupuestos del empirismo lógico es
el carácter ideal de la física matemática como modelo de la ciencia madura. Hay muchos
comentarios críticos que se pueden hacer al respecto: primeramente, esto puede ser
denominado reduccionismo fisicalista, aunque para ellos supondría un logro, un paso
adelante; además, la matemática no es el instrumento base a partir del cual se desarrolla el
conocimiento físico, sino que hay una relación bidireccional, es decir, no hay una matemática
ya dada que se complementa con la física, sino que se complementan una a la otra.
Para dar una versión madura del empirismo lógico, vamos a acudir a F. Suppe, a R.
Brainthwaite y, por supuesto, a Carnap.
Suppe es uno de esos autores que han intentado establecer un carácter semántico para la
estructura de la ciencia. De acuerdo con él, lo que podemos llamar la versión inicial de la
doctrina del empirismo lógico es como sigue: las teorías científicas son entendidas como
teorías axiomáticas fundamentalmente en una lógica L que cumple las siguientes
condiciones:
Esta distinción de Suppe no tiene ningún misterio, es sencilla: lo que hace es marcar el
lenguaje, cuál va a ser el lenguaje de la reconstrucción. Aquí, distingue los recursos con los
que va a trabajar este lenguaje, lo que se especifica en (c). Es importante contrastar cómo se
define Vt como algo negativo, como lo no observable. En (d) se habla de postulados que
están relacionados, además, con fenómenos observables, como se ve en (e).
Esta es la versión inicial del empirismo lógico, que está realizando la versión verificacionista
del significado. Estas reglas realizan un enlace con el mundo observacional y el de la
experiencia. Su consecuencia es que todos los términos teóricos son cognitivamente
significativos en la medida en que satisfagan el criterio verificacionista. El conjunto de
postulados teóricos, un subconjunto impropio que podría coincidir con todos los postulados
teóricos, serán los de la teoría. Las reglas de correspondencia estipulan el rango de aplicación
17
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Se critica el dilema del teórico en tanto que la visión de Skinner supone una postura del
empirismo radical, hay que darse cuenta. Se critica, por ejemplo, el por qué debe darse una
relación transitiva; o por qué la relación debe darse entre E y R, y no entre E y O, etc. Esto es
porque hay presupuestos psicologistas detrás de todo ello. El dilema del teórico es
convincente sólo si mantenemos una actitud empírica muy puritana, entendiendo lo
observacional como algo ................... Si esto es así, es convincente, pero nunca concluyente.
Este dilema pone en entredicho la visión naturalista del conocimiento humano.
Una dificultad que tuvo que afrontar el empirismo lógico, señalada por Carnap en un artículo
de año 36 planteando el problema para este requisito en términos disposicionales (frágil,
soluble e inteligente son términos teóricos porque la fragilidad no se ve, sólo sus
consecuencias) es el siguiente: para definir un término como frágil debemos proceder de
forma que, por ejemplo, consideremos Fx, donde x es frágil, y consideremos también que
definimos la fragilidad Rx donde x se rompe fácilmente. Así, Λx (Fx ≡ Rx). Esta definición
explícita plantea el problema de que nunca podremos decir que algo es frágil si no se ha roto,
porque estos términos acuden a disposiciones.
18
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Esto es, algo es frágil si y sólo si algo que recibe un golpe seco se rompe. De este modo,
parece que hemos resuelto el problema, que es que cualquier objeto que nunca haya sido
golpeado sea considerado frágil. Pero así tampoco sirve. El problema es grave porque
depende del lenguaje utilizado, que es el lenguaje de la lógica, y es un problema que afecta a
muchísimos términos utilizados en física, ciencias naturales y, sobre todo, cuando nos
referimos a términos acabados en –ble, -idad, -ente, pues la mayor parte de ellos son términos
disposicionales.
La solución que proponen los empiristas lógicos viene dada por los enunciados de reducción:
Λx Λt [Sxt → (Fx ≡ Rxt)]
Pero aparecen nuevos problemas: que el definiendum forma parte del definiens; y que ya no
definen lo que es ser frágil para un objeto, sino que lo que hacen es estipular una condición
de verificación aplicable en determinadas circunstancias.
Si los enunciados de reducción son el instrumento que utilizamos para dar cuenta del
significado de los conceptos teóricos, entonces sólo podemos aspirar a una definición parcial
de los mismos; es decir, hay una parte del concepto “frágil” que queda sin explicar.
Este problema produjo la evolución dentro del empirismo lógico hacia lo que F. Suppe llama
la versión final de la doctrina del empirismo lógico sobre la estructura de las teorías. El
postulado (e) diría que las reglas de correspondencia C constituyen un sistema interpretativo
que satisface las siguientes condiciones:
Así, (e) sí nos obliga al uso de enunciados de reducción. Las reglas C, conjuntamente con los
postulados teóricos, interpretaban las reglas del vocabulario teórico Vt especificando su
contenido observacional. Hemos de renunciar a las definiciones explícitas.
La postura de H. Feigl aporta una visión que explica la del empirismo lógico ante la pregunta
por la ciencia, lo explica por reglas de correspondencia:
19
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Por ejemplo, la masa molecular (T) puesta en relación o en red con otros conceptos, de modo
que estos últimos conceptos pueden estar relacionados con leyes empíricas que, a su vez,
poseen el suelo de la experiencia para establecer si se dan o no. Otro ejemplo lo pone Carnap:
si se da una oscilación electromagnética, se dará un color verdoso de un determinado matiz
(aquí se vincula observables a procesos inobservables). Otro ejemplo más: la Tº de un gas es
proporcional a la Ec media de sus moléculas (dentro de los conceptos teóricos estaría el
concepto “molecular”, “velocidad molecular”, etc., que no se pueden observar).
Una característica de estas teorías es que nos permiten justificar la derivación de leyes o
regularidades observables a través de la descripción de microprocesos inobservables. Así, por
ejemplo, al hablar de la presión y la temperatura de los gases, debemos tener en cuenta que
tanto la P como la Tº están en el nivel de las leyes empíricas. Sabemos que la P y la Tº están
en relación, pero, para hacerlo, dan un rodeo por el nivel teórico, el cual es dado por el
principio de la Ec que lo define como 1/1 mv². Así, a mayor Tº, mayor P, debido a que
aumenta la velocidad de las partículas (utilizando el principio de la Ec). En este ejemplo, las
leyes teóricas importan porque explican de una forma más clara y eficaz la relación que se
dan en el nivel de las leyes empíricas; y, si no existiera, las relaciones serían mucho más
pobres.
Esta teoría molecular de los gases fue postulada por Clausius en 1857, el cual aportó la parte
teórica, pues hasta entonces la teoría de los gases estaba restringida al nivel de las leyes
empíricas. Pero, ¿qué elemento encontró Clausius en la parte fenoménica de la teoría de los
gases? Encontró que puede aumentar la velocidad de las moléculas aumentando la P de las
moléculas en un recipiente. También encontró la ley de Boyle, que establecía que el volumen
de un gas es inversamente proporcional a la P del mismo (V x 1/P) para Tº constante.
P•V x n•T
PV = n R T ] ecuación del gas ideal
O también se puede derivar la de Van der Waals, una ley que es un mero ajuste de la ecuación
del gas ideal que permite predecir el comportamiento de un gas cuando las condiciones de
ese gas están muy lejos para ser un gas ideal:
(P+ n²a/V²) (V- nb) = n RT
En este ejemplo hemos partido de leyes empíricas, las de Boyle, Charles y Avogadro, y
hemos derivado la ley de la ecuación del gas ideal, que es una ley teórica a partir de la cual se
han derivado las leyes de Graham y Van der Waals. Estas leyes teóricas tienen la estructura
de un sistema deductivo, sistemático. Al introducir la ley de Graham, hemos introducido
20
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
conceptos teóricos, que es la aportación que Clausius dio para dar lugar a un sistema
coherente y ordenado de lo que se llamó teoría molecular cinética de los gases. Pero Clausius
aporto el relato teórico, está describiendo cosas que no podemos observar, esto es, que:
Los gases están formados por moléculas individuales, separadas, que ejercen poca influencia
entre sí, excepto cuando ese gas está a punto de convertirse en líquido (punto de
licuefacción).
Las moléculas gaseosas están siempre moviéndose en línea recta, al azar y con movimientos
variables.
Las colisiones entre moléculas, y de éstas con las paredes del recipiente, son elásticas, es
decir, que no hay transferencia de E.
Ec = ½ nv²
Estos son los postulados teóricos que permiten enlazar las leyes empíricas. Conociendo la
cuarta y quinta descripción, es fácil derivar deductivamente que las moléculas de gases que
tengan peso pequeño (H, Hc) tendrán una velocidad mucho mayor que las moléculas de
gases con un peso mayor, siempre a un Tº dada, porque, si la masa desciende, la velocidad
aumenta para mantener constante la Ec molecular media. Así, lo que hace Clausius e mejorar
el poder predictivo de las teorías dadas, da coherencia y organización a lo que estaba dado en
el nivel empírico. Lo que dicen los empiristas lógicos es que la superestructura teórica nos
ayuda a entender las leyes empíricas y nos aporta conocimiento acerca de este nivel
empírico.
“La explicación científica” de R. Braithwaite es una obra que contiene la explicación de las
hipótesis en ciencia, como “todo P es Q” o “ si A, entonces B”. Esto puede ser reconstruido
mediante una fórmula de la siguiente estructura: Λx (Px → Qx) y, además, él ve las leyes
como hipótesis científicas verdaderas. Sobre esta base, Braithwaite afirma lo siguiente: un
sistema científico consiste en un conjunto de hipótesis que forman un sistema deductivo (P
→ C).
Podemos considerar que las proposiciones de todo sistema deductivo están colocadas en un
sistema de niveles de suerte que las de nivel supremo aparecerían exclusivamente como
premisas del sistema; las de nivel ínfimo sólo como conclusiones del mismo; y las de niveles
intermedios podrían proceder como conclusiones de deducciones de hipótesis de nivel más
elevado y servir como premisas para conclusiones que conduzcan a hipótesis de nivel
inferior. De acuerdo con esto, la teoría de gases, por ejemplo, sería un sistema deductivo. El
propio Braithwaite pone un ejemplo muy ilustrativo con la caída de los cuerpos de Galileo: la
hipótesis de nivel superior sería “todo cuerpo en las proximidades de la Tierra y en caída
libre hacia ésta cae con una aceleración de 9´8 m/s”; de aquí podríamos derivar toda una serie
de hipótesis, con lo que podemos derivar “todo cuerpo que, partiendo del reposo, cae
libremente hacia la Tierra, recorre 4´9 t² m en t segundos, cualquiera que sea el valor de t”.
Esta hipótesis se deriva teniendo en cuenta el cálculo integral:
d² /dt² = 9´8
t = O; s = O; ds/dt = O
21
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
De acuerdo con Braithwaite, son las hipótesis de menor generalidad las que nos permiten
poner a prueba la plausibilidad empírica de estos sistemas deductivos, y él afirma que las
hipótesis tienen carácter transitivo. Braithwaite afirma que una hipótesis de un sistema
deductivo que no sea de nivel supremo no sólo está apoyada por la observación de sus
ejemplos o ejemplos de hipótesis apoyadas en el sistema, sino que también por observables
de otras hipótesis del sistema. Con esto, quiere decir que el respaldo empírico se transmite a
corriente y a contracorriente de los vínculos empíricos.
Un problema que considera Braithwaite es el hecho de que con esta visión de la ciencia
podemos obtener respaldo confirmatorio para una hipótesis por el mero hecho de adjuntarla a
un sistema deductivo, con un alto grado de confirmación. Por ejemplo, imaginemos que
Newton haya adjuntado las tres leyes de la mecánica con la hipótesis de que “todos los
cuerpos celestes son verdes”. Pero, ¿cómo prevenir esto? Braithwaite afirma que debemos
exigir que las hipótesis de niveles superiores sean necesarias para las hipótesis de niveles
inferiores.
Otra dificultad que Braithwaite considera en su libro es la introducida por la tesis Duhem-
Quine, esto es, “ante un resultado desfavorable, el problema es discriminar el resultado
desfavorable de las hipótesis que han tenido lugar en la derivación de la conclusión”. Ante
este problema, afirma: supongamos que nos estamos ocupando de un sistema deductivo en el
que no se tenga en cuenta una hipótesis de nivel supremo, sino que sean varias las hipótesis
de nivel superior; entonces, lo que refutarían las hipótesis de nivel ínfimo sería la conjunción
de estas varias hipótesis de nivel máximo.
¿Dónde está el fallo? ¿A qué hipótesis hay que remitirse? Braithwaite dice que la experiencia
nos puede decir que en alguna parte del sistema hay algo equivocado, y afirma que este es un
problema que no tiene solución.
Las referencias básicas de este tema las encontramos en la obra de Carnap. Este tema es un
racimo de problemas que ponen de manifiesto que los términos teóricos son problemáticos
para los empiristas. Este es un problema que está emparentado con el de la significación
cognitiva o significación empírica, que es, a su vez, una versión del problema de la
demarcación. Estas son tres formas de enmarcar la ciencia frente a todo tipo de cultura. Los
términos teóricos sólo plantean problemas si se mira desde un empirismo radical. A partir de
Kuhn, esto deja de ser el centro de atención filosófica de la ciencia.
22
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Así, si (a) es el empirismo lógico y (b) es la lógica formal, aparece el problema de los
términos teóricos, que resulta un problema central, de modo que si siguiésemos su evolución
sobre el ámbito de discusión de este punto, tendríamos la evolución del Círculo de Viena y
del empirismo lógico. En esta evolución del empirismo lógico, tenemos tres criterios:
En (a) hay una serie de autores como Ayer; en (b) están los del Círculo de Viena y, sobre
todo, Carnap y Popper; en (c) destaca Hempel; y en (d) volvemos a tener a Carnap. Aquí
tenemos la identificación de distintas unidades de análisis (oraciones, términos, etc.),
tenemos una evolución en el cambio de la centralidad de las unidades de análisis (en primer
lugar están las oraciones, en segundo lugar los términos, etc.). Así, vamos a ver algunos
ejemplos de estos criterios.
(a1) o criterio de verificabilidad en principio: este criterio diría que una oración tiene
significado empírico si y sólo si no es analítica y se deduce lógicamente de alguna
clase finita y consistente de oraciones observacionales. Este criterio es una
reformulación de la tesis verificacionista del significado.
Estos criterios acabaron siendo abandonados históricamente, y el abandono tuvo lugar por
refutación, mostrando que tenía consecuencias inasumibles desde la corrección formal (que
genere una contradicción o que sea inconsistente, por otros postulados asumidos) y la
adecuación matemática (que no muestre bien el método de la ciencia). (a1) se abandonó por
el problema de Hume. (a2) nos pide que derivemos la negación de una oración por modus
tollens, y este criterio se abandona porque la práctica real de la ciencia es mucho más
compleja que la que nos muestra el esqueleto lógico del modus tollens. Esto hace que los
empiristas lógicos se centren en otros criterios, de modo que en los años 30 pasan a centrarse
en los términos, en vez de en oraciones.
Se acoge (b) para ver si esos términos tienen anclaje en la experiencia; si no tienen ese
anclaje, rechazan la oración entera, porque los términos son las unidades últimas de las
oraciones:
23
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
(b2) o criterio de reductibilidad: versión final del empirismo lógico que supone que
todo término con significado empírico debe poder ser introducido sobre la base de
términos observacionales a través de cadenas de oraciones de reducción. El tipo de
crítica a (b2) es de carácter formal y también matemática, es decir, que las oraciones
de reducción no son definiciones genuinas porque el definiendum está contenido en el
definiens. Otra crítica es en las teorías científicas es muy raro que los términos y
oraciones aislados impliquen consecuencias observacionales, sino que normalmente
se acude a conjuntos de hipótesis o conjuntos de enunciado, esto es, que la atribución
empírica no puede atribuirse a hipótesis aisladas, sino a conjuntos de enunciados.
Así, llegamos a (c), que sería un criterio llamado sistemas teóricos para la interpretación
parcial para teorías. Este criterio supone que un sistema teórico es empíricamente
significativo si y sólo si es interpretado parcialmente en una medida tal que en ningún
sistema equivalente a él al menos una oración primitiva esté aislada, es decir, alguna oración
que contenga un término teórico. Lo que se dice aquí es que los términos teóricos que poseen
las oraciones deben estar interconectados con oraciones que contengan términos que se
refieran a la experiencia y, con esto, la significación empírica pasa a ser una cuestión
importante y a ser una cuestión de grados, no de todo o nada.
Ya en el año 52, Carnap volvió a proponer los términos como criterio en la mejor tradición
clásica del empirismo, pero este criterio será muy discutido después, y posteriormente
abandonado más por desinterés que por lo que se abandonaron los anteriores. Dice Carnap
que un término teórico t es empíricamente significativo si y sólo si el término es
prognósticamente relevante, es decir, hay al menos una oración St que involucra a t y que
produce una diferencia en la predicción de un suceso observable. Carnap lo que está diciendo
es que una teoría tiene oraciones que tienen términos, y con esto predecimos el futuro en
ciencia: podemos evaluar esta teoría por la capacidad para predecir el futuro. Este es un
criterio instrumental-pragmático que él aporta al significado.
24
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Afirma que el estudio de la ciencia debe tener en cuenta el contexto. Respecto a la distinción
entre contexto de descubrimiento y contexto de justificación, propone un estudio de la
ciencia interdisciplinario que tenga en cuenta los resultados de otras ciencias y conocimientos
(historia, sociología, etc.)
La historia clásica de la ciencia ve la ciencia como presentista, habla de una teoría universal
final que lo explique todo; ven la ciencia como acumulativa y lineal, es decir, las teorías
contienen las teorías anteriores y no se producen cambios. Tenían en cuenta los resultados del
presente. Kuhn, en cambio, se preocupa por la ciencia pasada pero en contexto, es decir, en el
momento en que se da esa teoría, no desde el presente. Además, habla también de las
revoluciones científicas. De este modo, Kuhn pretende estudiar la historia real de la ciencia
desarrollando una historia de la ciencia interdisciplinar.
La idea principal de “La estructura de las revoluciones científicas” es que todas las
disciplinas científicas deben ser estudiadas en su contexto, en su momento. Afirma Kuhn que
hay una etapa de ciencia normal, luego una revolución científica y, finalmente, una ciencia
normal distinta de la anterior. Además, considera una etapa paradigmática anterior a la
primera etapa de la ciencia en la que los datos se recogen de forma fortuita y se dan
experimentaciones causales, tiene una serie de reglas rudimentarias para operar con
instrumentos y obtener los datos, pero en esta etapa aún no se ha constituido la ciencia. Este
primer periodo concluye cuando se unifica el marco de investigación científica, lo que llama
“paradigma” (marco de supuestos básicos); pues, una vez que se abraza el paradigma, la
ciencia no vuelve a este estado paradigmático, que sólo se produce una vez en cada una de
las disciplinas. Kuhn elabora la concepción del paradigma porque considera que debe
establecer algo más básico y complejo que la teoría y, así, la noción de paradigma le permite
analizar la historia de esta disciplina. Pero esta es una noción problemática, y podemos decir
que hay tres grupos de sentidos de esta noción:
25
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Sentido filosófico o metafísico: la imagen del mundo y las creencias básicas que
comparten los científicos acerca de lo que es la realidad.
Sentido sociológico: estructura y conjunto de relaciones internas y externas que es
dan en las comunidades científicas.
Sentido científico: conjunto de problemas modelo que utiliza una determinada comunidad
científica para definir la disciplina en la que se encuentra.
Lo que hace Kuhn es añadir otra nueva definición de paradigma, sustituye el término
“paradigma” por “matriz institucional” en la post-data del 69 definiéndola como la
constelación de compromisos del grupo. Es aquí donde distingue cuatro elementos:
Generalizaciones simbólicas: el conjunto de caracteres distintivos del lenguaje (por ejemplo,
ecuaciones) que funcionan como herramientas conceptuales de cada disciplina; vienen a ser
los principios fundamentales de una teoría, las leyes científicas, que son formalizables.
Modelos: pueden suponer un compromiso ontológico con la existencia de un determinado
tipo de entidades, en cuyo caso se da la estructura de la realidad; o pueden utilizarse sólo en
el sentido de orientar la investigación, en cuyo caso se dan las hipótesis o líneas de
investigación.
Así, no ve la ciencia como acumulativa, no ve que las leyes, teorías, se establezcan por
acumulación de otras anteriores. Pero, ¿qué pasa cuando hay cosas que no se pueden explicar
en la teoría, cosas que crean conflictos? Suele solucionarlo con hipótesis “ad hoc”, es decir,
introduce hipótesis que solucionan esos problemas. Se va intentando modificar esta teoría,
este paradigma, y esto es lo que se llama etapa extraordinaria, momento en que la crisis del
paradigma es enorme y ya no hay hipótesis que lo respalden, por lo que se abandona este
paradigma de tal forma que es en este momento cuando se produce la revolución, el cambio.
26
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
La revolución se produce en tanto que va cambiando todo a nivel institucional, como las
revistas donde aparecía, etc., hasta que la comunidad científica acoge el nuevo paradigma y
se olvida ya del otro.
Para Kuhn, cambian los criterios de evaluación, las formas de investigar y los datos
observacionales, porque cambia el paradigma. Esto es, no existen unos fundamentos últimos
de conocimiento que nos permitan dibujar la historia de la ciencia de forma lineal. Las cosas
que cambian cuando cambia el paradigma son de tres tipos:
Cambios ontológicos: cambian los supuestos de existencia del tipo de cosas que pueblan el
universo y el tipo de relaciones que hay entre ellas. Por ejemplo, al defender una teoría
atómica de la materia, se supone la existencia de electrones, etc.
Con la revolución científica cambia el paradigma, con lo que cambia la realidad, y esto se
debe a que lo que vemos depende de lo que miramos y lo que hemos aprendido a mirar. Kuhn
afirma que los paradigmas son formas de entender el mundo, por lo que no se pueden aceptar
varios, y quienes proponen paradigmas distintos viven en mundos diferentes. El cambio de
paradigma es una cuestión de fe, pues se cree en otra cosa distinta de la que se creía antes, y a
veces este cambio no tiene base racional. Además, Kuhn ve componentes políticos dentro de
este cambio que supone el cambio en el modo de ver la historia de la ciencia. En dos
paradigmas hay una base empírica común, con lo que un paradigma, en el momento del
cambio, puede comprender al otro, porque hay una base común. Así, nosotros podemos
entender el paradigma newtoniano.
27
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
escala adecuada que nos permita decidir el mejor paradigma; la razón no está presente en los
cambios de paradigma, pero tampoco se puede negar que haya una razón adecuada en la
ciencia.
Entre dos paradigmas no puede haber una evaluación interna (utilizar los conceptos de uno
para evaluar el otro, porque los conceptos son diferentes en cada paradigma) y tampoco se
puede hacer una evaluación externa. Así, Kuhn viene a decir que el método científico no
puede utilizarse como evaluación.
En 1973, debido a las críticas que recibe, se ve obligado a realizar una modificación. En
“Objetividad, juicios de valor y elección de teorías” quita importancia a la noción de
inconmensurabilidad y revolución científica, y afirma que hay cinco criterios denominados
supra-paradigmáticos que son criterios objetivos y racionales. Con esto cede un poco dando
cierta razón a los científicos tradicionales aceptando que sí existe un criterio de racionalidad
en el cambio científico. Los criterios son los siguientes:
Amplitud o alcance: exige que debe ser posible deducir consecuencias de una teoría
que se apliquen a otros sistemas empíricos fuera del alcance inicial de la teoría.
Fecundidad: capacidad que tiene una teoría para descubrir nuevos fenómenos y
soluciones al problema distintos a los que se conocían en un principio.
Estos son los cinco criterios presentes en el momento del cambio de teoría, siendo para
Kuhn, el criterio de precisión el más importante. Afirma que estos criterios no pertenecen a
ninguna teoría, por lo que podemos aplicarlos desde fuera para ver si una teoría es mejor que
otra. Sin embargo, también afirma que hay muchos problemas para poder admitir que hay un
método racional aplicable. Por ejemplo, dos científicos pueden tener opiniones distintas en
cuanto a qué teoría es mejor, y también puede suceder que cada científico ponga como
importantes unas cosas y no otras sin que ambos coincidan. Además, estos criterios no son
retrospectivos, es decir, no se pueden aplicar a paradigmas y teorías pasadas. Por lo tanto,
estos criterios no son un método infalible que nos permita establecer qué teoría es mejor.
28
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Kuhn afirma que, además de estos criterios, hay factores subjetivos que son también muy
importantes y que modulan los criterios objetivos viendo por qué se da uno y no otro, con lo
que los factores subjetivos tienen más importancia.
El debate entre Galileo y sus contemporáneos aristotélicos dura casi un siglo y medio
dándose a partir del “De revolutionibus” de Copérnico. Esto supuso un cambio en la física y
astronomía, entre otras disciplinas. Así, entre los dos paradigmas, el de Galileo y el de los
aristotélicos, hay cuatro tipos de diferencias básicas:
Galileo defiende la teoría copernicana, pero se encuentra que esto refuta toda la teoría
anterior, por lo que quiere desarrollar un sistema compatible con el de Copérnico
enfrentándose con todo el ámbito aristotélico. De este modo, la primera diferencia básica es
la barra de distinción de los ámbitos celeste y terrestre; además Galileo está alterando la
teoría de los “lugares naturales” defendida por los aristotélicos, ya que éste admite el
movimiento de la Tierra, al igual que Copérnico. Galileo defiende una nueva física en
“Diálogo sobre los dos grandes sistemas del mundo”, siendo el punto principal de esta nueva
física la cuestión sobre la noción de movimiento. Para Galileo, sólo hay un ámbito de
movimiento, mientras que los aristotélicos hablan del ámbito celeste (astronomía) y del
ámbito celeste (lugar natural: hacia el centro del universo). Así, Galileo considera que sólo
hay movimiento circular y, además, establece que el movimiento de rotación y el de
traslación de la Tierra comparten su movimiento con las cosas de la Tierra.
Asimismo, se producen rupturas metodológicas, en tanto que Galileo formula unas leyes
cuantitativas del movimiento y las demuestra experimentalmente. Lo que hace es dar a la
experiencia y a las matemáticas un papel central, papel que antes no tenían porque, para los
aristotélicos, las matemáticas eran algo útil, sólo una herramienta, y la experiencia era algo
que podía cambiar la cualidad de los cuerpos, por lo que tendían a observar y no actuar.
Galileo rechaza también la búsqueda de causas. Otra cosa que cambia en la metodología es la
introducción del telescopio, instrumento con el que Galileo acerca la teoría copernicana, y
que le vale la oposición de la Iglesia Católica. Los adversarios que le aportó el telescopio
eran de tres tipos: los que no miraban, los que miraban y reconocían los fenómenos aunque
decían que éstos estaban en el telescopio, y los que admitían lo que veían y afirmaba Galileo
pero no lo admitían como demostración de las palabras de Copérnico. Con el telescopio se
dan características epistémicas que llevan a admitir una observación y los problemas de las
instituciones.
Pero también hay más cuestiones que sirven de eje para los dos paradigmas: los elementos
compartidos son los ejes que permiten la transición, permiten el entendimiento entre el
primer paradigma y el nuevo, y además son la base del aprendizaje, es decir, permiten que las
nuevas razones del paradigma nuevo sean comprendidas por los científicos del viejo, con lo
que es la base del convencimiento. Entre ellos había acuerdo en determinados datos
observacionales, en observaciones básicas, y están de acuerdo en que las observaciones
básicas son relevantes para el debate, por lo que una teoría debe admitirlas y no
contradecirlas. Otro punto de reunión lo encontramos en las cuestiones lógicas, por ejemplo,
que no se pueden concluir cosas falsas de una teoría verdadera; en el sistema de conceptos;
en los criterios de evaluación de teorías, por ejemplo, en la precisión en tanto que los dos
29
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
paradigmas consideran que no es importante porque la teoría puede ser precisa y no ser
válida; y en que la teoría tiene que estar en concordancia con los pasajes de la Biblia.
Kuhn utiliza la propia dinámica de la ciencia para explicar los cambios y las diferencias de
los valores y estándares epistémicos. A partir de un cambio en la teoría, pueden darse los
cambios epistémicos, y de este modo Kuhn naturaliza la epistemología, la analiza. Esta
característica es lo que sirve de detonante para que el análisis filosófico de la ciencia se
naturalizara. La epistemología naturalizada es el intento de resolver, mediante la ciencia, las
cuestiones filosóficas tradicionales sobre el descubrimiento, desarrollo y justificación de las
ideas científicas.
El análisis filosófico comienza a utilizar los resultados de otros ámbitos que también
reflexionan sobre la ciencia, y lo que va a ocurrir es que se intentará definir la relación dada
entre todas las disciplinas, aunque muchos van a intentar reducir todas estas disciplinas a una
sola ciencia. Por ejemplo, Quine la reduce a la psicología, Bloor la reduce a la sociología, y
otros a la biología. A partir de la obra de Kuhn, se han dado dos escuelas que le interpretan:
Interpretación conservadora: también se les ha denominado kuhnianos de derechas,
compuesta por filósofos; y autores racionalistas. Se centran en las revoluciones científicas,
buscan criterios metacientíficos que estén presentes en el cierre de las controversias y que
aseguren que se conserva la racionalidad de la ciencia en las revoluciones científicas. Se
niegan a aceptar que la ciencia sea un proceso en el que no esté presente la racionalidad. En
las revoluciones científicas se dan lagunas de racionalidad, y éstas son llevadas de dos
maneras con criterios metacientíficos:
30
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Karl R. Popper nace en Viena (1902-94), siendo el personaje que más prestigio dio a la
London School of Economics (LSE). Popper es uno de los grandes autores, se le suele
considerar como uno de los grandes padres de la social-democracia. En el año 63 publica
“Conjeturas y refutaciones”, importante en cuanto que en él introduce la temática de la
verosimilitud, algo que más adelante inaugurará el campo de discusiones científicas en la
filosofía poskuhniana. En el 72 publica “Conocimiento objetivo”, que es la obra más
adecuada para seguir su pensamiento y en la que Popper aplica el marco de su pensamiento al
marco de la reflexión sobre la epistemología. En el 74 sale “La filosofía de K. Popper”,
importante porque en él podemos encontrar la autobiografía intelectual de este autor. En el 77
publica “El yo y su cerebro”, donde Popper se ocupa de la relación entre la actividad mental
y el cerebro. A partir de aquí se han publicado muchos libros sobre Popper, pero son como
apéndices de su obra del año 34, donde había dejado fuera determinadas cosas; no obstante,
uno de los apéndices más importantes es “Realismo y filosofía de la ciencia”.
Para entender mejor la respuesta que Popper da a ambos problemas (lógico y psicológico),
hay que tener en cuenta la respuesta de otros anteriores a la fecha en la que escribe, es decir,
hay que tener en cuenta, por ejemplo, la respuesta de Hume. Popper se aparta de todas las
anteriores respuestas para solucionar el problema psicológico, porque la pregunta de por qué
confiamos en nuestra experiencia no tiene respuesta si no respondemos primero al problema
lógico. Así, da a entender que los autores están errando el tiro, porque se ocupan de resolver
el problema psicológico independientemente del problema lógico. Para Popper, en la mediad
en que no encuentra respuesta al problema lógico, afirma que estamos abocados a una fe
irracional, y la actividad de la ciencia se convertiría en una cuestión de fe a no ser que
encontremos solución a este problema.
Asimismo, la salida probabilística del Círculo de Viena no sirve, pues siguen descansando
sobre la posición inductiva y siguen planteando el inductivismo. La solución que ofrece
Popper es el falsacionismo, afirma que no debemos preguntar si de ciertos enunciados puede
seguirse la verdad, sino si de ciertos enunciados puede seguirse la falsedad.
p→q
¬q .
¬p
contrastación que tenga estas características. Popper considera que hay que poner a prueba la
hipótesis, hacer que corra un enorme riesgo de ser falsada. Por ejemplo, el mar de aire de
Torricelli explicando la presión atmosférica que Galileo no pudo explicar en su momento.
Torricelli diseñó experimentos para explicar el mar de aire, siendo el más famoso el de la
cubeta, en el que experimentó con varios líquidos.Fue el experimento de Pascal el
corroborador del de Torricelli.
comparativa: no hay la escala anterior (es, por ejemplo, la fuerza del viento)
Por tanto, este criterio de demarcación supone que una proposición será científica si puede
ser falsada por la experiencia, y, asimismo, supone una diferencia porque no es tanto la
falsación como la posibilidad de falsación, es decir, la falsabilidad para establecer el criterio
de la ciencia es la no-ciencia. Para Popper, la ciencia nunca llegará a la verdad, pero podemos
ir acercándonos cada vez más en virtud de que vamos falsando. Por eso, los enunciados que
han sido falsados son científicos, porque parten de la base de la ciencia. Por ejemplo, “la
Tierra está en el centro del sistema solar” es una hipótesis científica porque puede ser falsada.
Popper afirma que una teoría es falsable si la clase de sus posibles falsadores no es una clase
vacía. Otra expresión que utiliza es la del no metafísico: el empírico es el no metafísico, pero
esto no quiere decir que Popper considere la metafísica como lo que no tiene sentido, sino
que lo importante es que Popper delimita lo que es ciencia y lo que no lo es sin delimitar lo
que tiene sentido o lo que no lo tiene.
Ciencia/no ciencia
Empírico/no empírico
No metafísica/metafísica
Así, el criterio de falsación realiza un corte entre lo científico y lo que no lo es, pero no se
mete para nada en lo que tiene o no sentido; no se mete en estas cuestiones y no dice que la
no ciencia o la metafísica no sean informativas. Al contrario que sus antecesores, no se mete
en este tema. Esto no es un criterio de demarcación para el sentido, sino que la regla
prioritaria es la exigencia de falsabilidad, por lo que todos los principios que regulen la
ciencia han de someterse a la falsabilidad.
Popper nos habla de las reglas metodológicas, denominadas por él como “la discusión
crítica”: el principio metafísico de la causación universal, principio metafísico de la
uniformidad de la naturaleza, etc., son principios metodológicos que orientan el trabajo en la
ciencia, aunque incluso éstos deben estar supeditados a la regla metodológica de la
falsabilidad. A partir de este planteamiento metodológico, es obvia la crítica al Círculo de
Viena. Popper afirma que hay una proporcionalidad inversa entre la probabilidad que
33
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
De este modo, es una locura dirigir la ciencia hacia el aumento de probabilidad, porque esto
supone dirigir la ciencia hacia la falta de información. Esta es lo que se critica al Círculo de
Viena, que ve la ciencia como algo que debe ir hacia la mayor probabilidad posible. Por
ejemplo, tenemos a tres personas con tres relojes; la primera dice que son entre las 10:00 y
las 13:00, la segunda dice que son entre las 9:00 y las 15:00, y la tercera dice que son las
11:00 en punto; la tercera tiene mayor contenido informativo, pero es más fácilmente falsable
que las dos primeras, ya que las respuestas de éstas dos es vaga, con lo que son las dos
primeras las que tienen menor contenido informativo y mayor probabilidad. De este modo,
Popper se preocupa por la información, y dirá que esto es lo que debe importarnos siendo
éstos enunciados los que más riesgo tienen de ser falsados. Por tanto, hay que orientar la
ciencia hacia la falsabilidad, hacia un mayor contenido informativo.
Todo córvido es negro: extendemos la clase del sujeto y, por tanto, aumentamos el grado de
universalidad.
Una idea importante es que todo el conocimiento científico es siempre provisional, es decir,
los enunciados corroborados son siempre provisionales. Popper enfatiza mucho la
34
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Todo lo visto hasta aquí puede resumirse diciendo que si bien la ciencia no puede probar, sí
que puede disprobar, es decir, hay una base de hechos que puede disprobar las teorías y las
hipótesis con conclusividad lógica. Esta es la imagen de Popper que tiene Nagel, Ayer y
Medawar, y este es el Popper no real, sino el más conocido, porque el Popper real no es tan
ingenuo, sino que es diferente al que hemos establecido hasta ahora. El Popper real es el del
falsacionismo ingenuo o, como lo llama Lakatos, el Popper1. Popper comienza a publicar en
los años 30, y sigue publicando hasta su muerte en los 90, con lo que su obra es muy amplia.
Las críticas al Popper1 son críticas que él reconoce y asume en la evolución de su tesis.
Principalmente, tenemos dos líneas de crítica: la tesis Duhem-Quine y la provisionalidad del
conocimiento base.
La crítica más importante la que se basa en la tesis de Duhem-Quine, que suponía que es
imposible falsar de un modo concluyente hipótesis aisladas porque no concurren solas al
tribunal de la experiencia. La tesis de Duhem-Quine se base en la contemplación de las
condiciones iniciales para respaldar el análisis empírico de una teoría; supone que, al
concurrir hipótesis auxiliares y condiciones iniciales, es imposible falsar la teoría, porque en
caso de fracaso de la teoría no hay forma de identificar qué es lo que falla: la hipótesis, las
hipótesis auxiliares o las condiciones iniciales. Así, las hipótesis no vienen aisladas al
tribunal de la experiencia, con lo que es imposible saber sobre qué debe recaer la
responsabilidad del fracaso de la teoría, además también podríamos dudar del científico que
realiza las experimentaciones. Esta tesis es importante en la historia de la evolución de la
filosofía de la ciencia y está presente en muchos autores. Si nos fijamos en este esquema y
ampliamos las perspectivas, podríamos pensar incluso que el propósito de la ciencia no es
tanto poner en duda las hipótesis, arrojar duda sobre ellas, falsarlas, etc., como completar
nuestras teorías a través de lo que Lakatos llamaría el desarrollo de gruesos cinturones
protectores.
La visión de Popper es una visión heroica de la ciencia en cuanto que un científico debe
poder resolver un rompecabezas. Si nosotros utilizamos este esquema para construir la
ciencia, vemos que la hipótesis debe ser abandonada si la teoría fracasa. Pero lo que se pone
a prueba en la historia de la ciencia no es tanto la credibilidad de las hipótesis, sino el
conjunto de condiciones iniciales que nos permiten ponerlas a prueba y las hipótesis
auxiliares que nos permiten extender el rango de credibilidad de las hipótesis iniciales. Así,
Popper se fija en las hipótesis, mientras que un kuhniano, por ejemplo, se fijaría en las
hipótesis auxiliares y condiciones iniciales. Para Popper, la ciencia se fija en las hipótesis,
mientras que Kuhn considera que se fija en los procedimientos.
35
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Esta crítica se enlaza con la segunda parte, concretada en el argumento de la carga teórica de
la observación. La tercera parte de la crítica es la que nos dice que la actitud crítica en ciencia
ha de afectar también al conocimiento base. Esto es, para que los enunciados básicos sean
científicos deben ser también falsables, y si son falsables deben ser provisionales.
Otra cosa importante es connotar el relativismo, ya que ¿cómo se pueden poner a prueba las
afirmaciones que se realizan en ciencia? Hay dos salidas: la posición escéptica o la regresión
ad infinitum, y también puede llegarse a un punto en el que hay que acudir a la admisión de
un cierto grado de relativismo. Popper, para escapar del escepticismo y del regreso al infinito,
afirma que en este punto hay que tomar una decisión convencional que divide a la ciencia en
dos partes:
Aparentemente, esta solución que se propone parece que nos lleva al relativismo para
posibilitar la contrastación en ciencia, pues se necesita acudir a factores epistémicos. Popper
intenta argumentar que su posición no lleva al relativismo, y afirma que esta decisión
convencional debe estar basada en el veredicto mayoritario de los científicos. Pero esta
distinción popperiana también es temporalmente dependiente; por ejemplo, la tesis de la
deriva continental hoy no es problemática, pero si lo fue en los años 20, lo que no quiere
decir que haya vuelta atrás, aunque si la hay en muchos casos. Popper dice que esta
distinción debe basarse en el veredicto mayoritario de los científicos (hasta aquí es lo mismo
que en Kuhn), pero añade que no sólo hay que quedarse en ese veredicto, sino que debe
basarse en lo que él llama la discusión crítica y racional encaminada a maximizar la sencillez
y la contrastabilidad, es decir, que incremente la falsabilidad. De este modo, argumenta a
favor de una posición no relativista, aunque es discutible que esto no sea una forma de
relativismo débil.
Popper reconoce que hay teoría allá donde miremos en ciencia; pero, para resolver el
problema de una base firme, asume que cierta parte de la ciencia es verdadera, sólida, y es
36
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
aquella que respalda los experimentos y la observación, y sobre esta base se respaldan los
resultados teóricos más nuevos.
La asimilación de esta critica por parte de Popper nos lleva al Popper2, que asume que en
ciencia tampoco se puede disprobar, no se puede falsar de forma concluyente, aunque
Popper2 nos dirá que la falsación debe ser metodológicamente concluyente, esto es, la
falsación no significa el rechazo, pero sí debería considerarlo. Así, falsar no significa
rechazar, pero sí debería incluir el rechazo. Por tanto, otra característica de Popper2 es la del
falsacionismo metodológico. Popper no pretende describir cómo funciona la ciencia en su
estado óptimo, sino que pretende prescribir cómo debería funcionar la ciencia. Su teoría, el
falsacionismo metodológico, a veces coincide con la práctica científica real y adquiere
carácter descriptivo; pero a veces no coincide y se torna a norma descriptiva. Es importante
resaltar esta vertiente: la parte descriptiva y la parte normativa. Popper pretende describir la
ciencia del pasado y establecer una normatividad de la ciencia, siendo este punto uno de los
que ha sido objeto de crítica por parte de los autores que han escrito en contra del
falsacionismo metodológico.
Con esta crítica al falsacionismo metodológico pasamos al Popper3, de la misma forma que
la crítica al falsacionismo ingenuo nos hizo pasar el Popper2. Se puede interpretar a Popper
en cuanto falsacionismo sofisticado, denominado como Popper3, y cuya característica más
importante es la de resaltar la importancia de los contextos mono-teóricos de contrastación.
Esta crítica dirá que la filosofía de Popper es pura normativa descriptiva, es decir, la ciencia
se ha escrito y se está escribiendo de uno modo distinto al falsacionismo metodológico. Hay
tres observaciones que apoyan esta crítica:
Las teorías reales demuestran una notable tenacidad, es decir, se elaboran teorías sin tener
demasiado en cuenta las anomalías.
Si anomalía significa rechazo, tendríamos que abandonar toda ciencia, y esto no es una
laguna racional de la ciencia, sino que es una característica racional de la ciencia. Esto se
basa en el método de autodeterminación del campo de aplicación de una teoría: todas las
teorías tienen un campo delimitado y, a la hora de trazar las fronteras, el campo de aplicación
tiene un carácter autodeterminado.
Para trazar el ámbito fenoménico de una teoría hay que saber lo que es una teoría, para lo
cual ésta se entiende bien como una teoría matemática o bien como un conjunto de
aplicaciones empíricas que son sistemas empíricos y que no son independientes de la
estructura matemática. Por ejemplo, la mecánica clásica de partículas, que depende de lo que
entendemos por mecánica clásica; si la entendemos como estructura teórica, será el conjunto
de las tres leyes de Newton y la ley de gravitación; si la entendemos como conjunto de
37
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
aplicaciones paradigmáticas, será el cambio en las mareas, etc. Así, para determinar el campo
de la mecánica clásica de partículas, son imprescindibles estos dos requisitos: teoría
matemática (estructura teórica) y conjunto de aplicaciones paradigmáticas. Con esto, teoría y
experiencia no son independientes. Pero Popper, al mantener el falsacionismo que establece
el abandono de la teoría en el caso de que ésta fuera falsada, concibe teoría y experiencia
como dependientes. Este método de autodeterminación justifica la tenacidad de las teorías
frente a las anomalías.
Una segunda línea de crítica, mejor asumida por Popper, es que el desarrollo de la ciencia, en
contra de Popper2, no es un desarrollo lineal, sino un desarrollo pluralista; esto es, sólo puede
hablarse de falsación y eventualmente de rechazo cuando existe competencia entre teorías.
Esta línea recupera la de las críticas a Popper, y es una crítica asumida por Popper3 frente a
Popper2: en Popper3 unas teorías se enfrentan a otras, mientras que en Popper2 se enfrentan
solas e individualmente al tribunal de la experiencia.
Según Lakatos, lo que sugiere Popper3 no es que propongamos una teoría a la naturaleza y
que la naturaleza nos susurre un ineludible sí probabilista o que nos grite un rotundo no a lo
Popper1, sino que lo que hacemos es proponer un grupo de teorías de forma que la naturaleza
nos diga “inconsistente”. Para Popper3, la ciencia no evoluciona por falsación de teorías
mediante hechos, sino por la solución de inconsistencias entre teorías estrechamente
relacionadas. De este modo, podemos decir que a Popper, desde su punto de vista dinámico y
pluralista, no le preocupa tanto encontrar criterios de justificación como el aumento de
conocimiento en ciencia, de ahí que en su obra se pregunte en qué sentido podemos hablar de
aumento o progreso del conocimiento.
38
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Popper afirma que, como recomendación metodológica, en el campo del realismo se debería
tender a describir y realizar más la realidad, es decir, debería orientarse a la verdad. La
verdad, para Popper, es un principio regulativo inalcanzable, y entiende el concepto de
verdad en un sentido tarskiano, como correspondencia con los hechos. Añade que la verdad o
falsedad son propias de enunciados formulados sin ambigüedad en un lenguaje L sobre el que
podemos hablar en un metalenguaje Lm de dos formas:
La relación entre los conceptos de verdad y realidad queda clara por los comentarios que
hace Popper en su obra acerca del sentido tarskiano. Afirma: si podemos definir “verdad”
(entendida extensivamente como el conjunto de los enunciados verdaderos) como
“correspondencia con los hechos” (con la realidad), entonces podemos definir “realidad”
como “correspondencia con la verdad”. Para Popper, si bien las teorías no pueden ser
verdaderas, porque no pueden ser demostrables, sí que pueden estar más o menos cerca de la
verdad, es decir, ser más o menos verosímiles o tener un mayor o menor grado de
verosimilitud.
Crítica a Popper2
La crítica a esta concepción popperiana consiste en decir que ésta supone una metodología
normativa, es decir, la ciencia real se ha desarrollado y se desarrolla de un modo distinto al
descrito por el falsacionismo metodológico. Hay tres observaciones que apoyan esto:
No es infrecuente que se restablezcan teorías que han sido falsadas y rechazadas en el
pasado. Por ejemplo, la teoría corpuscular de la luz.
39
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Las teorías reales demuestran una notable tenacidad, es decir, se elaboran teorías sin tener
demasiado en cuenta sus anomalías. Si anomalía significase rechazo, habría que rechazar
toda ciencia, pues no hay ninguna teoría que no tenga que hacer frente a alguna anomalía, y
esto es una característica de racionalidad de la ciencia. Está basado en lo que se llama el
método de autodeterminación del campo de aplicación de una teoría.
Todas las teorías tienen un campo determinado que se delimita porque este campo de
aplicación tiene un carácter auto-determinado.
Vamos a ver la parte menos técnica, la que no es puro formalismo, acometiendo la cuestión
de la verosimilitud, relacionada con la defensa de Popper del realismo crítico y con el
desarrollo del falsacionismo sofisticado. El concepto de verosimilitud es un concepto lógico,
no epistemológico, que combina los conceptos de contenido y verdad (originales de Tarski):
intuitivamente, una teoría será tanto más verosímil a medida en que más consecuencias
verdaderas se deduzcan de ella y, por tanto, menos consecuencias falsas. De un modo más
técnico, es la diferencia entre dos contenidos de verdad y falsedad de una teoría o clase de
consecuencias, entendiendo por teoría una conjunción finita de enunciados.
Así, es importante distinguir los conceptos de verdad y verosimilitud, dado que, para Popper,
el objetivo de la ciencia es la búsqueda de la verosimilitud, no de la verdad. Popper utiliza los
conceptos de verdad y falsedad para enunciados y para conjuntos de enunciados. Sobre esta
base, Popper reformula su criterio pragmático de preferencia afirmando que dadas dos teorías
rivales T1 y T2, T2 es más verosímil que T1 y, por tanto, preferible a T1, cuando se dan las
siguientes condiciones:
T1 y T2 deben ser comparables en cuanto a las medidas de sus contenidos de verdad y
falsedad.
Este discurso popperiano acerca de teorías más o menos próximas a la verdad y alejadas de la
falsedad, más o menos verdaderas o falsas, parece que rebasa el ámbito de la lógica
bivalente, y esto no es así porque el tercero sigue estando excluido. Una teoría es literalmente
falsa cuando tiene al menos un enunciado falso, pero una teoría es más o menos falsa según
la cantidad de enunciados falsos que tenga.
A partir de aquí, la cosa se complica con ejemplos de difícil elaboración y se convierte en una
discusión muy técnica. El planteamiento de la discusión técnica es el siguiente: tenemos una
constante (a), una variable (x) y un lenguaje artificial (L). Se utiliza (A) para hacer referencia
a la clase consecuente o de consecuencia de (a), y, de este modo, la primera definición es que
el contenido de (a) es:
40
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Cn (a) = {x | a ∴ x} = A
Si tenemos un enunciado verdadero, por ejemplo, (t), su clase de consecuencia sería (T) en
(L). Así, el contenido de verdad de una clase consecuente puede definirse como la
intersección entre la clase consecuente de (a) y los enunciados verdaderos en (L):
Cn T (a) = A ∧ T
Una primera dificultad que se plantea es si se puede definir de manera análoga el contenido
de falsedad, algo que no puede ser porque a partir de un enunciado falso se puede inferir uno
no falso:
Cn F (a) = A ∧ F
Ct = medida del C
Ct (a) = 1 – P (a)
De aquí, Popper afirma que la medida del contenido de cualquier enunciado es un valor entre
el intervalo cerrado entre 0 y 1:
0 ≤ Ct (a) ≤ 1
-1 ≤ Vs (a) ≤ 1
41
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Dados dos enunciados (a) y (b), Popper dirá que Vs (a) es menor que Vs (b) si y sólo si se da
una de las siguientes situaciones:
Ct T (a) < Ct T (b) y Ct F (a) ≥ Ct F (b)
Ct F (b) < Ct F (a) y Ct T (b) ≥ Ct T (a)
Esto es muy difícil de objetivizar. Popper no trataba de sacar adelante un marco operativo
útil, sino que trataba de rehabilitar un concepto filosófico sospechoso e importante para el
realismo científico: el concepto de verdad.
En este tema se hace imposible no hacer referencia a Darwin, el cual no fue quien dijo por
primera vez “la supervivencia del más apto”, sino que rescató esta frase de Spencer. Popper
afirma que esta frase es tautológica, pero ¿a quién se refiere con “más apto”? Lo más obvio
es pensar en los individuos (fenotipos), pero podrían ser los caracteres de los individuos. Otra
opción sería la información genética (genotipos), y también podría pensarse que son los
cromosomas individuales o, quizá, los genes. Si atendemos a un orden más complejo,
diríamos que las familias, los grupos sociales o, a lo mejor, las especies. Así pues, ¿quién
compite? Esta es una pregunta que Darwin dejó deliberadamente abierta conformando el
problema de la unidad de la selección.
No siempre lo mejor para los genes es lo mejor para la especio o para los individuos; por
ejemplo, la maternidad ordinaria es buena para el individuo, pero quizá no para la familia; y
una adopción de un individuo sin parentesco es buena para el individuo, mientras que no lo
es para los genes en cuanto que no se transmiten los genes de la familia.
El tamaño de la población suele estabilizarse antes de que los alimentos se agoten. Esto
ocurre porque o bien el tamaño de la puesta o la comanda disminuye en poblaciones elevadas
o bien porque una parte no consigue reproducirse con éxito.
42
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Parecía imposible explicar este fenómeno sobre individuos o unidades más básicas. Se denomina
“selección de grupo” a la situación en la que hay un altruismo individual y un egoísmo grupal.
La competición no es entre individuos, sino entre grupos de individuos: los que luchan, los más
aptos, son los grupos, y sólo así se puede explicar el sacrificio del individuo por el grupo.
C.Lack ha puesto en entredicho esta teoría de la selección individual, afirma que no hay que
acudir al nivel del grupo y hablar de altruismo individual para explicar el control en los
tamaños de población. Las poblaciones pequeñas de algunas aves pueden maximizar mejor el
número de polluelos que llega a adultos en condiciones de escasez, y estas aves no son
altruistas, sino egoístas individuales, siendo las aves que desarrollan este comportamiento las
que más posibilidades tienen de transmitir sus genes.
Estos son los contextos monoteóricos, tenemos dos teorías con explicaciones alternativas
para unos mismos hechos: la regulación de la población en condiciones difíciles y el
mantenimiento constante en condiciones naturales (población estable). Por tanto,
necesitamos buscar un contexto de observación en el que una teoría diga A y la otra diga ¬
A, es decir, un experimento crucial.
Putnam afirma que el modelo popperiano del cambio científico es un modelo heroico, siendo
más realista debe explicar los hechos a partir de las leyes (cambiando hipótesis auxiliares,
etc.). Necesitamos idear una observación en que se contradigan ambas teorías, y para diseñar
esto se necesita un componente creativo por parte del científico. R. Alexander afirma que hay
que buscar poblaciones que se reproduzcan una vez en la vida y ver si, en condiciones
difíciles, disminuye su puesta o camada; en caso de que fuera así, la teoría correcta sería la
selección de grupo, y el caso contrario sería la de la selección individual. El salmón sólo se
reproduce una vez en la vida y, por difíciles que sean las condiciones, no reducen la puesta; y,
también, hay una mosca que es devorada por sus larvas, de modo que en lo único que piensa
es en la transmisión de génesis. Así, hemos obtenido una corroboración de la selección
individual a costa de una falsación de la selección grupal.
43
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Lakatos parte del falsacionismo sofisticado llevando esta idea más allá de lo que lo hizo
Popper en “Conocimiento objtivo”, donde decía que hay que pensar en series de teorías y no
en teorías aisladas. Asimismo, Lakatos afirma que la unidad de análisis no pueden ser las
teorías aisladas, sino las series de teorías que forman los programas de investigación. Con la
evolución del positivismo al empirismo lógico, hasta las posiciones maduras de Hempel o el
falsacionismo de Popper hacen que las teorías, no las oraciones, sean tomadas como
elementos mínimos de análisis. Pero Lakatos propone un paso más: la unidad de análisis
deben ser los conjuntos de conjuntos de enunciados, es decir, conjuntos de teorías, pues sólo
de éstas puede decirse que progresan o degeneran, que son científicas o no.
Elitismo (Kuhn): coincide en gran medida con el pragmatismo y supone que las
teorías sí pueden ser evaluadas, aunque no existen criterios objetivos para tal cosa,
por lo que la ciencia sólo puede ser juzgada por los casos particulares siendo los
únicos jueces los científicos, los cuales son la elite que decide qué teoría es mejor, qué
es ciencia y qué no lo es.
Escepticismo (Feyerabend): no sólo no existe tal criterio objetivo, sino que además no
puede haber solución al problema de la demarcación, pues ningún criterio tiene
superioridad epistemológica. Por tanto, ni siquiera los científicos tendrían por qué
compartir un mismo código.
Lakatos, para dar su respuesta falsacionista, toma como apoyo el falsacionismo sofisticado de
Popper. Además, es un autor post-kuhniano y tiene muy presente la obra de éste. Acomete su
estudio de la ciencia a partir de casos históricos particulares y ve que la ciencia real no
siempre se acomoda al patrón de objetividad y racionalidad que busca en ella. Lakatos
44
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
reconoce ciertos rasgos de irracionalidad que, según él, son exagerados en Kuhn. Divide la
ciencia en interna y externa afirmando que toda concepción histórica está inevitablemente
distorsionada, es deformada por idealizadora. En la ciencia real hay patrones de conducta
racional, pero en ella también encontramos científicos movidos por aspiraciones no tan
racionales (ambición, notoriedad, convicción religiosa, etc.). Así, el papel del filósofo de la
ciencia es el de la reconstrucción racional, por eso debe maximizar la historia interna
(normas, objeto de estudio) minimizando su historia externa (sociología).
Que parte de ese contenido empírico excedente esté corroborado, lo que significa que parte
de esas predicciones tengan éxito.
Cuando se dan estas dos condiciones, podemos decir que el desarrollo teórico va por delante
del empírico y, por tanto, un programa de investigación es aceptable o progresivo. En caso
contrario, se dirá que el programa de investigación es degenerativo, caso típico cuando sólo
se producen explicaciones “post hoc” bien de descubrimientos casuales o de hechos
45
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
La heurística negativa especifica el núcleo del programa, que es irrefutable por decisión
metodológica, normalmente implícita. Lakatos prohibe al científico dirigir el modus tollens
hacia las leyes fundamentales del programa. Estos núcleos de leyes fundamentales están
rodeados de cinturones protectores que deben ser el objeto, según la heurística negativa, del
fracaso, y contra el que dirigir el modus tollens. Las hipótesis auxiliares y las condiciones
iniciales formarían parte de ese cinturón, y serían el objeto de aplicación del modus tollens;
esto es, la heurística negativa nos dice que conservemos la ley fundamental, muy valiosa, y
comencemos sospechando de las hipótesis auxiliares o de las condiciones iniciales.
Este convencionalismo por el que aboga Lakatos está en las antípodas del convencionalismo
por el que aboga Popper, pues Lakatos está más cerca del convencionalismo tradicional de
Duhem o Poincaré. Ahora bien, a diferencia del convencionalismo clásico, Lakatos afirma
que el suyo es una cuestión lógica y empírica, pues esa decisión convencional (la de no
dirigir el modus tollens al núcleo del programa) sólo protege el núcleo en la medida en que
nos encontremos frente a un cambio-de-problemas progresivo. Es decir, la refutación no debe
dirigirse al núcleo mientras siga aumentando el contenido empírico corroborado del proceso.
46
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
cuadrado para las órbitas elípticas de Kepler, pero este modelo constituía una excesiva
simplificación del sistema estudiado. En una posterior elaboración del programa, en un
segundo modelo, tenemos que tanto el Sol como el planeta giran en torno al centro de
gravedad del sistema formado por ambos cuerpos. Pero este modelo continúa siendo una
excesiva simplificación, por lo que habría un tercer modelo. En el tercer modelo, Newton
introduce más planetas, pero sin fuerza planetaria. Sin embargo, este modelo continúa siendo
de una excesiva simplificación. Así, nuevas elaboraciones del programa consistirían en
nuevos modelos en los que se iría introduciendo, progresivamente que: tanto el Sol como los
planetas ya no sean puntos-masa, sino esferas de masa; se introducirían esferas de rotación y
oscilaciones (aún en un nivel de idealización alto); se tendrían en cuenta fuerzas
interplanetarias y perturbaciones; se cualificaría esas esferas-masa y se introducirían planetas
irregulares, etc.
Cada uno de estos modelos está condenado a ser sustituido por otro más complejo en el
desarrollo del programa, por lo que Lakatos afirma que la refutación no es importantes,
porque las anomalías están previstas de antemano; pero, mientras continuemos sabiendo las
anomalías que vamos a tener, nuestro programa de investigación irá por buen camino. Esto
es, sólo cuando nos encontremos con hechos imprevistos presentados por un programa rival,
nuestro programa de investigación entraría en una fase degenerativa.
El desarrollo de una de estas cadenas de modelos puede ser entendido como un evento de la
sofisticación del número de supuestos y de hipótesis auxiliares. Para Lakatos, es el éxito en
desarrollar esos nuevos conjuntos de hipótesis auxiliares y condiciones iniciales para un
núcleo lo que garantiza un creciente contenido empírico corroborado y, por tanto, la
inmunidad del núcleo. Si la cadena se estanca, una vez falsado el último modelo de esa
cadena, un modelo que nace ya falsado, entonces el modus tollens debería dirigirse contra el
núcleo. Cuando la heurística positiva se estanca, comienza a prestarse más atención a las
anomalías que, al irse acumulando, comienzan a hacer imposible continuar con un programa
de investigación. Obviamente, incluso con un programa de investigación progresivo, hay
anomalías imprevistas, pero éstas se aparcan en espera de tiempos mejores teniendo en
cuenta que cuando ya no hay más sitio para aparcar se entra en la fase degenerativa. No
obstante, es lógico que se haga caso omiso de las refutaciones.
Otro tema que se aborda es el de los experimentos cruciales. Lakatos dice que un
experimento crucial sólo lo es para una teoría en el contexto de un programa de
investigación, pero esta visión contextualizada de los experimentos cruciales hace concluir
que los experimentos cruciales sólo lo son de un modo retrospectivo. Así, el experimento
crucial resulta negativo para una teoría y positivo para la contraria, lo cual no quiere decir
que por un resultado adverso a nuestra teoría, deba abandonarse esta teoría, pues el
experimento crucial no es relevante para abandonar la teoría, y sólo será relevante cuando
este experimento crucial sea perjudicial para el programa haciendo que éste degenere.
Para Lakatos, un programa de investigación estancado aún puede ser recuperado, y hay
muchas formas de seguir sacándolo adelante; es decir, hay muchas formas de seguir
sofisticando el cinturón protector que nos permite seguir hablando de una progresión teórica.
47
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Esta reflexión de Lakatos sobre los experimentos cruciales es muy importante porque es lo
que le lleva a abandonar lo que él denomina racionalidad instantánea. Afirma que, en ciencia,
no hay racionalidad instantánea, del mismo modo que un experimento crucial que se
considera de determinada manera produce un resultado negativo, solo en estos casos
podemos decir que un resultado adverso fue decisivo o no. Esta reflexión es la que le
conduce a su visión no monoteórica en filosofía de la ciencia.
En un sentido lakatiano, autores como Irene Szumilewicz dice lo mismo que Lakatos de los
experimentos cruciales, pero de los aportes revolucionarios, estableciendo que de un aporte
revolucionario sólo se dice que lo fue retrospectivamente. También afirma que no
disponemos en ciencia de racionalidad instantánea, es decir, que un aporte no es decisivo en
el momento en el que se da, sino que ha de pasar mucho tiempo para que se vea si un
experimento crucial o algo semejante es decisivo o no lo es. Por ejemplo, los premios Nobel
se otorga a un determinado señor décadas después debido a que sus logros son importante
mucho tiempo después de que se haya hecho efectivo su descubrimiento, no en el momento.
Clasifica los elementos filosóficos a través del tiempo y que su filosofía es el punto de
llegada porque conduce a un cambio de problemas mejor en la filosofía de la ciencia. Así, se
justifica. De un modo crítico, Lakatos utiliza sus propios cánones para establecer esto. Esta
propuesta de Lakatos ha sido recogida recientemente por L. Laudan. Quiere, junto con sus
colaboradores, sacar adelante una filosofía contrastable en ciencia, donde el desarrollo
teórico anticipe el desarrollo empírico, es decir, lo que Lakatos llamaría un desarrollo
progresivo en filosofía. Además, este debe ser un desarrollo capaz de hacer predicciones y
saber si éstas tienen éxito o no lo tienen.
48
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Paul Feyerabend fue muy amigo de Lakatos, y también pluralista teórico, aunque mucho más
radical que éste último, quizás porque vivió más. Feyerabend es el autor más famoso del
anarquismo metodológico (todo vale), es bastante provocador y heterodoxo. Su obra en
español es abundante. Su pensamiento evoluciona y, hasta 1970, es sobre todo un crítico del
empirismo lógico que sigue de cerca las ideas de Popper pero introduciendo innovaciones.
Sin embargo, a partir de 1970 se aleja ya mucho de Popper y postula su propio enfoque, lo
que llamó anarquismo metodológico. Así, hay dos Feyerabend: del año 58 al 70 es
antipositivista y popperiano, y a partir del año 70 postula el anarquismo metodológico.
Nosotros trataremos sobre el primer Feyerabend, el más gris y popperiano, mientras que el
segundo es más crítico y revolucionario.
Feyerabend escribía artículos muy largos que, habitualmente, desarrolla un poco más
publicándolos en forma de libro.
En esta serie, si tomamos de ella un elemento cualquiera (Ti), éste debe constituir siempre
una extensión teórica y empírica de su correspondiente elemento antecesor (Ti-1). Esto es,
esta tesis del desarrollo por reducción exige que cada una de estas evoluciones teóricas
cumplan dos requisitos:
Extensión empírica: toda aplicación propuesta por Ti-1 corresponde al menos a una
aplicación propuesta para Ti, es decir, debe producir una extensión empírica.
Extensión teórica o explicativa: todo lo que Ti-1 dice acerca de una aplicación dada puede
deducirse de lo que Ti diga acerca de cualquier aplicación correspondiente.
Por un lado, lo que nos dice esta tesis es que, si tomamos una serie de lo que sea y podemos
fijar un punto cero (teoría de la que parte una disciplina), entonces hay un arranque
convencional porque a partir de él se da la teoría. Así, lo que Feyerabend nos dice es que en
la siguiente serie:
49
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Ti tiene que tener la misma extensión o mayor que T0, debe haber cada vez más extensión a
medida que va aumentando esta serie de teorías. Por otro lado, también nos dice que debe
existir una relación de reducción en la que cada uno de estos escalones se reduzca al
siguiente, es decir, se puede deducir el eslabón teórico antecesor desde el eslabón sucesor, de
modo que deducimos T0 desde T1. Por ejemplo, la evolución de la física.
Consistencia: en un dominio empírico dado, sólo son admisibles aquellas teorías que o bien
contienen a las teorías ya usadas en este dominio o bien son consistentes con ellas.
Invarianza del significado: en las teorías que se apliquen sobre un mismo dominio empírico,
los significados de los términos descriptivos han se ser invariantes.
Feyerabend dice que estas dos condiciones son necesarias para asegurar la derivabilidad que
requiere la tesis del desarrollo por reducción. Aquí termina el desarrollo que lo que se
propone criticar; y, a partir de aquí, ataca estos pilares, estas condiciones de la visión
acumulativa de la ciencia, que él dice que son las condiciones de consistencia y de invarianza
del significado. Para Feyerabend, estas condiciones no se cumplen nunca, sino que describen
una ciencia fantástica que poco tiene que ver con la ciencia real, por lo que dirige su crítica a
cómo, en la ciencia real, esas condiciones ni son el caso ni deberían serlo, porque no nos
sirven para describir la ciencia del pasado ni para re-escribir lo que debería ser la ciencia.
50
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
concuerden con las viejas favorece lo viejo, no lo mejor, y se estaría preservando lo antiguo y
familiar por el mero hecho de ser antiguo y familiar.
Feyerabend extiende su crítica a la ciencia normal de Kuhn, duda que haya una ciencia
normal y afirma que, si la hubiera, sería indeseable, puesto que la ciencia normal asume la
consistencia.
Feyerabend dedica mucho espacio a discutir el lenguaje de la física, sobre todo con el
concepto de masa: este concepto es una propiedad de los objetos en la mecánica de Newton,
mientras que en la mecánica relativista deja de ser una propiedad para convertirse en un una
relación (depende de la velocidad de un objeto respecto de un sistema de coordenadas dado).
Feyerabend dice que, aún haciendo el esfuerzo por establecerla como relación, la masa de las
dos mecánicas tampoco sería lo mismo, pues se impondrían distintas leyes de transformación
para una masa y para otra.
51
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
El principal argumento crítico es que no hay un lenguaje de observación neutral, puesto que
el significado de cada término descriptivo depende de cada contexto teórico en el que ocurre.
Por tanto, hemos de observar que la condición de invariabilidad no se cumple y, si esto es así,
la condición de consistencia tampoco, porque la condición de invariabilidad es necesaria para
la condición de consistencia, es más importante y tiene un papel más fundamental. De este
modo, postular como principio metodológico la invariabilidad de significado es propiciar el
estancamiento de las teorías científicas. Feyerabend defiende un flujo bidireccional entre
teorías y experiencia, y supone que reconocer este flujo muestra aún con más claridad la
irracionalidad de la condición de invariabilidad, porque, dado que todo cambio que se da en
una teoría modifica el significado de los términos, admitir la invariabilidad significa detener
los cambios de las teorías.
En “Problemas del empirismo” (1965), Feyerabend afirma que “todo vale” no significa que
todo deba ser aceptado. En esta obra ensaya una concepción alternativa de la ciencia que le
permite articular un criterio alternativo de evaluación de las teorías, es decir, una nueva
filosofía de la ciencia en la que las teorías resulten también aceptadas o rechazadas sobre la
base de las observaciones. Sin embargo, al final, tomará una posición escéptica.
Feyerabend aborda el problema de hallar algún tipo de demarcacionismo con el que mantener
la inexistencia de un lenguaje neutral, desarrollando la teoría pragmática de la observación.
En esta teoría acuerda un estatus especial para los enunciados de observación en la puesta a
prueba de las teorías e hipótesis, pero Feyerabend difiere en el carácter de esos enunciados de
observación, porque, si fuera así, esos enunciados deberían versar sobre impresiones
sensoriales y, sin embargo, lo que podemos utilizar para poner a prueba una teoría no son
impresiones sensoriales, sino fenómenos.
Hay que tener en cuenta que en Feyerabend hay una relación entre teoría y experiencia; por
ejemplo, el enunciado “un objeto tiene masa” supone interpretar el objeto como un objeto
que se comporta de acuerdo con leyes y regularidades características de la masa en el
contexto teórico en el cual aparece, que es el de la mecánica de Newton. De este modo, los
enunciados de observación se extrapolan más allá de las observaciones, interpretando las
sensaciones y propiedades como hechos objetivos que funcionan de acuerdo con leyes
características. Por tanto, Feyerabend está caracterizando a los enunciados de observación
como enunciados teóricamente dependientes, como enunciados que dependen siempre de una
teoría.
Estos enunciados, para Feyerabend, son la base empírica, por lo que se pregunta: si
establecemos estos enunciados como base empírica, cómo podríamos desarrollar un criterio
de demarcación y comparación teórica entre teorías. Dice que la forma de ver el mundo
depende de cosmovisiones, visiones globales que, a su vez, se edifican sobre presupuestos
52
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
(Weltanschaung), por lo que, si esto es así, cuando tenemos que comparar teorías de bajo
nivel es totalmente soluble. La carga teórica de los enunciados de observación puede ser la
cosmovisión, en el seno de la cual aparecen teorías de bajo nivel que pueden ser comparadas.
El problema se plantea cuando se intenta comparar cosmovisiones, teorías de alto nivel, que
no poseen una globalidad mayor; es decir, cuando las teorías que tenemos que comparar son
muy generales. Este es el problema de la inconmensurabilidad o falta de conexión deductiva
entre las teorías.
Para definir la inconmensurabilidad, Feyerabend dice que es una inconexión deductiva o que
se produce cuando el significado de los principales términos teóricos depende de principios
mutuamente inconsistentes. Cuando se produce la inconmensurabilidad, esas teorías que se
pretende comparar no poseen ya el mismo enunciado de observación.
En “Los problemas del empirismo”, Feyerabend, en cuanto a qué hacer ante este problema,
establece tres posibilidades:
Si T1 y T2 son las teorías inconmensurables que tratan de ser comparadas, se podría hacer
una teoría más general que T1 y T2 mediante la cual podamos describir una base común, que
tendría enunciados de observación aceptables por ambas partes, y que, al hacerlo, haga
también posible la elección.
Se podría realizar un análisis interno de T1 y T2 y elegir aquella teoría que establezca una
conexión más general con la observación y una interpretación más directa de los datos
observacionales.
Necesita una teoría básica común que debería ser consistente con T1 y T2, lo cual es
imposible porque T1 y T2 han sido definidas como inconmensurables.
En 1970, en “Contra el método”, reconoce que más allá de los límites de una teoría
particular, no son posibles los juicios de verosimilitud, es decir, no hay tal criterio único y
objetivo. Una teoría sólo puede contradecirse por refutaciones internas, y lo que quedan son
juicios estéticos, juicios de gusto y nuestros propios deseos subjetivos. Obviamente, para
Feyerabend, lo que queda es el relativismo.
Shapere, en 1966, abre una línea de crítica muy importante a Feyerabend, la cual ha
propiciado la apertura de un gran trabajo sobre la inconmensurabilidad. M. Scriven y D.
53
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Shapere afirma que esta visión escéptica del significado es estrecha: si las sensaciones no
constituyen la base empírica de las teorías, sino que, como dice Feyerabend, esa base está
determinada teóricamente; y si, además, no existen informes observacionales comunes para
teorías mutuamente inconmensurables, entonces ¿cómo pueden ser inconmensurables dos
teorías que no hablan de lo mismo? Shapere afirma que un requisito para la
inconmensurabilidad es que las teorías supuestamente inconmensurables se apliquen a lo
mismo con resultados inconsistentes, es decir, que esas teorías sean efectivamente
alternativas. Pero, estas teorías supuestamente inconmensurables T1 y T2 no pueden ser
alternativas ni rivales puesto que no hablan de lo mismo, sino que tratan de mundos
diferentes en el sentido de que se asientan en clases de experiencia distintas.
Feyerabend reitera la idea de que la ciencia debe separarse del estado estableciendo la ciencia
como la nueva religión; es muy radical en la última parte de su obra y le gusta romper tabúes
y sacar las consecuencias que le interesa sacar.
54
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Los positivistas lógicos, en los años 20, se encuentran una lógica muy desarrollada,
deductiva, que aún no ha recibido ninguna crítica, por lo que es vista como paradigma del
conocimiento riguroso y formal siendo la herramienta para la construcción formal de la
ciencia. Admirando la física, los empiristas lógicos conciben la ciencia de un modo estático,
sin aspectos pragmáticos, con lo que la ciencia es reducida a las esferas internas del
conocimiento, es un saber metódico.
En este contexto, se busca una lógica inductiva, y lo que vamos a ver son los esfuerzos de los
empiristas lógicos para desarrollar la parte procedimental. El método científico era visto
como una combinación de la lógica y la experiencia: la parte de la lógica era clara y
transparente, no suponía ningún problema porque ya se había desarrollado la lógica
simbólica; pero no existe un equivalente a la lógica deductiva para ordenar la experiencia, no
existe ningún cuerpo de conocimiento para ordenar la inferencia inductiva. A esto se debe la
importancia del desarrollo de la lógica inductiva, unas leyes de la inferencia inductiva que
nos permitan decir si un conjunto de datos apoyan o no a una hipótesis general.
En esta cuestión, diferentes autores utilizan distinto vocabulario; hay quien habla de
confirmación, hay quien de corroboración, y hay quien de falsación. Son distintos
vocabularios para describir cómo funciona el método científico en el avance del
conocimiento, pero todos ven la necesidad de desarrollar un conjunto de reglas que regule el
paso de lo particular a lo general. Esto supone una discusión muy técnica que no afecta a la
comparación de teorías, sino al modo en que una teoría es construida por los científicos a
partir de los datos empíricos. Esta discusión inicia su desarrollo con la cuestión sobre la
teoría de la probabilidad.
El objetivo último del desarrollo de una lógica inductiva parece sencillo, a saber, definir
criterios para decidir cuándo algo que observamos apoya una hipótesis general. Pero no es
55
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
tan sencillo. El punto de partida para ver cómo este desafío se implementa es el criterio de J.
Nicort, el cual expone estas ideas en “Fundamentos de geometría”, obra rescatada más tarde
por Hempel. Hempel delimita este campo de discusión siguiendo el criterio de Nicort,
preguntándose cómo un enunciado que describe ese hecho afecta a la probabilidad de una ley
de la forma A→B (A implica B), y responde que afecta de dos modos:
Hempel añade dos postulados más, los de la condición de equivalencia, y estos cuatro
postulados son un desarrollo que hace Hempel a partir de Nicort, son la base para cualquier
discusión en teoría de la confirmación. Estos postulados son los siguientes:
La condición de las leyes científicas. Toda ley de la forma “P implica Q” o “todo P es Q” es
representable como un condicional material de una sola variable cuantificada universalmente:
Λx (Px→Qx)
Si tenemos un objeto “a” del universo “x”, se pueden producir cuatro combinaciones básicas
en cuanto a la experiencia posible:
Hempel considera que es necesario que el contenido de una hipótesis dependa de su forma
lógica, de la forma en que está escrita, por eso ve muy importantes estos postulados. El
problema es que estos cuatro postulados son inconsistentes, producen contradicciones, y este
problema de incorrección formal queda reflejado en la paradoja de la confirmación:
56
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Las dos últimas expresiones señalan una inconsistencia en el conjunto de los cuatro
postulados: los informes de tipo 2d son confirmatorios para leyes Λx (Px→Qx) y, a la vez,
neutrales. Esta paradoja señala una incorrección formal. La paradoja de la confirmación es un
problema de corrección formal que conlleva la necesidad de cambiar o abandonar algunos de
los postulados. Respecto a esta incorrección, algunos autores han intentado resolverla
cambiando el postulado 1, otros el postulado 3 y otros el 2c.
Aquí, como a no forma parte de esa clase de cosas que satisfacen P, ¬Pa∧¬Qa no plantea
problema.
57
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Esta propuesta es criticada por Swinburne critica la respuesta de Scheffler, afirmando que la
primera premisa de este argumento es dudosa y la segunda es claramente incorrecta.
Swinburne realiza la segunda línea de crítica afirmando que la segunda hipótesis es
incorrecta, porque la rival de una hipótesis no es la contraria: la alternativa habitual a “todo P
es Q” no es “todo P es no Q”, sino “todo P, excepto x, es Q” o “algún P es no Q”.
De acuerdo con Swinburne, la primera premisa es dudosa porque postularla significa que el
problema central que Hempel plantea en “Teoría de la confirmación” ya no es el problema
tratado, sino que sería el problema de qué confirma una hipótesis en el sentido de volverla
más probable de lo que lo era en términos de un conocimiento base; es decir, qué clase de
información o informe puede hacer más probable una hipótesis en términos de conocimiento
base (K).
Aquí, (k) se suprime porque siempre se supone que hay un conocimiento base. Pero, ¿qué
clase de (e) puede hacer que e∧k, la P(h) sea mayor de lo que era únicamente en términos del
conocimiento de base (k)? ¿qué clase de (e) la puede hacer menor, igual o neutral? Este es el
problema que recoge Hempel.
Imaginemos el típico problema estadístico: una urna con dos bolas que pueden ser blancas o
rojas. Esto sería el conocimiento de base (k), la hipótesis (h) sería “las dos bolas son
blancas”, y el informe de observación (e) sería “acabo de sacar una bola blanca”. Así, ¿tiene
(e) un efecto confirmatorio sobre (h)? ¿qué clase de efecto observacional tendría un efecto
disconfirmatorio de (h)? La aplicación del teorema es la siguiente: P = 1/2²
P(h) = ½ ⋅ ½ = ¼
P(h/e) = ¼ ⋅ [(1/1)/(1/2)] = 2/4 = ½ ; P(h) < P(h/e)
58
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Goddard es un autor que propone que, aún cuando rechacemos con Scheffler el postulado 4,
no nos veríamos libres de problemas. Supongamos una instancia positiva bastante
confirmatoria Pa ∧ Qa que confirma la ley Λx (Px→Qx):
En los dos últimos puntos tenemos que una misma evidencia respalda dos leyes diferentes; es
decir, respaldaría “todo cuervo es negro” y “toda cosa negra es un cuervo”, y aquí se dicen
cosas diferentes. Si la única evidencia de que disponemos está expresada de forma
conjuntiva, ninguna evidencia puede discriminar, a efectos confirmatorios, entre “todo P es
Q” y “todo Q es P”, aunque digan cosas diferentes. Por tanto, la respuesta de Scheffler
conduce a paradojas.
Esta propuesta de Hempel contiene la paradoja de los cuervos, que es una paradoja de
adecuación material, es relativa a una propuesta que se considera no plausible desde el punto
de vista de la realidad del mundo de la ciencia. Para confirmar “todo cuervo es negro”,
bastaría con ir al armario de casa y buscar objetos que no sean negros, y no sean cuervos, con
lo que obtendríamos evidencia confirmatoria de esa ley general. Aún así, Hempel defiende
esta propuesta diciendo que este es el modo en que proceden los científicos. Para explicar
esto, Hempel utiliza el argumento de la ilusión psicológica, el cual viene a decir que estamos
engañados: hay una tendencia errónea a creer que una hipótesis como “todo P es Q” sólo dice
algo acerca de la clase de cosas que son P, que sólo nos informa de {P}; y esa creencia
errónea es la que está detrás de nuestra creencia de que el informe anterior ha de ser neutral.
Pero, para Hempel, esto es una ilusión psicológica basada en esa creencia errónea, es
confundir consideraciones lógicas con consideraciones prácticas.
Desde el punto de vista del aporte lógico, Hempel afirma que la aplicabilidad de “todo P es
Q”, en la práctica, puede restringirse a {P} o conjunto de todas las cosas que satisfacen a P;
pero, desde el punto de vista de la lógica, esa hipótesis alude a todos los objetos, cumplan o
no el predicado P, dividiendo el universo de una cierta forma: divide los objetos de modo que
o bien no cumplen P o bien cumplen Q, es decir, Q: ¬P∨Q. Este es un enunciado con las
mismas condiciones de verdad que P→Q, que es lo que dice “todo P es Q”.
Sin hablar de Hempel, hay otros autores que apoyan este argumento:
Veamos Q. Imaginamos que examinamos un objeto que cumple el predicado Q:Qa, entonces
¿qué enunciado general es confirmado por esa observación? Q es el predicado “ser negro” y
confirma la hipótesis general “todo es negro”, y de aquí se puede seguir “todo cuervo es
negro” (h1→h2). Es decir, “todo es negro” es condición suficiente para confirmar “todo
59
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Veamos ¬P. se trataría de observar algo que no sea cuervo, ¬Pa, lo que expresaría “no hay
cuervos” o “nada es un cuervo”. Ahora bien, si no hay cuervos, entonces Px es falso y,
entonces Λx (Px→Qx) es verdadero, es decir, el condicional es verdadero. Así, la
observación de ¬Pa, por sus condiciones de verdad también da apoyo confirmatorio a “todo
cuervo es negro”.
Desde el punto de vista del aporte psicológico, Hempel se pregunta por qué tendemos a ser
escépticos respecto a esto. Aquí Hempel dice que nuestra tendencia a creer que ¬Pa ∧ Qa
jamás puede confirmar Λx (Px→Qx) se debe a la información adicional, que viene dada de
forma implícita y es la responsable de que tendamos a creer que este tipo de observaciones
jamás pueden confirmar Λx (Px→Qx). La generalización no se refiere sólo a las cosas que
son P, sino también a las que no son P.
Hempel dice que confundimos las consideraciones lógicas con las psicológicas y, por ello,
hay que abandonar 2d.
Hay una serie de autores que trataron de desarrollar este argumento de la ilusión psicológica
a fin de frivolizarlo, se trata de autores en los encontramos influencia popperiana y, de los
cuales, el más importante es J. Mackie, aunque también está H.G. Alexander. Estos autores
combinan el argumento de Hempel con algunas intuiciones popperianas: son los enfoques
cuantitativos, aunque más bien son enfoques formales. Reconocen que la información
adicional es siempre necesaria en un grado u otro, y necesitamos siempre una información
mínima incluso para entender las hipótesis, siendo esa información adicional mínima la que
nos dijera cuál es la proporción de las cosas conectadas por la hipótesis. Sobre esta base,
estos autores defienden que, efectivamente, Pa∧Qa confirma Λx (Px→Qx), y que ¬Pa∧¬Qa
confirma Λx (Px→Qx), pero o hacen en medidas distintas que dependen de la proporción de
cosas que sean P y la proporción de cosas que sean Q. Llamando a la información adicional
(K), podemos representar esto así:
P ¬P x: 1-x
Q¬ y: 1-y
En la medida en que haya muchas más cosas que son ¬Q, y menos que son P, en esa misma
medida que es en la que aumenta la diferencia de x a 1-y, Pa∧Qa confirmará mejor “todo P es
Q”, que no ¬Pa∧¬Qa. Estos autores suelen argumentar que esa medida es muy fuerte, muy
alta; por ejemplo, en relación a “todo cuervo es negro”, hay muchas más cosas que son no
negras que cosas que son cuervos. Aquí dice que 1-y debe ser alto, y x debe ser limitada,
restringida. En la medida en que x sea menor, nuestra probabilidad de encontrar un cuervo es
menor, y es menor la de encontrar un cuervo negro. Complementariamente, a medida en que
1-y sea mayor, nuestra probabilidad de encontrar algo negro será menor y, por tanto, nuestra
probabilidad de encontrar un cuervo negro. Este es un argumento popperiano.
60
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Lo que dice el teorema de Bayés es la base intuitiva del criterio de Mackie. El principio de
relevancia de Mackie o criterio inverso es:
C1: dados (b1) y (b2) que confirman (h) en relación a K, (b1) confirma mejor (h) en relación
a K de lo que lo hace (b2) si y sólo si:
C2: dadas (h1) y (h2), que son confirmación por (b) en relación a K, (h1) es mejor
confirmada por (b) en relación a K de lo que lo es (h2) si y sólo si:
Se pueden comparar sólo los numeradores, obviando el denominador, puesto que ambos son
iguales: P (b/K)
Pero las paradojas no terminan aquí, sino que éste es un campo de discusión aún abierto. Una
paradoja que se plantea es generada por estas propuestas de modificación, afecta a los
informes de tipo b3 y fue señalada por Hooker y Stove. Se trata de la paradoja de los zapatos
negros. Un zapato negro es un ¬Pa∧Qa. Esta paradoja dice lo siguiente: aceptamos que un
zapato blanco confirma, a efectos lógicos, una ley de tipo “todo P es Q”; pero con el hallazgo
de un b3 disminuiría el grado de confirmación de “todo P es Q”. Si aplicamos el principio
inverso, además de esa disminución, tendríamos el siguiente valor:
Esto sería perfecto si x=y o si y=1. Si se produjera este tipo de informes, sería neutral; si no,
b3 disconfirma “todo P es Q”.
Así, la extensión del denominador es mayor o igual a la del numerador. Si es mayor, tenemos
el problema de que el cociente da un resultado menor que 0, y el efecto será disconfirmatorio.
Hay autores que han tratado de bajar a la tierra la discusión sobre teoría de la confirmación,
introduciendo cuestiones pragmáticas. Estos autores son, por ejemplo, Watkins, Stov y
Agassi, los cuales afirman que hay que tener en cuenta el marco de la política de
investigación que se sigue. Watkins propone que (b1) y (b4) confirman hipótesis como “todo
P es Q” si son hallados en un intento de falsación de la hipótesis, siendo neutrales si se
descubren casualmente. Con esto, se llega a excluir el efecto confirmatorio de b1 en caso de
que se descubra casualmente, y hace referencia de modo implícito a una política de
investigación. Agassi dice que encontrar un zapato blanco puede confirmar que “todo cuervo
es negro” cuando lo hemos encontrado en un intento activo de refutar “todo cuervo es
negro”.
61
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
Estos autores afirman que asumir una política de investigación u otra hace que incluso los
informes de tipo b1 tengan un valor confirmatorio u otro. Vamos a ver el modelo en que la
introducción de una política de investigación afecta al efecto confirmatorio o
disconfirmatorio de una hipótesis de investigación sobre una ley. Para mostrar esto, estos
autores aplican el principio inverso. Supongamos tres situaciones:
P(b1/K) : la desconocemos
P(b1/K∧q) : es mayor
P(b1/ K) < P(b1/K∧q)
P(b1/K∧h) = P(b1/K∧h∧q)
Según el tercer punto, es más probable encontrar cuervos negros si los estamos buscando a
que si no lo estamos. Según el cuarto punto, si todos los cuervos son negros, la probabilidad
de encontrarlos es la misma los busquemos o no. Así, aplicando el principio inverso:
El punto central de estos autores es introducir cuestiones pragmáticas que rebasan el ámbito
de la lógica. El uso del concepto “política de investigación” les permite decir que un informe
de tipo b1 tendrá un importe confirmatorio u otro para una generalización dependiendo de la
política de investigación seguida al recoger ese informe. Hay dos opciones: buscar instancias
favorables y buscar contra-instancias, y las dos no pueden tener el mismo importe
confirmatorio.
De aquí, se sigue que las instancias favorables no respaldan la hipótesis de la misma manera
cuando han sido obtenidas casualmente que cuando son resultado de una política de
investigación conservadora. La confirmación es mayor cuando se obtiene casualmente.
Pero, para una política de investigación falsacionista, concluimos que el valor confirmatorio
de un informe favorable b1 (Pa∧Qa) para una hipótesis será mayor si ha sido obtenido
siguiendo una política de investigación arriesgada a que haya sido obtenido casualmente.
Esto es, el valor confirmatorio de un informe favorable que haya sido obtenido siguiendo una
política de investigación arriesgada será mucho mayor que en el caso de haber sido obtenido
mediante una política de investigación conservadora, por lo que el valor confirmatorio de un
informe depende de la política de investigación seguida.
Siguiendo a Hempel, parece que hay que contar siempre con la información adicional a la
hora de desarrollar una teoría de la confirmación.
Schlesinger dice que cualquier conjunto finito de observaciones implica un número infinito
de hipótesis. Si aceptamos C2, no podríamos mantener una hipótesis particular dada, pues
cualquier hipótesis tiene innumerables hipótesis alternativas que, con base en C2, han de
considerarse igualmente confirmadas por la evidencia. Por ejemplo, sea (h1) una hipótesis en
la que se postula una ley que expresa la co-variación de dos parámetros físicos (p) y (q), la
ley dice: q=f(p), siendo q una función de P; por ejemplo, la presión es función de la
temperatura. El problema de C2 no permite distinguir entre la credibilidad sobre la base del
cuerpo finito que merece la hipótesis determinada y cuya suposición hace igualmente
probable el informe b. Así, volvemos al ejemplo:
Pero tanto (h1) como (h2) implican b. C2 no permite discriminar en cuanto a la credibilidad
de una hipótesis o de otra; es decir, no resuelve el problema de la infradeterminación.
Otro ejemplo: tenemos cinco cartas numeradas del uno al cinco y sacamos tres (información
adicional K):
P(b/K∧hs) = P(b/K∧hc)
b→hs
b→hc (solo incrementa la probabilidad de hc)
Por tanto, b no puede confirmar por igual, a pesar de lo que nos diga la equivalencia (1), con
lo que hay algo que no va bien en el principio inverso, el cual comparaba confirmación con
probabilidad. Este ejemplo se podría extender al infinito a través de hipótesis cada vez más
complejas.
Para la crítica, aduce que no es un criterio adecuado, pues otorga confirmación a cualquier
hipótesis sobre la base de evidencia arbitraria. Por ejemplo:
63
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007
h
h1 = h∧r
P (b/K∧h) > P(b/K)
P(b/K∧h1) = P(b/K∧h) > P(b/K)
Así, este criterio no permite discriminar, y podría ser utilizado para otorgar confirmación a
cualquier hipótesis arbitraria a la que nosotros podamos acudir. El único requisito es que (h)
y (h1) sean consistentes, por lo demás tendrían el mismo grado de credibilidad, y esto es así
por lo que Hempel llama consecuencia inversa: si (b) confirma (h), y (h1) se deriva de (h) [h1
∴h], entonces (b) confirma (h1).
Las teorías son sistemas deductivos que pueden organizarse jerárquicamente: el respaldo de
las leyes empíricas más generales es un apoyo indirecto a las leyes más particulares.
En el caso de la consecuencia especial, ocurre de abajo arriba: si (b) confirma a (h) y de (h)
se deduce (h1) [h∴h1], entonces (b) confirma (h1). Nadie pone a prueba las leyes generales
de la naturaleza para probar leyes específicas. Si hay fundamentos racionales, basados en la
experiencia, para mantener las leyes generales, entonces el apoyo empírico que recibe una
ley particular da un apoyo indirecto a las leyes generales, pero también a las leyes que se
deriven de los axiomas de esa ley.
En la práctica científica real es muy difícil prescindir de las hipótesis auxiliares. No sabemos,
sin embargo, qué hipótesis son necesarias y cuáles innecesarias.
Algunos autores dicen que estos problemas surgen debido al enfoque sintáctico de la ciencia,
que hace uso de la lógica matemática que, al no atender al significado, no es válida para
explicar el problema de la confirmación. Goodmant es un autor que pertenece a esta línea
tratando de dar una respuesta más filosófica en “Fact, fiction and forecast”. Se pregunta qué
clase de evidencias cabe hacer para el futuro. Para ello, debemos ir más allá de lo sintáctico y
el marco de la lógica. Aquí se protesta contra el abuso de la lógica (paradigma deductivo), ya
que el problema de la confirmación surge por la arrogancia del paradigma matemático y
deductivo. El problema de Hume era el de cuadrar matemáticamente la inducción, pero hay
más conocimientos que el inductivo. Hay que fijarse en la proyectabilidad y en la
información adicional que dé cuenta de las predicciones pasadas con éxito o sin él.
64